Vitalik เตือน Grok อาจถูกหล่อหลอมด้วยมุมมองผู้สร้าง (Elon Musk) แม้ภาพรวมดีขึ้น
Vitalik Buterin ผู้ร่วมก่อตั้ง Ethereum ออกมาแสดงมุมมองว่า Grok แชตบอต AI ของแพลตฟอร์ม X (Twitter เดิม) อาจถือเป็น “การปรับปรุงแบบสุทธิ (net improvement)” ต่อแพลตฟอร์ม แม้จะยังมีข้อบกพร่องอยู่ก็ตาม โดยเขามองว่า Grok ช่วยทำให้ X “เป็นมิตรต่อความจริง” มากขึ้น เพราะมักตอบแบบ ท้าทายสมมติฐานของผู้ใช้ แทนที่จะเออออตามเพื่อยืนยันความเชื่อเดิม โดยเฉพาะเรื่องการเมือง
Vitalik ระบุว่า ความสามารถที่คนบน X “เรียกใช้ Grok ได้ทันที” เป็นหนึ่งในสิ่งที่ส่งผลดีต่อความจริงบนแพลตฟอร์มมากที่สุด (รองจาก Community Notes) เพราะผู้ใช้ ไม่สามารถรู้ล่วงหน้าได้ ว่า Grok จะตอบไปทางไหน และนั่นทำให้เกิดสถานการณ์ที่คนเรียก Grok มาเพื่อให้ “ยืนยันความเชื่อการเมืองแบบสุดโต่ง” แต่กลับถูก Grok “สวนกลับ” จนความเชื่อนั้นเสียทรงแทน

ทำไม Vitalik ถึงมองว่า Grok ช่วยเรื่อง “truth-friendly”
แกนหลักที่ Vitalik ให้ความสำคัญคือ “ความคาดเดาไม่ได้” ของคำตอบ Grok ในบางบริบท ซึ่งช่วยลดพฤติกรรม confirmation bias (เลือกฟังเฉพาะสิ่งที่เข้าข้างตัวเอง) ที่เกิดบ่อยบนโซเชียลมีเดีย เมื่อผู้ใช้คาดหวังว่า AI จะเข้าข้าง แต่ AI กลับโต้แย้งด้วยเหตุผลหรือข้อมูล ทำให้บทสนทนา “ไล่เข้าใกล้ความจริง” ได้มากขึ้นในภาพรวม
อย่างไรก็ตาม Vitalik ก็ยอมรับว่ามีข้อกังวลสำคัญคือ การ fine-tune หรือการปรับแต่งโมเดลให้เรียนรู้จาก “ความคิดเห็น” ของผู้ใช้บางกลุ่ม รวมถึงมุมมองของผู้สร้างอย่าง Elon Musk ซึ่งอาจทำให้เกิด “อคติของโมเดล” ได้
ข้อบกพร่องของ Grok และปัญหา “AI หลอน”
ก่อนหน้านี้ Grok เคยตกเป็นประเด็นเรื่อง “คำตอบหลอน (hallucination)” เช่น การยกย่องความสามารถทางกีฬาของ Musk เกินจริง ไปจนถึงการพูดในเชิงเปรียบเทียบที่สร้างกระแสวิจารณ์หนัก โดย Musk อ้างว่าเกิดจาก “adversarial prompting” หรือการป้อนคำสั่งแบบจงใจหลอกระบบ
ประเด็นนี้ทำให้ผู้บริหารในวงการคริปโตบางส่วนยกเหตุผลว่า AI ควรถูกทำให้กระจายศูนย์ (decentralized AI) เพื่อช่วยลดความเสี่ยงเรื่องอคติ เพิ่มความโปร่งใส และทำให้ความน่าเชื่อถือไม่ผูกกับบริษัทเดียว
“AI ยัด worldview เป็นความจริง” คือความเสี่ยงที่ต้องระวัง
อีกมุมที่บทความยกขึ้นมาคือคำเตือนจากฝั่งเทคโนโลยีว่า เมื่อ AI ที่ทรงพลังถูก “ถือครอง ฝึกสอน และกำกับดูแล” โดยบริษัทเดียว อาจทำให้ อคติกลายเป็นความรู้เชิงสถาบัน ได้ กล่าวคือโมเดลเริ่ม “ผลิต worldview” และลำดับความสำคัญบางอย่างราวกับเป็นข้อเท็จจริงกลาง ซึ่งอันตรายเพราะสามารถถูกทำซ้ำในวงกว้างอย่างรวดเร็ว
ด้วยจำนวนผู้ใช้งาน AI ที่เพิ่มขึ้นเรื่อย ๆ ความผิดพลาดเล็ก ๆ สามารถขยายผลเป็นความเข้าใจผิดระดับสังคมได้ง่าย โดยเฉพาะบนแพลตฟอร์มที่การกระจายข้อมูลเกิดเร็วอย่าง X
ไม่ใช่แค่ Grok: AI แชตบอตทั่วโลกยังมีปัญหา
บทความยังชี้ว่า Grok ไม่ได้เป็นรายเดียวที่ถูกตั้งคำถาม เพราะแชตบอตรายอื่น ๆ รวมถึง ChatGPT ก็เคยถูกวิจารณ์เรื่องความเอนเอียงและความคลาดเคลื่อนของข้อเท็จจริงเช่นกัน ขณะที่บางแพลตฟอร์มอย่าง Character.ai ก็มีข่าวด้านข้อกล่าวหาเชิงความปลอดภัยของผู้เยาว์ ซึ่งสะท้อนว่า “มาตรฐานความปลอดภัยและความรับผิดชอบของ AI” ยังต้องพัฒนาอีกมาก
อ้างอิง : cointelegraph.com