นักวิจัย OpenAI พบแล้ว สาเหตุที่โมเดล AI ชอบหลอน เพราะถูกฝึกให้เดาแม้ไม่แน่ใจ

นักวิจัยจาก OpenAI รายงานความคืบหน้าในการแก้ปัญหา ‘อาการหลอน’ (hallucinations) ของโมเดลภาษาใหญ่ (LLM) ที่สร้างข้อมูลผิด แต่แสดงออกเหมือนเป็นข้อเท็จจริง ซึ่งเป็นอุปสรรคใหญ่ของโมเดลยอดนิยมอย่าง GPT-5 และ Claude

ในเอกสารวิจัยที่เผยแพร่เมื่อวันพฤหัสบดีที่ผ่านมา OpenAI ระบุว่า สาเหตุหลักของอาการหลอนเกิดจากวิธีการฝึกโมเดล ที่ให้ตอบคำถามราวกับว่าทุกสิ่งในชีวิตมีสองด้านคือ ถูกหรือผิด ขาวหรือดำ และให้รางวัลกับการเดา มากกว่าการยอมรับว่าไม่แน่ใจ

พูดง่ายๆ คือ โมเดลถูกฝึกให้เดาให้ดูมั่นใจ แทนที่จะเงียบไว้ ถ้าไม่รู้คำตอบ

นักวิจัยระบุว่า โมเดล AI ยังไม่สามารถรับมือกับโลกจริง ที่เต็มไปด้วยความไม่แน่นอนมากกว่าความชัดเจน และความถูกต้องก็ไม่ได้มีให้เสมอไป

ขณะที่มนุษย์เรียนรู้ว่า ถ้าไม่รู้อะไร ก็ยอมรับซะว่าไม่รู้ แต่โมเดลภาษากลับถูกวัดผลด้วยข้อสอบที่ไม่เปิดช่องให้ลังเล ไม่ตอบก็โดนหักคะแนน เลยต้องตอบทุกอย่างแม้จะไม่แน่ใจ

แต่ข่าวดีก็คือ ตอนนี้ OpenAI เสนอแนวทางแก้ไข โดยแนะให้ปรับระบบประเมินผลใหม่ ไม่ลงโทษการเว้นคำตอบเมื่อไม่แน่ใจ และไม่ให้คะแนนกับการเดาแบบสุ่ม เพราะถ้าการทดสอบยังให้คะแนนเมื่อเดาคำตอบ โมเดลก็จะยังเรียนรู้ให้เดาต่อไป

ที่มา: Business Insider

ติดตามข่าวสารจาก Brand Inside ได้จาก Facebook ของเรา