Why Language Models Hallucinate: Causes, Incentives, and Fixes
ทำไม Language Models Hallucinate: สาเหตุ สิ่งจูงใจ และแนวทางแก้ไข Facebook X LinkedIn ที่ OpenAI นักวิจัยกำลังทำงานอย่างต่อเนื่องเพื่อทำให้ระบบ AI มีประโยชน์และเชื่อถือได้มากขึ้น แม้ว่าโมเดลภาษาขนาดใหญ่จะมีความสามารถเพิ่มขึ้น แต่ความท้าทายสำคัญที่ยังคงอยู่คือ hallucinations หรือการที่โมเดลสร้างคำตอบที่มั่นใจแต่ไม่ถูกต้อง งานวิจัยล่าสุดของเราโต้แย้งว่า Language Models Hallucinate ส่วนใหญ่เพราะวิธีการฝึกและการประเมินในปัจจุบันให้รางวัลกับการ “เดา” มากกว่าการยอมรับว่าไม่แน่ใจ GPT-5 สามารถลดอัตรา hallucinations ได้อย่างมาก โดยเฉพาะในการใช้เหตุผล เมื่อเทียบกับระบบรุ่นก่อน อย่างไรก็ตาม ปัญหานี้ยังคงเกิดขึ้นในโมเดลภาษาขนาดใหญ่ทั้งหมด และถือเป็นหนึ่งในความท้าทายพื้นฐานที่สุดของ AI Hallucinations คืออะไร? Hallucinations คือข้อความที่ฟังดูมั่นใจและลื่นไหล แต่กลับไม่ถูกต้อง ซึ่งสามารถเกิดขึ้นได้แม้ในคำถามข้อเท็จจริงง่าย ๆ เช่น: เมื่อถูกถามถึงหัวข้อวิทยานิพนธ์ระดับปริญญาเอกของนักวิจัยคนหนึ่ง แชตบอทสร้างคำตอบขึ้นมาสามแบบที่ฟังดูสมเหตุสมผลแต่ไม่ถูกต้องทั้งหมด เมื่อถูกถามวันเกิดของบุคคลเดียวกัน โมเดลให้คำตอบออกมาสามวันที่ต่างกัน และไม่มีอันไหนถูกต้องเลย ข้อผิดพลาดเหล่านี้ไม่ใช่แค่ความบกพร่องแบบสุ่ม แต่เป็นผลโดยตรงจากวิธีการฝึกและการประเมินโมเดล ทำไม Hallucinations ยังคงอยู่? …











