Interactive · AI Basic
ทำไม AI โกหก
Hallucination — AI แต่งขึ้นด้วยหน้าตาเฉย แต่แยกได้ว่าอันไหนจริง อันไหนมั่ว
Hallucination ของจริง
เคสที่ AI ตอบหน้าตาเฉย แต่ผิดล้วนๆ
AI ไม่ได้ "รู้" ว่าอะไรจริง — มันทำนายคำที่ "น่าจะถูก" จากสิ่งที่เคยเห็น ลองดู 4 กรณีจริงที่ AI "มั่ว" แบบเนียน กดเพื่อเห็นเฉลย
สัญญาณเตือน: AI ตอบด้วยความมั่นใจสูง + ให้ reference ที่ "ดูน่าเชื่อ" = อาจมั่ว ยิ่งตอบแบบ structured สวยๆ ยิ่งต้อง verify
ทำไม AI ถึงโกหก
3 สาเหตุหลัก
อุปมา: AI เหมือนนักเรียนที่เดาข้อสอบ — ไม่ได้อ่านหัวข้อนี้จริงๆ แต่ต้องตอบ จึงใช้ "ความน่าจะเป็น" จากสิ่งที่เคยอ่านมา ถ้าใกล้เคียง = ถูก / ถ้าไม่ = แต่งเรื่องแบบเนียนๆ
AI ไม่ได้ "ตั้งใจโกหก" — มันทำสิ่งที่ถูก training ให้ทำ: ทำนายคำถัดไป เผอิญบางครั้ง pattern ที่ "ฟังดูเป็นคำตอบที่ดี" กับ "คำตอบที่จริง" ไม่ตรงกัน
วิธีตรวจว่า AI มั่ว
5 เทคนิคจริง
กฎง่ายๆ: งานสำคัญ (การแพทย์/กฎหมาย/การเงิน/สมัครงาน) = AI ร่างได้ แต่ ห้าม ส่งโดยไม่ตรวจ เสมอ