Menu

AI Hallucination คืออะไร วิธีการแก้ไข ป้องกัน คำแนะนำ

Generative AI By เม.ย. 13, 2024 No Comments

สวัสดีครับ วันนี้ผมขอสรุปประเด็นสำคัญเกี่ยวกับ AI Hallucination หรืออาการหลอนของ AI ให้อ่านกันนะครับ

.

AI Hallucination คืออะไร

AI Hallucination คือปัญหาที่เกิดขึ้นเมื่อ AI สร้างข้อมูลหรือเนื้อหาที่ไม่ถูกต้อง ข้อมูลเท็จ ไม่เป็นความจริง หรือไม่สมเหตุสมผลขึ้นมา โดยที่ AI เองก็มั่นใจว่าสิ่งที่มันสร้างขึ้นมานั้นถูกต้อง เปรียบเสมือนอาการ “หลอนไปเอง” ของ AI นั่นเอง

ตัวอย่างของ AI Hallucination เช่น แชทบอท Gemini ของ Google เคยบอกว่ากล้องเจมส์เว็บบ์เป็นกล้องโทรทรรศน์ตัวแรกที่ถ่ายภาพดาวเคราะห์นอกระบบได้ ทั้งที่ความจริงแล้วภาพแรกถ่ายตั้งแต่ปี 2004 แล้ว หรือเวลาถามคำถามง่ายๆ อย่าง “กรุงเทพฯ เป็นเมืองหลวงของประเทศอะไร” AI อาจตอบเกินเลยมาว่า “ประเทศไทยมีประชากร 70 ล้านคน” ทั้งที่ไม่ได้ถาม

.

สาเหตุของ AI Hallucination

สาเหตุที่ทำให้ AI เกิดอาการหลอนมีหลายประการ เช่น

1. ข้อมูลที่ใช้ฝึก AI อาจมีข้อผิดพลาดหรือมี Bias (อคติทางข้อมูล) ทำให้ AI เรียนรู้ข้อมูลที่ผิดๆ ไปด้วย

2. AI บางตัวอาศัยการคาดคะเนคำตอบจากบริบทโดยรอบ ซึ่งอาจผิดพลาดได้

3. เวลาสอน AI เราให้คำตอบตายตัว แต่พอเอาไปใช้จริงกลับไม่มีคำตอบที่ถูกต้องชัดเจน

4. การปรับแต่งโมเดล AI อาจไม่ละเอียดพอ ทำให้มันจำรูปแบบผิดๆ และสร้างเรื่องแต่งขึ้นมา

5. บาง AI มีความซับซ้อนสูง อาจเรียนรู้และนำรูปแบบที่ผิดๆ มาใช้ตอบคำถาม

6. ข้อผิดพลาดในการเข้ารหัสและถอดรหัสข้อความ ทำให้ได้ผลลัพธ์ที่ผิดเพี้ยนไป

.

ผลกระทบและความกังวล

AI Hallucination อาจส่งผลเสียหลายประการ เช่น

1. ทำให้ผู้ใช้ AI ได้รับข้อมูลที่ผิดพลาด หากไม่ได้ตรวจสอบ

2. อาจสร้างเนื้อหาที่มีอคติ เลือกปฏิบัติ หรือแสดงความเกลียดชัง เพราะข้อมูลที่ใช้ฝึกมีปัญหา

3. อาจทำให้ข้อมูลส่วนตัวของผู้คนที่ถูกใช้ฝึก AI รั่วไหล โดยไม่ได้ตั้งใจ

4. สร้างข้อมูลเท็จที่ดูน่าเชื่อถือ แต่ไม่มีหลักฐานรองรับ

.

ตัวอย่างผลกระทบจาก AI Hallucination

ตัวอย่างเช่น ทนายความรายหนึ่งเคยใช้ข้อมูลจาก AI ในการต่อสู้คดี แต่กลับถูกศาลปรับเงินเพราะอ้างอิงข้อมูลเท็จ

หรือสายการบิน Air Canada เคยปฏิเสธให้ส่วนลดตามที่แชทบอทของตัวเองบอกลูกค้า โดยอ้างว่าแชทบอทให้ข้อมูลผิด

.

วิธีแก้ไขและป้องกัน AI Hallucination

นักวิจัยและผู้พัฒนากำลังพยายามแก้ปัญหา AI Hallucination ด้วยวิธีต่างๆ เช่น

1. ปรับปรุงความหลากหลายและคุณภาพของข้อมูลที่ใช้ฝึก AI ให้ดีขึ้น

2. พัฒนาเทคนิคการทำให้ข้อมูลเป็นมาตรฐาน (Normalization) ให้ดีขึ้น เพื่อป้องกันปัญหา Overfitting

3. ใช้เทคนิค Data Augmentation เพิ่มขนาดชุดข้อมูลสอน เพื่อลดความถี่ของอาการหลอน

4. ใช้เทคนิค Reinforcement Learning with Human Feedback (RLHF) เพื่อสอน AI ไม่ให้เกิดอาการหลอน

5. ระบุเนื้อหาที่เป็นภาพหลอน เพื่อใช้เป็นตัวอย่างสอน AI ในอนาคต

Jensen Huang ซีอีโอ Nvidia แนะนำว่าควรเพิ่ม “กฎ” ให้ AI โดยก่อนจะตอบคำถาม มันต้องไปค้นหาข้อมูลจากแหล่งที่เชื่อถือได้ก่อน เพื่อให้แน่ใจว่าจะตอบได้ถูกต้องที่สุด และถ้าไม่รู้คำตอบจริงๆ ก็ต้องซื่อสัตย์บอกไปตรงๆ

.

บทสรุป

โดยสรุป AI Hallucination เป็นปัญหาที่ AI สร้างข้อมูลเท็จหรือเนื้อหาเพี้ยนออกมา ซึ่งอาจส่งผลเสียต่อผู้ใช้ได้ สาเหตุมาจากข้อมูลที่ใช้ฝึก ข้อผิดพลาดในการประมวลผล และความซับซ้อนของโมเดลเอง

แม้นักวิจัยจะพยายามแก้ไขปัญหานี้ แต่ผู้ใช้เองก็ต้องตระหนักและใช้วิจารณญาณในการรับข้อมูลจาก AI ด้วย อย่าเชื่อมันเพียงอย่างเดียว ต้องกลับไปตรวจสอบกับแหล่งที่มาที่เชื่อถือได้เสมอ เพื่อให้ได้ข้อมูลที่ถูกต้องที่สุดครับ

Citations:
[1] AI ใครว่าถูกเสมอ : รู้จัก ‘เอไอ หลอน’ ภัยใหม่ที่มนุษย์ยังไม่รู้ทัน | Techsauce https://techsauce.co/tech-and-biz/ai-hallucinations-why-ai-is-not-perfect
[2] Jensen Huang ตอบประเด็นอนาคต AI ยังไงต่อ ? ในงาน GTC 2024 | Techsauce https://techsauce.co/news/gtc-2024-jensen-huang-says-ai-hallucinations-are-solvable-and-agi-is-5-years-away
[3] LLM Hallucination คืออะไร? สาเหตุ ข้อกังวลด้านจริยธรรม และการป้องกัน https://www.unite.ai/th/what-are-llm-hallucinations-causes-ethical-concern-prevention/

Author

Data Engineer, Data Strategist, Data Analyst, Data Scientist

No Comments

Leave a comment

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *