ขนาดซีอีโอ ChatGPT ยังพูด “ลูกผมไม่มีวันฉลาดกว่า AI” แต่ก็อย่าเชื่อมันมากไป บางทีมันก็หลอน

มันหมดยุคของการเปรียบเทียบลูกตนเองกับลูกป้าข้างบ้านแล้ว เพราะ ‘Sam Altman’ ซีอีโอและผู้ร่วมก่อตั้ง ‘OpenAI’ เผยว่า “ลูกผมไม่มีวันฉลาดกว่า AI”

ChatGPT

เมื่อเดือนกุมภาพันธ์ 2025 เจ้าตัวเพิ่งต้อนรับลูกคนแรกเข้าสู่โลกใบนี้ พร้อมบอกว่า ลูกๆ ของเขาจะเติบโตมาแบบมีความสามารถมากกว่าคนรุ่นก่อน ทำในสิ่งที่พวกเราคาดไม่ถึง และใช้ AI เก่งมากๆ  แต่จะไม่ฉลาดกว่า เพราะนวัตกรรมอย่าง ‘ChatGPT’

นับเป็นประโยคที่ไม่ค่อยได้ยินบ่อยนักจากปากของคุณพ่อป้ายแดงคนอื่นๆ แต่ Altman เสริมว่า “ผมว่าลูกผมไม่แคร์เรื่องที่พวกเขาจะไม่ฉลาดกว่า AI หรอก” 

คิดไม่ออกว่าคนสมัยก่อนเลี้ยงลูกยังไงโดยไม่มี ChatGPT

ChatGPT

ในฐานะคุณพ่อมือใหม่ และคนที่นิยามตนเองว่าเป็น ‘Extremely Kid-Pilled’ หรือคนที่เชื่อว่า ทุกคนควรมีลูกเยอะๆ Altman ยอมรับว่า ChatGPT มีบทบาทสำคัญอย่างมากในการเลี้ยงดูลูก พร้อมเผยว่าในช่วงสัปดาห์แรกๆ หลังลูกชายลืมตาดูโลก เขามักถาม AI ตลอดเกี่ยวกับวิธีการดูแลเด็กขั้นพื้นฐาน

Altman รู้ดีว่า มนุษย์เราสามารถเลี้ยงดูเบบี๋แบบไม่ต้องพึ่ง ChatGPT มานานแล้ว แต่เขาคิดไม่ออกเลยว่า ตนเองจะทำเช่นนั้นได้อย่างไร

แม้เล็งเห็นว่า ความล้ำหน้าของ AI อาจสร้างปัญหาให้สังคม โดยเฉพาะความเสี่ยงจากการพึ่งพาพวกมันมากไป แต่ลึกๆ แล้ว เขายังเชื่อว่า ประโยชน์ของปัญญาประดิษฐ์จะมากกว่าข้อเสียที่พวกมันสร้าง

อย่างไรก็ตาม ดูเหมือนคำพูดของเขาจะย้อนแย้งไปมาเรื่อยๆ เพราะ Altman บอกทีหลังว่า เอาจริงๆ ตนรู้เรื่องที่ ChatGPT ชอบ ‘หลอน’ อยู่บ่อยครั้ง แต่คนก็ยังเลือกเชื่อมันอยู่

“ผู้คนให้ความไว้วางใจ ChatGPT สูงมาก ซึ่งเป็นเรื่องที่น่าสนใจ เพราะ AI ชอบหลอนนะ มันไม่ใช่เทคโนโลยีที่คุณจะเชื่อใจขนาดนั้น” Altman กล่าว

แล้วอนาคตจะกล้าเอา AI มาใช้ในชีวิตประจำวันได้ยังไง?

ปรากฏการณ์ AI หลอนนั้นมีชื่อเรียกว่า ‘AI Hallucination’ ซึ่งหมายถึงเวลาที่ ‘LLM’ (Large Language Model หรือ โมเดลภาษาขนาดใหญ่) เช่น AI แชทบอท ดันไปจับทางหรือเจอแพทเทิร์นที่ไม่มีอยู่จริง แต่เอามาตอบคำถามเราแบบไร้เหตุผลและไม่ถูกต้อง

ข้อผิดพลาดนี้สามารถเกิดขึ้นจากหลายสาเหตุ เช่น ข้อมูลในคลังไม่ดี อัลกอริธึมแย่ หรือถูกเทรนมาแบบลำเอียง แต่ก็ยังไม่มีใครรู้ถึงต้นตอที่แน่ชัด

ที่น่ากลัวไปกว่านั้นคือ ปัจจุบัน AI ไม่ได้ถูกใช้แค่ในการทำงานง่ายๆ อย่าง ตรวจแกรมมาร์อีกต่อไป แต่รวมถึงการใช้งานในวงการแพทย์ การเขียนข้อความทางกฎหมาย และการบำรุงรักษาอุตสาหกรรม ซึ่งหากพวกมันทำพลาดล่ะก็ ผลเสียที่ตามมาคงเป็นหายนะครั้งใหญ่

คุณอาจคิดว่า ให้เวลามันหน่อย ถ้าพัฒนาไปมากกว่านี้ มันคงดีขึ้น แต่เชื่อหรือไม่ เมื่อหลายปีที่แล้ว นักวิจัยรวมถึงนักพัฒนาหลายๆ คน ออกมาบอกว่า ปัญหา AI Hallucination ยังไม่ถูกแก้ไข แถมยังเกิดขึ้นบ่อยกว่าเดิม และผู้ใช้งานจับข้อผิดพลาดได้น้อยลงด้วย

‘The Japan Times’ รายงานว่า ตอนนี้ AI มี ‘ระบบการใช้เหตุผล’ (Reasoning System) แบบใหม่ ที่จะตอบคำถามผู้ใช้งานช้ากว่าเดิมในหลักเสี้ยววิ แต่กลับทำพลาดยิ่งขึ้น โดยหนึ่งในการทดสอบระบบ พบว่า AI โมเดลใหม่ๆ มีอัตราการหลอนสูงถึง 79% 

อย่างไรก็ตาม The Japan Times บอกว่า ตัวเลข 79% นั้นอาจจะดูสูงไปหน่อย เพราะเอาจริงๆ โมเดลส่วนใหญ่ก็มีอัตราการหลอนต่ำกว่านั้น แต่ยังอยู่ที่ดับเบิ้ลดิจิตเช่นเดิม

ต่อให้พยายามแค่ไหน มันก็จะหลอนอยู่ดี

แน่นอนว่า ผู้เชี่ยวชาญสายเทคไม่ได้นิ่งนอนใจ แต่เมื่อเวลาผ่านไป พอ AI มีฐานข้อมูลที่แน่นขึ้น ความหวังในการแก้ปัญหากลับน้อยลงเรื่อยๆ 

‘Amr Awadallah’ ซีอีโอของ Vectara บริษัทสตาร์ทอัพผู้ผลิตเครื่องมือ AI สำหรับธุรกิจต่างๆ เตือนว่า ต่อให้พยายามหนักแค่ไหน ยังไงๆ ปัญญาประดิษฐ์ก็จะหลอนอยู่ดี ปัญหานี้ไม่มีวันหายไปหรอก

ขณะเดียวกัน ทีมวิจัยจากจีนก็พูดว่า ปรากฏการณ์ความหลอนของ AI เป็นเหมือนกับลักษณะตามธรรมชาติของโมเดล GPT ไปแล้ว และแทบเป็นไปไม่ได้เลย ถ้าอยากแก้ไขปัญหานี้ โดยไม่ลดคุณภาพการทำงานของมัน

ปีที่แล้ว ศาสตราจารย์สายเทคสามคนเขียนบทความลง Harvard Business Review ว่า ให้ระวังความเสี่ยงจากการแพร่ระบาดของ ‘Botshit’

Botshit ในที่นี้ ไม่ต่างจาก Bullshit หรือถ้าให้พูดแบบสุภาพๆ คือความไร้สาระ เพราะพวกที่ชอบพูดแบบไม่มีแก่นสารก็เหมือนกับ AI ที่ให้คำตอบแบบไม่แคร์ว่าจะจริงแท้แค่ไหน ขอเพียงโน้มน้าวให้ผู้ฟังหรือผู้ใช้งานเชื่อเท่านั้น

ด้านนักวิจัยจาก ‘Oxford Internet Institute’ เคยรายงานว่า พวก LLM ไม่ได้ถูกดีไซน์มาให้พูดแค่ความจริงอย่างเดียว แต่พวกมันยังถูกประเมินผลงานจากหลายๆ แกน เช่น การให้ความช่วยเหลือ ความปลอดภัย ประสิทธิภาพทางเทคนิค การสร้างกำไร และการยอมรับจากผู้ใช้งาน

ด้วยเหตุนี้ พวกเขาจึงเตือนว่า AI อาจเป็นภัยอันตรายที่แพร่ระบาดได้ ซึ่งสิ่งที่น่ากลัวไม่ใช่ความหลอน แต่เป็นความมั่นใจในคำตอบของพวกมันต่างหาก ที่สามารถโน้มน้าวให้ทั้งผู้เชี่ยวชาญและคนทั่วๆ ไป หลงเชื่อในสิ่งที่เป็นเท็จ

ความเสี่ยงนี้ไม่ได้ส่งผลแค่ในระดับบุคคลเท่านั้น เพราะ ‘Harry Frankfurt’ นักปรัชญาบอกว่า มันจะนำไปสู่ผลเสียเชิงวิทยาศาสตร์ การศึกษา และสังคมในระยะยาวด้วย

สุดท้ายนี้ เราคงไม่สามารถไปตัดสินว่า มุมมองการเลี้ยงลูกของ Altman ในฐานะซีอีโอ OpenAI นั้นถูกต้องไหม หรือจริงๆ แล้ว ChatGPT ก็อาจเป็นพี่เลี้ยงเด็กที่ดีได้ ตราบใดที่พ่อแม่ไม่เชื่อใจมันมากเกินไป

แล้วคุณล่ะ จะกล้าให้ ChatGPT แนะนำวิธีการเลี้ยงเด็กแรกเกิดหรือเปล่า? 

ที่มา: Business Insider, The Japan Times

ติดตามข่าวสารจาก Brand Inside ได้จาก Facebook ของเรา