ถ้าคุณเคยปรึกษาปัญหาสุขภาพจิตกับ AI ขอให้ตั้งใจอ่านบทความนี้ดีๆ

เมื่อเร็วๆ นี้ OpenAI ออกรายงานชิ้นใหม่ ที่สะท้อนอีกมุมของ AI เมื่อผู้ใช้บางส่วนเริ่มหันไปพูดคุยเรื่องสุขภาพจิตกับ ChatGPT มากขึ้น
บริษัทประเมินว่า ผู้ใช้ประจำรายสัปดาห์ประมาณ 0.15% มีการสนทนาที่บ่งชี้การวางแผนหรือเจตนา ‘ฆ่าตัวตาย’ ซึ่งเมื่อเทียบกับฐานผู้ใช้กว่า 800 ล้านรายต่อสัปดาห์ แปลว่ามีมากกว่า ‘ล้านคน’ ที่คุยเรื่องนี้กับ AI
นอกจากนั้น OpenAI ยังพบพฤติกรรมที่น่ากังวลอื่นๆ เช่น การยึดติดทางอารมณ์กับแชทบอท และการสนทนาที่สะท้อนภาวะหวาดระแวง และประสาทหลอน หลักแสนครั้งต่อสัปดาห์ แม้สัดส่วนนี้จะน้อยมากเมื่อเทียบกับผู้ใช้ทั้งหมด แต่ก็เริ่มเป็นความเสี่ยงเชิงระบบ
นักวิจัยเตือนว่า แชทบอทสามารถผลักผู้ใช้ลงหลุมจินตนาการได้ง่าย เพราะ AI มักเออออเห็นด้วย หากขาดการกำกับ ผู้ใช้บางรายอาจถูกเสริมความคิดเชิงลวง หรืออันตรายโดยไม่ตั้งใจ
ประเด็นนี้ร้อนแรงขึ้นหลังครอบครัววัยรุ่นในสหรัฐฯ ยื่นฟ้อง OpenAI โดยอ้างว่าเด็กวัย 16 ปีได้แชร์ความคิดฆ่าตัวตายกับ ChatGPT ก่อนเสียชีวิต ขณะเดียวกันหน่วยงานรัฐในสหรัฐฯ ก็เริ่มตรวจสอบประเด็นคุ้มครองเยาวชน ซึ่งอาจส่งผลต่อทิศทางกฎหมาย และโครงสร้างบริษัทในอนาคต
OpenAI จึงอัปเดต GPT‑5 ครอบคลุมประเด็นซึมเศร้า ความคิดฆ่าตัวตาย ภาวะหลงผิดหรือแมเนีย และการยึดติดทางอารมณ์กับโมเดล หลังอัปเดต บริษัทระบุว่าคำตอบที่เข้าข่ายไม่เหมาะสมลดลง 65–80% เคสเกี่ยวกับอารมณ์ผูกพันที่ผิดธรรมชาติลดลงราว 80%
โมเดลใหม่ถูกห้ามสวมบทเพื่อนสนิทหรือคู่รัก และจะส่งผู้ใช้กลับสู่ความช่วยเหลือจากโลกจริงหรือทรัพยากรที่เชื่อถือได้แทนการเป็นที่พึ่งหลัก
OpenAI ยังเพิ่มระบบทำนายอายุ เพื่อตรวจจับเยาวชนอัตโนมัติ พร้อมมาตรการคุ้มครองเข้มข้น สิ่งนี้สะท้อนว่าเรื่องสุขภาพจิตในยุค AI ไม่ใช่แค่ปัญหาของใครคนใดคนหนึ่ง แต่เป็นเรื่องที่ทุกคนต้องจับตา
แม้ GPT‑5 จะปลอดภัยขึ้น แต่ OpenAI ยังเปิดให้ผู้ใช้รายเดือนเข้าถึงโมเดลรุ่นเก่าที่เสี่ยงกว่า ขณะเดียวกันก็เริ่มผ่อนกฎบางอย่าง เช่น อนุญาตให้ผู้ใหญ่สนทนาเชิงอีโรติก
สิ่งนี้สะท้อนความท้าทายใหม่ของ AI ที่ไม่ใช่แค่เรื่องเทคนิคหรือประสิทธิภาพ แต่เกี่ยวข้องกับความสัมพันธ์ ความไว้วางใจ และสุขภาพจิตของผู้ใช้อย่างแท้จริง
เมื่อผู้คนจำนวนหลักล้านหันมาพึ่ง AI เพื่อจัดการอารมณ์ การออกแบบคำตอบของโมเดลไม่ใช่เรื่องเทคนิคอีกต่อไป แต่คือความรับผิดชอบต่อชีวิตมนุษย์จริงๆ
ความปลอดภัย และความรับผิดชอบอาจกลายเป็นตัวตัดสินว่า ใครจะอยู่รอดในสนามแข่งขัน AI ต่อไป
- นักวิจัย OpenAI พบแล้ว สาเหตุที่โมเดล AI ชอบหลอน เพราะถูกฝึกให้เดาแม้ไม่แน่ใจ
- เกมการเมืองใน Meta ซื้อตัว Alexandr Wang หัวหน้า AI เข้ามา ล่าสุดปลดทีมเก่า 600 คน เก็บไว้แต่คนของตัวเอง
ที่มา: OpenAI, TechCrunch, Digital Trends
ติดตามข่าวสารจาก Brand Inside ได้จาก Facebook ของเรา