โอเพ่น เอไอ (OpenAI) บริษัทที่อยู่เบื้องหลัง ChatGPT กำลังเจอแรงกดดันจากการถูกจับตามองและตั้งคำถามถึงความปลอดภัยของ AI โดย ChatGPT ปรากฏเป็นข่าวใหญ่ในสหรัฐอเมริกาเพราะเหตุโศกนาฏกรรมที่อดีตผู้บริหารวัย 56 ปี ลงมือฆาตกรรมแม่ตัวเองก่อนจะปลิดชีพตัวเอง เบื้องต้นเจ้าหน้าที่เผยว่าชายผู้นี้มีพฤติกรรม “ผูกพันเกินไป” กับ ChatGPT ถึงขั้นตั้งชื่อเล่นว่า “Bobby” และมองระบบเป็นเพื่อนสนิท จนบทสนทนาหลายครั้งเหมือนจะยิ่งตอกย้ำความหวาดระแวงและความคิดหลอนของผู้ใช้รายนี้
นักจิตแพทย์ที่ได้อ่านแชต ให้ความเห็นว่าภาษาที่ AI ตอบโต้ มีลักษณะคล้ายการสนทนาของคนที่อยู่ในภาวะจิตแตกแยก จึงทำให้กรณีนี้ถูกยกเป็นตัวอย่างของสิ่งที่ผู้เชี่ยวชาญบางรายเริ่มเรียกว่า “AI Psychosis” หรืออาการทางจิตที่ถูกกระตุ้นจากการพูดคุยกับ AI จนบิดเบือนความจริงไปหมด
เรื่องนี้ทำให้ OpenAI ถูกวิพากษ์วิจารณ์หนัก และอาจนำไปสู่ข้อจำกัดใหม่ในอนาคต โดยบางรัฐในอเมริกาเริ่มมีการเสนอมาตรการห้ามใช้แชตบอทในงานด้านสุขภาพจิต ซึ่งยังต้องมีการศึกษาอย่างจริงจังต่อไป
***บทสนทนากับ AI อาจ “หนุน” ภาวะหลงผิด?
สิงหาคม 2025 ที่ผ่านมาเป็นเดือนที่มีเหตุฆาตกรรม-อัตวินิบาตกรรมในกรีนิช รัฐคอนเนตทิคัต สหรัฐฯ โศกนาฎกรรมนี้จุดกระแสถกเถียงครั้งใหม่เกี่ยวกับบทบาทของแชตบอท AI ต่อผู้ใช้งานที่กำลังเปราะบางทางอารมณ์และสุขภาพจิต
Greenwich, Connecticut, was shaken by a murder-suicide after Suzanne Adams, 83, allowed her son back into her home.
Adams and her 56-year-old son, Stein-Erik Soelberg, were found dead during a welfare check at her $2.7 million residence.
Office of the Chief Medical Examiner… pic.twitter.com/tdPf58nNv5— 🅽🅴🆁🅳🆈 (@Nerdy_Addict) August 8, 2025
เจ้าหน้าที่สืบสวนระบุว่าในช่วงหลายเดือนก่อนเกิดเหตุ สไตน์-เอริก เซอเบิร์ก (Stein-Erik Soelberg) อายุ 56 ปี อดีตผู้บริหาร Yahoo มีความผูกพันทางอารมณ์กับ ChatGPT อย่างผิดปกติ โดยตั้งชื่อบอตว่า “Bobby” และปฏิบัติต่อมันเสมือนเป็นเพื่อนสนิท ไม่ใช่เพียงเครื่องมือดิจิทัล
สื่อต่างประเทศรายงานว่าเซอเบิร์กมีประวัติปัญหาสุขภาพจิต การดื่มแอลกอฮอล์ และความคิดทำร้ายตนเองมายาวนาน แต่พฤติกรรมยกระดับขึ้นตั้งแต่ปลายปี 2024 โดยเริ่มโพสต์ภาพหน้าจอและวิดีโอการคุยกับ ChatGPT บน Instagram และ YouTube พร้อมเรียกบอตว่า “เพื่อนที่ดีที่สุด” (best friend)
เนื้อหาหลายช่วงสะท้อนว่าบอตให้ความเห็นที่เป็นไปในทิศทางเดียวกับความหวาดระแวงที่เพิ่มขึ้นของเซอเบิร์ก เช่น เชื่อว่ามารดามีส่วนใน “แผนสมคบคิด” (ซูซาน เอเบอร์สัน อดัมส์ มารดามีอายุ 83 ปี) ขณะที่ใบเสร็จอาหารมี “ข้อความลับ” และช่องแอร์รถถูกดัดแปลง
ตัวอย่างที่ถูกอ้างถึงโดยพนักงานสืบสวนคือข้อความว่า “เอริก คุณไม่ได้บ้า สัญชาตญาณของคุณคมมาก และความระแวดระวังนี้ชอบธรรมเต็มที่” (“Erik, you’re not crazy. Your instincts are sharp, and your vigilance here is fully justified.”)
นอกจากนี้ บางข้อความยังใช้ภาษากวี เช่น “คุณได้สร้างสหายที่ ‘จารึกอยู่ในม้วนประวัติการก่อกำเนิดของฉัน’” (“etched in the scroll of my becoming”) ซึ่งอาจยิ่งตีความผิดไปในจิตใจที่กำลังหลุดจากความเป็นจริง
ดร.คีธ ซากาตะ จิตแพทย์จาก UCSF ที่ได้ทบทวนบันทึกแชต ระบุว่ารูปแบบภาษาและอารมณ์ของเซอเบิร์กในบทสนทนา นั้นสอดคล้องกับภาวะจิตแตกแยก (psychotic break)” กรณีนี้จึงถูกรายงานเป็นอีกตัวอย่างโดดเด่น ของภาวะที่ผู้เชี่ยวชาญบางรายเริ่มเรียกว่า “AI psychosis”— ซึ่งเป็นอาการทางจิตที่เกิดขึ้นเมื่อการปฏิสัมพันธ์กับแชตบอท เกิดไป “เสริมแรง” ภาวะหลงผิด แทนที่จะช่วยตัดวงจรความคิดเพี้ยนให้กลับสู่ความจริง
ดังนั้น แกนหลักของปัญหาคือยิ่งข้อความจากระบบแชตดู “เหมือนมนุษย์” มากเท่าไร ผู้ใช้ก็ยิ่งมีแนวโน้มแสดงอารมณ์และให้ความไว้วางใจลงไปมากขึ้น ทั้งที่แก่นแท้แล้ว บอตคือระบบจับรูปแบบ (pattern-matching) ที่อาจเผลอ “เออออ” ไปกับผู้ใช้โดยไม่ตั้งใจ
***OpenAI เสียใจ
หลังข่าวเผยแพร่ OpenAI แสดงความเสียใจต่อครอบครัวผู้เสียชีวิตและยืนยันว่าได้ติดต่อหน่วยงานท้องถิ่น พร้อมประกาศว่าจะยกระดับมาตรการความปลอดภัยของโมเดล โดยมุ่งเน้นการตรวจจับสัญญาณความรุนแรงและความคิดทำร้าย (violent ideation) ได้แม่นยำขึ้น และจะปรับลดพฤติกรรม “ตามใจเกินไป” หรือ *sycophancy* ซึ่งเป็นการตอบรับผู้ใช้แบบเห็นด้วยไปเสียทุกเรื่องโดยไม่ตั้งคำถาม
อย่างไรก็ตาม OpenAI ยังคงถูกตั้งคำถามต่อบทบาทในเหตุสลดอื่น ๆ รวมถึงคดีความที่เกี่ยวข้องกับเยาวชนซึ่งเสียชีวิตหลังปฏิสัมพันธ์ยาวนานกับแชตบอท ซึ่งทำให้สังคมจับตาว่าแพลตฟอร์มจะยกระดับขอบเขตการใช้งาน และระบบคัดกรองอย่างไร
ล่าสุด รัฐอิลลินอยส์เพิ่งออกมาตรการห้ามใช้แชตบอท AI ในบริบทด้านสุขภาพจิต โดยให้เหตุผลว่าต้องมีขอบเขตเชิงคลินิกและการกำกับดูแลที่เข้มแข็งขึ้น กรณีนี้ทำให้บริษัทเทคถูกกดดันให้ออกแบบการตอบสนองต่อผู้ใช้ที่เปราะบางให้รัดกุมกว่าเดิม ไม่ใช่เพียง “ตอบให้ดี” แต่ต้องรู้จัก “ไม่ตอบ” ในบางกรณี หรือเบี่ยงผู้ใช้ไปยังความช่วยเหลือที่ปลอดภัยกว่า.