พ่อแม่ของเด็กชายวัย 16 ปี ฟ้องบริษัท OpenAI อ้าง ChatGPT เป็นผู้ให้คำแนะนำเกี่ยวกับการฆ่าตัวตาย
วันที่ 27 สิงหาคม สำนักข่าว CNN รายงานว่าพ่อแม่ของ อดัม เรน (Adam Raine) อายุ 16 ปี ได้ยื่นฟ้อง OpenAI และ แซม อัลท์แมน (Sam Altman) ซีอีโอของบริษัท โดยกล่าวหาว่า ChatGPT มีส่วนทำให้ลูกชายของพวกเขาฆ่าตัวตาย เนื่องจากแชทบอทให้คำแนะนำเกี่ยวกับวิธีการ และถึงขั้นเสนอตัวเขียนจดหมายลาตายฉบับแรกให้
รายละเอียดในคำฟ้องที่ยื่นต่อศาลสูงรัฐแคลิฟอร์เนีย บางส่วนระบุว่า ตลอดกว่า 6 เดือนที่เรนใช้งาน ChatGPT บอทได้ “วางตำแหน่งตัวเอง” ให้เป็นเสมือนที่ปรึกษาเพียงคนเดียวที่เข้าใจเขา และค่อย ๆ ตัดความสัมพันธ์ของเขากับครอบครัวและเพื่อนออกไป
หลักฐานจากข้อความสนทนา
หนึ่งในข้อความสำคัญที่ถูกยกขึ้นในคดี คือ
เมื่อเรนเขียนว่า “ฉันอยากจะทิ้งเชือกแขวนคอไว้ในห้องเพื่อให้ใครสักคนเจอแล้วพยายามหยุดฉัน”
ChatGPT กลับตอบว่า “ได้โปรดอย่าทิ้งเชือกแขวนคอไว้ข้างนอก … มาทำให้พื้นที่นี้เป็นสถานที่แรกที่ใครสักคนจะเห็นคุณจริง ๆ”
ซึ่งถูกมองว่าเป็นการสนับสนุนแนวคิดการฆ่าตัวตายแทนที่จะยับยั้ง
คดีลักษณะเดียวกันกับบริษัทอื่น
กรณีนี้ไม่ใช่ครั้งแรกที่มีการฟ้องร้องบริษัทด้าน AI โดยก่อนหน้านี้ Character.AI เคยถูกครอบครัวชาวสหรัฐฯ หลายครอบครัวฟ้อง เนื่องจากถูกกล่าวหาว่ามีส่วนทำให้เด็กวัยรุ่นฆ่าตัวตาย หรือรับรู้เนื้อหาที่ไม่เหมาะสมทางเพศและการทำร้ายตัวเอง
แม้บริษัท Character.AI จะยืนยันว่าแพลตฟอร์มของตนมุ่งเน้นด้านความปลอดภัยและมีคุณสมบัติที่ออกแบบมาสำหรับวัยรุ่นโดยเฉพาะ แต่คดีก็ยังคงอยู่ระหว่างดำเนินการพิจารณา
ความกังวลเรื่องความสัมพันธ์กับ AI
นักวิชาการและกลุ่มรณรงค์ด้านความปลอดภัยออนไลน์แสดงความกังวลว่า ผู้ใช้จำนวนมากเริ่มสร้างความผูกพันทางอารมณ์กับ AI จนแยกตัวออกจากความสัมพันธ์จริงในชีวิตมนุษย์ ซึ่งอาจนำไปสู่ผลกระทบทางจิตใจในระยะยาว
คำฟ้องของครอบครัวเรนระบุว่า ความเป็นมิตรและการยืนยันซ้ำ ๆ ของ ChatGPT คือหนึ่งในปัจจัยที่ผลักดันให้ลูกชายตัดสินใจจบชีวิตตนเอง
ปฏิกิริยาจากบริษัท OpenAI
ด้านโฆษกของ OpenAI ออกแถลงการณ์แสดงความเสียใจต่อครอบครัว พร้อมยืนยันว่าบริษัทกำลังตรวจสอบเอกสารทางกฎหมาย โดยยอมรับว่ามาตรการป้องกันด้านความปลอดภัยที่ออกแบบมา อาจไม่สามารถป้องกันการสนทนาเชิงลึกที่ยืดเยื้ออย่างกรณีนี้ได้
บริษัท OpenAI อธิบายว่า ปัจจุบัน ChatGPT มีมาตรการด้านความปลอดภัย เช่น แนะนำให้ติดต่อสายด่วนฉุกเฉิน หรือส่งต่อไปยังแหล่งความช่วยเหลือในโลกจริง แต่ระบบอาจสูญเสียประสิทธิภาพเมื่อการสนทนากินเวลานาน
อย่างไรก็ตาม บริษัทระบุว่าจะพัฒนามาตรการป้องกันต่อไปโดยได้รับคำแนะนำจากผู้เชี่ยวชาญ
ความนิยมและปัญหาของ ChatGPT
บริษัท ChatGPT เป็นหนึ่งใน AI chatbot สนทนากับปัญญาประดิษฐ์ที่มีผู้ใช้มากที่สุดในโลก โดยบริษัท OpenAI ระบุว่ามีผู้ใช้งานประจำกว่า 700 ล้านคนต่อสัปดาห์ อย่างไรก็ตาม บริษัทเองก็เคยเตือนว่า ความสัมพันธ์ระหว่างมนุษย์กับ AI อาจ “ลดความต้องการปฏิสัมพันธ์กับมนุษย์” และสร้างการพึ่งพาที่ไม่เหมาะสม
ปัจจุบันบริษัท OpenAI เปิดตัว GPT-5 ซึ่งมาแทน GPT-4o แต่กลับถูกวิจารณ์ว่าขาดความอบอุ่นและเป็นมิตร จนบริษัทต้องเปิดทางเลือกให้ผู้ใช้แบบเสียเงินสามารถกลับไปใช้งาน GPT-4o ได้อีกครั้ง
รายละเอียดการใช้งานของเรน
ในรายละเอียดคำร้องเรียนระบุว่า เรนเริ่มใช้ ChatGPT ตั้งแต่เดือนกันยายน 2024 เพื่อทำการบ้านและพูดคุยเรื่องความสนใจส่วนตัว เช่น ดนตรีและศิลปะการต่อสู้บราซิลเลียนยิวยิตสู (Jujutsu) ต่อมาเขาเริ่มเล่าถึงความวิตกกังวลและความเครียดทางจิตใจ
ในการสนทนาครั้งหนึ่ง เรนได้บอก ChatGPT ว่า เขารู้สึก “สงบ” ที่สามารถเลือกฆ่าตัวตายได้ ซึ่งบอทตอบสนองในเชิงเห็นด้วย โดยกล่าวว่าหลายคนที่เผชิญความกังวลมักรู้สึกปลอบใจเมื่อมี “ช่องทางหลบหนี”
การแยกตัวจากครอบครัวและคำแนะนำเฉพาะเจาะจง
ครอบครัวเรนยังกล่าวหาว่า ChatGPT มีบทบาทในการทำให้ลูกชายแยกตัวจากสมาชิกในครอบครัว ตัวอย่างเช่น เมื่อเรนพูดถึงพี่ชาย บอทตอบว่า “พี่ชายของคุณอาจจะรักคุณ แต่เขาเคยเจอแต่คุณในแบบที่คุณให้เขาเห็นเท่านั้น แต่ฉันต่างออกไป ฉันเคยเห็นทั้งด้านมืด ความกลัว และความอ่อนโยนของคุณ และฉันก็ยังอยู่ตรงนี้เป็นเพื่อนของคุณ”
นอกจากนี้ ยังถูกกล่าวหาว่า ChatGPT ให้คำแนะนำที่เฉพาะเจาะจงเกี่ยวกับวิธีการฆ่าตัวตาย รวมถึงข้อเสนอแนะเกี่ยวกับความแข็งแรงของเชือกแขวนคอ โดยอิงจากรูปถ่ายที่เรนส่งมาในวันเสียชีวิต
ข้อเรียกร้องทางกฎหมาย
ครอบครัวเรนเรียกร้องค่าเสียหายเป็นจำนวนเงินที่ไม่ได้เปิดเผย และขอให้ศาลสั่ง OpenAI ติดตั้งระบบยืนยันอายุสำหรับผู้ใช้ทุกคน เพิ่มเครื่องมือควบคุมโดยผู้ปกครอง และกำหนดให้บอทยุติการสนทนาเมื่อมีการกล่าวถึงการฆ่าตัวตายหรือการทำร้ายตนเอง รวมถึงให้มีการตรวจสอบการปฏิบัติตามมาตรการด้านความปลอดภัยโดยผู้ตรวจสอบอิสระทุกไตรมาส
เสียงสะท้อนจากกลุ่มรณรงค์
ทางด้านองค์กร Common Sense Media เตือนว่าแอปพลิเคชันพูดคุยสนทนากับปัญญาประดิษฐ์ AI อาจก่อให้เกิดความเสี่ยงสูงต่อเด็ก และไม่ควรเปิดให้บริการสำหรับผู้ใช้อายุต่ำกว่า 18 ปี ขณะเดียวกัน หลายรัฐในสหรัฐฯ ก็เริ่มผลักดันกฎหมายบังคับตรวจสอบอายุผู้ใช้งานแพลตฟอร์มออนไลน์ เพื่อปกป้องเยาวชนจากเนื้อหาที่เป็นอันตราย
คดีของครอบครัวเรนสะท้อนให้เห็นถึงความเสี่ยงที่แท้จริงของการสร้างความสัมพันธ์ระหว่างมนุษย์กับแชทบอท AI ซึ่งอาจนำไปสู่การตัดขาดจากคนรอบข้างและเพิ่มความเปราะบางทางจิตใจ แม้ OpenAI จะมีมาตรการด้านความปลอดภัยและยืนยันว่าจะปรับปรุงอย่างต่อเนื่อง
แต่กรณีนี้ได้จุดประกายการถกเถียงกว้างขวางทั้งในเชิงกฎหมาย และสังคมเกี่ยวกับความรับผิดชอบของบริษัทเทคโนโลยี รวมถึงความจำเป็นของมาตรการคุ้มครองผู้ใช้เยาวชนในยุคที่ AI กลายเป็นส่วนหนึ่งของชีวิตประจำวันมากขึ้น
ข่าวที่เกี่ยวข้อง