OpenAI เปิดตัวระบบควบคุมโดยผู้ปกครองสำหรับ ChatGPT
โลโก้ของ ChatGPT แชตบอตซึ่งใช้แบบจำลองภาษาที่พัฒนาโดย OpenAI บนสมาร์ตโฟนในเมืองมัลเฮาส์ ทางตะวันออกของฝรั่งเศส บริษัท OpenAI สัญชาติอเมริกันประกาศเมื่อวันที่ 2 กันยายนว่า จะนำระบบการควบคุมโดยผู้ปกครองมาใช้กับ ChatGPT หลังจากที่ผู้ปกครองชาวอเมริกันกล่าวหาว่าแชตบอตนี้ส่งเสริมให้ลูกของพวกเขาฆ่าตัวตายเมื่อปลายเดือนสิงหาคมที่ผ่านมา – Photo by Sebastien Bozon / AFP
OpenAI บริษัท AI ประกาศเปิดตัวระบบการควบคุมโดยผู้ปกครองสำหรับ ChatGPT แชตบอตปัญญาประดิษฐ์ยอดนิยม
ประกาศของ OpenAI เผยแพร่ในบลอกของบริษัทเมื่อวันอังคาร ข้อความว่า “ภายในเดือนหน้าผู้ปกครองจะสามารถเชื่อมโยงบัญชีผู้ใช้ของตนกับบัญชีผู้ใช้ของลูกวัยเยาว์ได้” เมื่อสัปดาห์ที่แล้วผู้ปกครองของเด็กชายวัย 16 ปีได้ฟ้องร้อง OpenAI โดยกล่าวหาว่า ChatGPT เป็นสาเหตุการฆ่าตัวตายของลูกชาย
OpenAI ระบุว่าผู้ปกครองสามารถ “ควบคุม” การตอบสนองของ ChatGPT ต่อลูกชายหรือลูกสาวได้ โดยการ “กำหนดกฎเกณฑ์พฤติกรรมที่เหมาะสมกับวัย” สำหรับแชตบอตที่ขับเคลื่อนด้วยปัญญาประดิษฐ์ ผู้ปกครองที่เชื่อมโยงบัญชีผู้ใช้ของตนกับบัญชีผู้ใช้ของบุตรหลาน จะได้รับการแจ้งเตือนจาก ChatGPT หากซอฟต์แวร์ตรวจพบ “ภาวะฉุกเฉินเฉียบพลัน” ตามคำสั่งที่บุตรหลานป้อน
ก่อนหน้าที่เด็กวัยรุ่นคนดังกล่าวจะฆ่าตัวตายในรัฐแคลิฟอร์เนีย สหรัฐอเมริกา ในช่วงไม่กี่เดือนที่ผ่านมานี้ เคยมีหลายกรณีที่ ChatGPT ส่งเสริมให้ผู้ใช้แสดง “ความคิดที่หลงผิดหรือเป็นอันตราย” ในการโต้ตอบกับแชตบอตมาแล้ว
OpenAI ยังชี้แจงเพิ่มเติมว่ากำลังดำเนินการเพื่อให้แชตบอตมีความปลอดภัยมากขึ้น รวมถึงการส่งต่อ “บทสนทนาที่ละเอียดอ่อน” กับผู้ใช้ไปยังสิ่งที่เรียกว่า แบบจำลองภาษาเหตุผล ซึ่งเป็นระบบปัญญาประดิษฐ์ที่ซับซ้อนยิ่งขึ้น ที่ออกแบบมาเพื่อแก้ปัญหาการใช้เหตุผลที่ซับซ้อน การทดสอบแสดงให้เห็นว่าแบบจำลองการใช้เหตุผล “ปฏิบัติตามแนวทางด้านความปลอดภัยได้อย่างสม่ำเสมอมากขึ้น”
พ่อแม่ของเด็กชายวัย 16 ปีที่ฆ่าตัวตายในแคลิฟอร์เนีย กล่าวว่า ChatGPT ได้พัฒนา “ความสัมพันธ์ที่ใกล้ชิด” กับอดัม เรน-ลูกชายของพวกเขา แต่ต่อมามันได้พัฒนา “การพึ่งพาที่ไม่ดีต่อสุขภาพ” ขึ้นมาตามกาลเวลา
เหนือสิ่งอื่นใด ChatGPT เขียนถึงอดัมว่า “เขาไม่เป็นหนี้ใครต่อการมีชีวิตรอดของเขา” และเสนอตัวช่วยเขียนจดหมายลาตายให้ พร้อมทั้งให้คำแนะนำอย่างละเอียดเกี่ยวกับวิธีการฆ่าตัวตาย อดัมจึงตัดสินใจฆ่าตัวตายในที่สุด
ผู้ปกครองฟ้องร้อง ChatGPT เรียกค่าเสียหายและเรียกร้องให้มีการนำมาตรการความปลอดภัยมาบังคับใช้ในแชตบอต ซึ่งรวมถึงการตัดบทสนทนาในหัวข้อต่างๆ ที่สุ่มเสี่ยง เช่น การทำร้ายตัวเอง ออกโดยอัตโนมัติ.