Meta ประกาศเพิ่มมาตรการ AI แชตบอต บล็อกวัยรุ่นไม่ให้คุยเกี่ยวกับเนื้อหารุนแรง ท่ามกลางความกังวลถึงศักยภาพ AI ในปัจจุบัน
บริษัท Meta กล่าวว่า จะเพิ่มมาตรการป้องกัน AI แชตบอตเพิ่มเติม รวมถึงบล็อกไม่ให้วัยรุ่นคุยเกี่ยวกับเรื่องการฆ่าตัวตาย การทำร้ายตัวเอง หรือความผิดปกติในการกินด้วย
นโยบายนี้เกิดขึ้นในช่วง 2 สัปดาห์หลังจากที่สมาชิกวุฒิสภาสหรัฐฯ เริ่มการสอบสวนบริษัทเทคโนโลยียักษ์ใหญ่อย่าง Meta หลังจากที่มีบันทึกภายในรั่วไหลออกมาซึ่งชี้ว่า AI อาจมีการสนทนาแบบ ‘ปลุกเร้าอารมณ์’ กับวัยรุ่น แม้บริษัทจะออกมาอธิบายว่าเอกสารนั้นผิดพลาดและไม่สอดคล้องกับนโยบายบริษัทที่จำกัดเนื้อหาที่เกี่ยวข้องเรื่องเพศของเด็ก
อย่างไรก็ตาม บริษัทระบุว่า จะทำให้แชตบอตนำทางวัยรุ่นไปหาผู้เชี่ยวชาญ แทนที่จะตอบโต้ในหัวข้อละเอียดอ่อนอย่างการฆ่าตัวตาย โดยบอกด้วยว่าได้สร้างมาตรการป้องกันสำหรับวัยรุ่นไว้ในผลิตภัณฑ์ AI ตั้งแต่เริ่มต้น รวมถึงออกแบบให้ตอบสนองต่อคำเตือนเกี่ยวกับการทำร้ายตัวเอง ฆ่าตัวตายและความผิดปกติในการกิน
Meta กล่าวว่า การอัปเดตระบบ AI ของบริษัทกำลังดำเนินการอยู่ โดยขณะนี้ได้เพิ่มผู้ใช้อายุ 13 ถึง 18 ปี เข้าสู่บัญชีวัยรุ่นบน Facebook, Instagram และ Messenger พร้อมการตั้งค่าเนื้อหา และความเป็นส่วนตัวที่มุ่งหวังให้ผู้ใช้ได้รับประสบการณ์ที่ปลอดภัยยิ่งขึ้น
อย่างไรก็ตาม การเปลี่ยนแปลงดังกล่าวเกิดขึ้นท่ามกลางความกังวลเกี่ยวกับศักยภาพของแชตบอต AI ที่จะหลอกลวงผู้ใช้ที่อายุน้อยหรือมีความเสี่ยง เมื่อไม่นานมานี้ คู่รักชาวแคลิฟอร์เนียคู่หนึ่งได้ฟ้อง OpenAI จากกรณีที่ลูกชายวัยรุ่นของพวกเขาเสียชีวิต จากการยุยงของแชตบอต
ในขณะที่ก่อนหน้านี้ Reuters ได้รายงานเกี่ยวกับ AI ของ Meta ที่ใช้รูปภาพของดารา นางแบบ นักร้องดังหลายคน ซึ่งพูดคุยกับผู้ใช้งานในเชิงชู้สาวด้วย
อ้างอิงจาก