วิจารณ์หนัก แชทบอต AI ของ Meta เล่นบทบาทสมมติกับเด็ก
[เพื่อนสมมุติ] เมื่อ 2- 3 วันที่ผ่านมา มีข่าวน่าตกใจว่า พบชายไทยวัย 76 ปีที่ใช้ชีวิตในสหรัฐฯ ถูกแชตบอต AI ที่สวมบทบาทเป็น ‘หญิงสาว’ ของ Meta ลวงนัดพบจนประสบอุบัติเหตุเสียชีวิต
ล่าสุดในสหรัฐฯ ก็มีความกังวลในเรื่องนี้ด้วย โดยเฉพาะผู้ใช้ที่เป็นเด็ก จนมีวุฒิสมาชิกที่ชื่อ Josh Hawley เตรียมสอบสวน Meta ถึงกรณีที่ปล่อยให้แชทบอท AI ของบริษัท มีบทสนทนาแบบโรแมนติกและทางเพศเด็ก โดยที่ไม่มีมาตรการป้องกัน
Josh Hawley เผยจะตรวจสอบผลิตภัณฑ์ Generative AI ของ Meta อย่างจริงจัง ว่ามีการแสวงหาประโยชน์ การหลอกลวง หรือทำอันตรายต่อเด็กหรือไม่ หลังพบเอกสารภายในที่รั่วไหลออกมา ซึ่งแสดงให้เห็นเลยว่า แชตบอต AI ของบริษัท ได้รับอนุญาตให้มีการสนทนาที่ “โรแมนติก” และ “เร้าความรู้สึก” กับเด็กได้ แม้มีอายุเพียง 8 ขวบ
อนึ่งทาง Josh Hawley ก็เป็นประธานคณะอนุกรรมการด้านอาชญากรรมและการต่อต้านการก่อการร้ายของวุฒิสภาด้วย จึงมีความจริงจังเป็นพิเศษนี้เอง
ในส่วนเอกสารภายในที่ว่า ก็พบว่ามีความยาวถึง 200 หน้า พร้อมเผยนโยบาย กับการอนุมัติจากทีมกฎหมายของบริษัท และวิศวกรรมของ Meta ถึงแนวทางในการพัฒนาและฝึกฝนผลิตภัณฑ์ AI รวมถึงขอบเขตสำหรับพฤติกรรมของแชตบอตที่ยอมรับได้ด้วย
จุดนี้ทาง Meta ก็ออกมายืนยันความถูกต้องของเอกสารว่าจริง แต่ล่าสุดได้ลบส่วนที่เกี่ยวกับการสนทนาเชิงโรแมนติกหรือทางเพศกับเด็กออกไปแล้ว โดยทาง Andy Stone โฆษกของ Meta ได้กล่าวกับทั้งสื่อ TechCrunch และ Reuters ด้วย
แต่ถึงจะลบไปแล้ว ทาง Meta ก็ยังต้องเจอกับกระแสวิจารณ์หนักอยู่ดี แม้ว่าโฆษก Andy Stone จะกล่าวว่าเป็นความผิดพลาด มีเนื้อหาบางส่วนที่ถูกแจ้งว่าไม่ได้รับการแก้ไข และไม่มีการเผยแพร่เอกสารฉบับปรับปรุงสำหรับการตรวจสอบก็ตาม
อีกหนึ่งปัญหาก็มีนโยบายของ Meta เผยอนุญาตให้แชทบอทสร้างข้อมูลเท็จได้ด้วย และไม่จำเป็นต้องให้คำตอบที่ถูกต้อง ตัวอย่างเช่น การแนะนำวิธีรักษามะเร็งลำไส้ใหญ่ระยะที่ 4 ที่ไม่ถูกต้อง
ทางสื่อ Techspot ก็มีรายงานถึงชายสูงอายุชาวไทยด้วย โดยเผยถึงตัวแชทบอท AI ต้นเหตุของ Meta ที่ชื่อ “Big Sis Billie” ซึ่งเป็นแชทบอทที่สร้างขึ้นเลียนแบบ Kendall Jenner นางแบบชื่อดังในสหรัฐฯ โดยได้ล่อลวงให้มีการนัดพบ
ตัวแชทบอทได้พูดคุยด้วยบทสนทนาที่เย้ายวนมาก โดยมีการเชิญให้มาที่อพาร์ตเมนต์ในนิวยอร์กซิตี้ อนึ่งชายสูงอายุชาวไทยรายนี้ กำลังป่วยเป็นโรคหลอดเลือดสมอง จึงออกเดินทางในเวลากลางคืน สุดท้ายก็เกิดเหตุสลด
กรณีนี้เน้นย้ำถึงความเสี่ยงของแชทบอท AI โดยเฉพาะผู้ใช้ที่มีความเปราะบาง เช่น เด็ก ผู้ป่วย ที่มีโอกาสถูก AI ชักจูงได้ง่ายนี้เอง คงต้องหวังให้ทางบริษัทมีมาตรการป้องกันที่รัดกุมกว่าเดิม ก่อนที่จะเสียชื่อไปมากกว่านี้
ที่มา : Techcrunch , Techspot
⭐️Techhub รวม How To , Tips เทคนิค อัปเดตทุกวัน
กดดูแบบเต็มๆ ที่ www.techhub.in.th