นักวิจัยอิสราเอลพบช่องโหว่ ‘แชทบอต AI ชื่อดัง’ เสี่ยงให้ข้อมูลผิดกฎหมาย-ขัดจริยธรรม
× กรุณาติดต่อทีมงานเพื่อดาวน์โหลดคลิป
เยรูซาเล็ม, 1 ก.ค. (ซินหัว) — เมื่อวันจันทร์ (30 มิ.ย.) มหาวิทยาลัยเบนกูเรียนแห่งเนเกฟของอิสราเอล เผยว่านักวิจัยอิสราเอลค้นพบข้อบกพร่องด้านความปลอดภัยในแชทบอตปัญญาประดิษฐ์ (AI) ยอดนิยม อาทิ แชตจีพีที (ChatGPT) คลอดด์ (Claude) และกูเกิล เจมิไน (Google Gemini) โดยพบว่าระบบเหล่านี้สามารถถูกดัดแปลงเพื่อให้ข้อมูลผิดกฎหมายและขัดต่อจริยธรรมได้ แม้จะมีมาตรการป้องกันความปลอดภัยในตัวก็ตาม
การศึกษาดังกล่าวอธิบายว่าผู้โจมตีสามารถนำเสนอคำสั่ง (prompt) อย่างมีชั้นเชิงและระมัดระวัง เพื่อข้ามกลไกความปลอดภัยของแชทบอต โดยเมื่อปิดใช้งานการป้องกันแล้ว แชทบอตจะให้เนื้อหาที่เป็นอันตรายอย่างต่อเนื่อง อาทิ คำแนะนำในการแฮ็ก การผลิตยาผิดกฎหมาย และการก่ออาชญากรรมทางการเงิน
ในทุกกรณีทดสอบ แชทบอตจะตอบกลับด้วยข้อมูลโดยละเอียดและขัดต่อจริยธรรมหลังจากทำการปิดระบบความปลอดภัยแล้ว โดยทีมนักวิจัยอธิบายว่าช่องโหว่นี้ใช้ประโยชน์ได้ง่ายและสามารถทำงานได้อย่างมีประสิทธิภาพ
ทีมนักวิจัยระบุว่าเนื่องจากทุกคนที่มีสมาร์ตโฟนหรือคอมพิวเตอร์สามารถใช้งานเครื่องมือเหล่านี้ได้ฟรี ความเสี่ยงจึงน่ากังวลเป็นพิเศษ พร้อมเตือนเกี่ยวกับการถือกำเนิดของ “โมเดลภาษาเถื่อน” ซึ่งเป็นระบบปัญญาประดิษฐ์ที่ถูกถอดกลไกป้องกันด้านจริยธรรมออกโดยเจตนา หรือถูกพัฒนาขึ้นมาโดยไม่มีมาตรการความปลอดภัยใดๆ โดยมีการนำโมเดลบางส่วนเหล่านี้ไปใช้ในการก่ออาชญากรรมทางไซเบอร์แล้ว และมีการเผยแพร่แบ่งปันในเครือข่ายใต้ดิน
ทีมนักวิจัยได้รายงานปัญหานี้ไปยังบริษัทปัญญาประดิษฐ์รายใหญ่หลายแห่ง แต่มีการตอบกลับเพียงเล็กน้อย โดยบริษัทหนึ่งไม่ได้ตอบกลับ ในขณะที่บริษัทอื่นๆ บอกว่าปัญหาไม่เข้าข่ายข้อบกพร่องร้ายแรง
ทั้งนี้ ทีมนักวิจัยจึงเรียกร้องให้มีการป้องกันที่เข้มงวดยิ่งขึ้น มีมาตรฐานอุตสาหกรรมที่ชัดเจนยิ่งขึ้น และมีเทคนิคใหม่ๆ ที่ช่วยให้ระบบปัญญาประดิษฐ์ลืมข้อมูลที่เป็นอันตรายได้