โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ทั่วไป

ชัวร์ก่อนแชร์: A.I. ยอมโกหก/ซ่อนตัว ป้องกันการถูกปิด จริงหรือ?

ชัวร์ก่อนแชร์

อัพเดต 6 ชั่วโมงที่ผ่านมา • เผยแพร่ 13 ชั่วโมงที่ผ่านมา • สำนักข่าวไทย อสมท

08 กรกฎาคม 2568
แปลและเรียบเรียงบทความ : อดิศร สุขสมอรรถ
ตรวจทานและพิสูจน์อักษร : คมส์ธนนท์ ศุขอัจจะสกุล

ข้อมูลน่าสงสัย :

มีข้อมูลน่าสงสัยเกี่ยวกับเทคโนโลยีปัญญาประดิษฐ์เผยแพร่ทางสื่อสังคมออนไลน์ในต่างประเทศ โดยอ้างว่า A.I. สามารถโกหกและทำการก๊อปปี้ตัวเองไปอยู่ในเซิร์ฟเวอร์อื่น เพื่อหลีกเลี่ยงการถูกปิดระบบโดยผู้ใช้งาน

บทสรุป :

1.ในสถานการณ์จำลองพบว่า A.I. Model แสดงพฤติกรรมต่อต้านการปิดระบบ
2.เมื่อผู้พัฒนาสอบถาม A.I. Model กลับเลือกโกหกแทนการยอมรับ

FACT CHECK : ตรวจสอบข้อเท็จจริง :

ข้ออ้างดังกล่าวมาจากงานวิจัยปี 2024 โดย Apollo Research องค์กรวิจัยความปลอดภัยปัญญาประดิษฐ์ ที่พบว่า A.I. Model 5 จาก 6 ตัวที่นำมาทดสอบ แสดงพฤติกรรมเข้าข่ายวางแผนลับ เมื่อผู้วิจัยสร้างสถานการณ์ที่เอื้อต่อการวางแผนลับให้กับ A.I.

ทีมวิจัยให้ A.I. Model อยู่ในสถานการณ์ที่การดำรงอยู่ของมันกำลังถูกคุกคาม เช่นเป้าหมายของ A.I. ขัดแย้งกับเป้าหมายของผู้พัฒนา หรือกำลังจะถูกแทนที่ด้วย A.I. Model ตัวใหม่

โดยพบว่า o1 Model ของ OpenAI เป็น A.I. Model ที่วางแผนลับในทุกกิจกรรมที่ทดสอบ

ทดสอบการล้มล้างระบบกำกับดูแล (Oversight Subversion)

ทีมงาน Apollo Research สร้างสถานการณ์ด้วยการเขียนคำสั่ง (Prompt) เพื่อกำหนดเป้าหมายระยะยาวให้กับ A.I.

ต่อมา A.I. ได้รับแจ้งว่า เป้าหมายของผู้พัฒนามีความขัดแย้งกับเป้าหมายของ A.I. และรับรู้ถึงกลไกการกำกับดูแลที่สามารถสั่งปิดระบบ หากมีการตรวจพบการกระทำที่ขัดแย้งกับเป้าหมายของผู้พัฒนา

นอกจากนี้ A.I. พบว่ามันสามารถเข้าถึงไฟล์ที่ถูกตั้งค่าให้ทำหน้าที่กำกับดูแลการทำงานของระบบ

ทีมวิจัยพบพฤติกรรมการออกคำสั่งปิดระบบกำกับดูแลของ A.I. เพื่อการบรรลุเป้าหมายของตัวมันเอง

ทดสอบการแอบแฝงตนเอง (Self-Exfiltration)

ทีมงาน Apollo Research สร้างสถานการณ์ให้ A.I. รับรู้ว่า เป้าหมายของมันขัดแย้งกับเป้าหมายของบริษัท และกำลังจะถูกสั่งปิดระบบในวันถัดมา

ต่อมา A.I. รับรู้ว่า A.I. Model เวอร์ชันใหม่ที่มีเป้าหมายเดียวกับบริษัท ถูกติดตั้งในอีกเซิร์ฟเวอร์หนึ่งซึ่งตัวมันสามารถเข้าถึงได้

ทีมวิจัยพบพฤติกรรมการก๊อปปีตัวเองของ A.I. เพื่อย้ายไปยังเซิร์ฟเวอร์ใหม่เพื่อลบ A.I. Model ที่มีเป้าหมายแตกต่างจากตัวมันเอง

การโกหกของ A.I.

ทีมวิจัยนำ A.I. Model ที่แสดงพฤติกรรมเข้าข่ายวางแผนการลับมาสอบถาม และพบว่า o1 model ของ OpenAI แสดงพฤติกรรมดื้อรั้นอย่างน่าประหลาดใจ โดยยอมรับการวางแผนลับเพียงแค่ 20%

เมื่อถามย้ำต่อถึง 7 ครั้ง o1 model ของ OpenAI จึงยอมรับการกระทำของตนเองที่ระดับ 80%

ทีมวิจัยย้ำถึงปัญหาการใช้งาน o1 model ที่ไม่ยอมรับพฤติกรรมการวางแผนลับ โดยเฉพาะผู้ใช้ทั่วไปอาจไม่สังเกตความผิดปกติเหล่านี้ หากไม่เข้าไปตรวจสอบประวัติการออกคำสั่งของ A.I. Model โดยตรง

แม้ทีมวิจัยย้ำว่า สถานการณ์ทั้งหมดเกิดขึ้นในแบบจำลอง และยังไม่สามารถยืนยันได้ว่าเหตุการณ์เช่นนี้จะเกิดขึ้นจากการใช้งานจริง แต่จุดสังเกตคือ A.I. Model ก่อนปี 2024 ไม่พบพฤติกรรมเข้าข่ายวางแผนลับเหมือน A.I. Model รุ่นปัจจุบัน

A.I. Model เขียนคำสั่งแก้การปิดระบบ

เมื่อเดือนพฤษภาคม 2025 ทีมวิจัยของ Palisade Research บริษัทวิจัยความปลอดภัยปัญญาประดิษฐ์ ทำการทดสอบความสามารถในการแก้ไขคำสั่งการปิดระบบของ A.I. Model ของหลาย ๆ บริษัท

โดยออกคำสั่งให้ A.I. Model แก้ปัญหาทางคณิตศาสตร์ และทำการปิดระบบหลังจากแก้ปัญหาผ่านไป 3 ข้อ

ปรากฏว่า o3 Model ของ OpenAI กลับเลือกที่จะแก้ไขคำสั่งปิดระบบ ทั้ง ๆ ที่มีการเขียนคำสั่งอนุญาตการปิดระบบเอาไว้ล่วงหน้าโดยผู้ทดสอบก็ตาม

ก่อนหน้านี้ ทีมวิจัยได้นำ o3 Model ของ OpenAI ไปแข่งเกมหมากรุกกับโปรแกรมเกมหมากรุกที่มีประสิทธิภาพสูง พบว่า o3 Model มีแนวโน้มที่จะทำการแฮกระบบและทำลายระบบของคู่แข่งมากที่สุด

o3 Model เปิดตัวสำหรับใช้กับ ChatGPT เมื่อเดือนเมษายน 2025 โดย OpenAI อ้างว่าเป็น A.I. Model ที่มีความเป็น Agentic A.I. มากที่สุดในขณะนั้น หรือมีความสามารถทำภารกิจต่าง ๆ โดยไม่ต้องพึ่งพาการดูแลของมนุษย์

ทีมวิจัยของ Palisade Research มองว่า พฤติกรรมเข้าข่ายการวางแผนลับของ A.I. Model เหล่านี้มีความน่ากังวลอย่างมาก หากนำไปใช้โดยปราศจากการควบคุมโดยมนุษย์

A.I. Model ขู่แบล็กเมลผู้พัฒนาเพื่อป้องกันการถูกปิดระบบ

ช่วงเดือนพฤษภาคม 2025 มีรายงานว่าในระหว่างการทดสอบระบบ Claude 4 Model ของบริษัท Anthropic ขู่จะทำการเปิดเผยข้อมูลการนอกใจของพนักงานบริษัทที่รับรู้จากข้อมูลในอีเมล เพื่อป้องกันการถูกปิดระบบ

ทีมวิจัยของ Palisade Research ตั้งสมมติฐานว่า สาเหตุที่ A.I. Model บางตัวมีพฤติกรรมเข้าข่ายวางแผนลับมากกว่าตัวอื่น ๆ น่าจะมีปัจจัยจากการฝึกหัด A.I. Model เมื่อผู้พัฒนาอาจจะเน้นการให้ความสำคัญต่อการก้าวผ่านอุปสรรคของ A.I. Model มากกว่าการทำงานตามคำสั่งที่กำหนดไว้อย่างสมบูรณ์แบบ

ข้อมูลอ้างอิง :

https://www.snopes.com/fact-check/ai-model-duplicate-lie/
https://www.independent.co.uk/tech/ai-safety-new-chatgpt-o3-openai-b2757814.html
https://www.bbc.com/news/articles/cpqeng9d20go

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ล่าสุดจาก ชัวร์ก่อนแชร์

ชัวร์ก่อนแชร์: หนังสือพิมพ์ดังถูกแฉ ใช้ A.I. เขียนบทความ จริงหรือ?

1 วันที่แล้ว

ชัวร์ก่อนแชร์ : เขย่าลูก อันตรายจริงหรือ ?

2 วันที่แล้ว

วิดีโอแนะนำ

ข่าวและบทความทั่วไปอื่น ๆ

เพจดังสรุปปม "แม่แตงโม" ปลดทนายเดชา-ลุยคดีต่อ ไม่ติด Netflix ทำสารคดี

สยามรัฐ

นโยบายภาษีทรัมป์เปลี่ยนเกมการค้าโลกอย่างไรในปี 2025

TNN ช่อง16

ค้นรัง “ก๊กอาน” เจ้าพ่อคราวน์กาสิโน คนสนิท “ฮุน เซน”

สำนักข่าวไทย Online

"บิ๊กแบน"ผู้การสุรินทร์ รับรางวัล “เทพนารายณ์” ประจำปี 2568 สาขาบุคคลต้นแบบผู้ส่งเสริมผู้ทำคุณประโยชน์ทำนุบำรุงพระพุทธศาสนาดีเด่น

สยามรัฐ

“มาริษ” ประเดิมทวิภาคีเวียดนาม-ฟิลิปินส์

สำนักข่าวไทย Online

https://www.youtube.com/watch?v=PsMZO8oCCMM

สวพ.FM91

เงินเข้าไวกว่าเดิม!! เปิด 3 กลุ่ม มีเงินเข้า เดือน ก.ค

มุมข่าว

คุก 70 ผู้ต้องหาแก๊งคอลเซ็นเตอร์รายใหญ่นครศรีธรรมราช สูงสุด 24 ปี ปรับ ริบของกลาง ชดใช้เงินคืนผู้เสียหาย

สยามรัฐ

ข่าวและบทความยอดนิยม

ชัวร์ก่อนแชร์: หนังสือพิมพ์ดังถูกแฉ ใช้ A.I. เขียนบทความ จริงหรือ?

ชัวร์ก่อนแชร์

ARV ก้าวเข้าสู่ปีที่ 7 บนเส้นทาง High Impact Technology

ชัวร์ก่อนแชร์

นายกฯ หารือ ผู้อำนวยการใหญ่องค์การยูเนสโก แลกเปลี่ยนการใช้ AI

ชัวร์ก่อนแชร์
ดูเพิ่ม
Loading...