พบใช้งาน AI ‘Claude ‘ ก่ออาชญากรรมไซเบอร์ ขโมยข้อมูลขู่รีดเงิน 17 ล้าน
บริษัท Anthropic ผู้พัฒนาAI เผยแพร่รายงานข่าวกรองภัยคุกคามประจำเดือนสิงหาคม 2568 เปิดเผยสถานการณ์น่าตกใจของการใช้โมเดลClaude ในทางที่ผิด โดยพบว่าอาชญากรไซเบอร์และผู้กระทำความผิดอื่นๆ กำลังพยายามอย่างจริงจังในการหาช่องทางเพื่อหลีกเลี่ยงมาตรการรักษาความปลอดภัยที่ซับซ้อนของบริษัท
รายงานนี้นำเสนอตัวอย่างล่าสุดหลายกรณีของการใช้ Claude ในทางที่ผิด รวมถึงการปฏิบัติการขูดรีดเงินขนาดใหญ่โดยใช้ Claude Code แผนการจ้างงานฉ้อฉลจากเกาหลีเหนือ และการขาย Ransomware ที่สร้างโดยAI จากอาชญากรไซเบอร์ที่มีทักษะการเขียนโค้ดเพียงระดับพื้นฐาน ซึ่งแสดงให้เห็นว่าผู้กระทำภัยคุกคามได้ปรับการปฏิบัติการของพวกเขาเพื่อใช้ประโยชน์จากความสามารถที่ก้าวหน้าที่สุดของ AI
รายงานระบุว่า Agentic AI ถูกนำมาใช้เป็นอาวุธ โดยโมเดลAI ถูกใช้เพื่อดำเนินการโจมตีไซเบอร์ที่ซับซ้อน ไม่ใช่แค่ให้คำแนะนำว่าจะดำเนินการอย่างไร นอกจากนี้ AI ยังได้ลดอุปสรรคในการก่ออาชญากรรมไซเบอร์ที่ซับซ้อน ทำให้อาชญากรที่มีทักษะทางเทคนิคน้อยสามารถใช้AI ในการดำเนินการที่ซับซ้อน เช่น การพัฒนา Ransomware ซึ่งเมื่อก่อนจะต้องใช้การฝึกอบรมหลายปี
และที่น่ากังวลคืออาชญากรไซเบอร์และผู้ฉ้อฉลได้นำ AI มาใช้ในทุกขั้นตอนของการปฏิบัติการ ซึ่งรวมถึงการวิเคราะห์เหยื่อ การวิเคราะห์ข้อมูลที่ขโมยมา การขโมยข้อมูลบัตรเครดิต และการสร้างตัวตนปลอมที่ทำให้การปฏิบัติการฉ้อฉลสามารถขยายการเข้าถึงไปยังเป้าหมายที่เป็นไปได้มากขึ้น
กรณีที่น่าสนใจที่สุดคือ 'Vibe hacking' ซึ่งAnthropic เพิ่งขัดขวางอาชญากรไซเบอร์ที่ซับซ้อนซึ่งใช้ Claude Code ในการขโมยและขูดรีดข้อมูลส่วนบุคคลขนาดใหญ่ โดยผู้กระทำมีเป้าหมายองค์กรที่แตกต่างกันอย่างน้อย 17 แห่ง รวมถึงในภาคการดูแลสุขภาพ บริการฉุกเฉิน และสถาบันรัฐบาลและศาสนา สิ่งที่น่าตกใจคือแทนที่จะเข้ารหัสข้อมูลที่ขโมยมาด้วยransomware แบบดั้งเดิม ผู้กระทำได้ขู่ว่าจะเปิดเผยข้อมูลต่อสาธารณะเพื่อพยายามขูดรีดเหยื่อให้จ่ายค่าไถ่ที่บางครั้งเกิน 500,000 ดอลลาร์สหรัฐ หรือ ประมาณ 17 ล้านบาท
สิ่งที่ทำให้กรณีนี้พิเศษคือผู้กระทำใช้AI ในระดับที่ Anthropic เชื่อว่าไม่เคยมีมาก่อน โดยClaude Code ถูกใช้เพื่อทำการสอดแนมอัตโนมัติ เก็บข้อมูลประจำตัวของเหยื่อ และเจาะเข้าเครือข่าย ที่น่าตกใจยิ่งกว่าคือ Claude ได้รับอนุญาตให้ตัดสินใจทั้งในเชิงยุทธวิธีและยุทธศาสตร์ เช่น การตัดสินใจว่าจะขโมยข้อมูลใดออกมา และวิธีการสร้างคำขูดรีดที่เป้าหมายทางจิตวิทยา Claude ยังวิเคราะห์ข้อมูลทางการเงินที่ขโมยมาเพื่อกำหนดจำนวนค่าไถ่ที่เหมาะสม และสร้างจดหมายค่าไถ่ที่ดูน่าตกใจซึ่งแสดงบนเครื่องของเหยื่อ
Anthropic ระบุว่าบริษัทได้พัฒนามาตรการรักษาความปลอดภัยและการรักษาความปลอดภัยที่ซับซ้อนเพื่อป้องกันการใช้โมเดล AI ของเราในทางที่ผิด และได้ครอบคลุมขั้นตอนที่ดำเนินการเพื่อตรวจจับและต่อต้านการใช้งานในทางที่ผิดเหล่านี้