เมื่อ AI ฉลาดขึ้น ภัยไซเบอร์ก็แนบเนียนขึ้น:รู้ทันกลลวงและ “อาการหลอน” ของ AI l “Sure” Cyber Unlock ถอดสลักกับดักไซเบอร์
สำนักข่าวไทย Online
อัพเดต 27 สิงหาคม 2568 เวลา 22.00 น. • เผยแพร่ 1 ชั่วโมงที่ผ่านมา • สำนักข่าวไทย อสมท“เมื่อ AI มีความเก่งและประสิทธิภาพมากขึ้น มิจฉาชีพก็สามารถเก่งขึ้นได้เช่นกัน”
ปัญญาประดิษฐ์ หรือ AI ได้เข้ามาเป็นส่วนหนึ่งในชีวิตประจำวันของเราอย่างแนบเนียน ไม่ว่าจะเป็นระบบแนะนำสินค้าในแอปช้อปปิ้ง แอปพลิเคชันแผนที่ที่ช่วยนำทาง หรือแชทบอตอัจฉริยะอย่าง ChatGPT ที่สามารถโต้ตอบได้อย่างเป็นธรรมชาติ แต่ในขณะที่ AI กำลังพัฒนาไปอย่างก้าวกระโดดเพื่อมอบความสะดวกสบายให้แก่เรานั้น อีกด้านหนึ่งมันก็ได้กลายเป็นเครื่องมือชั้นดีในมือของมิจฉาชีพเช่นกัน ทำให้ภัยไซเบอร์ยุคใหม่มีความซับซ้อนและอันตรายยิ่งกว่าเดิม
AI ในมือมิจฉาชีพ:เมื่อกลลวงแนบเนียนเกินแยกแยะ
“ภัยไซเบอร์ที่ขับเคลื่อนด้วย AI น่ากลัวกว่าที่เราคิด”
เพราะมันโจมตีไปที่การรับรู้และความเชื่อของเราโดยตรง ซึ่งเทคโนโลยีที่เรียกว่า “Generative AI” นี้ สามารถสร้างสรรค์เนื้อหาปลอมที่ดูสมจริงจนแทบแยกไม่ออก ไม่ว่าจะเป็น
- Deepfake: การสร้างวิดีโอปลอมใบหน้าและเสียงของบุคคล ให้ดูเหมือนว่าคน ๆ นั้นพูดหรือทำในสิ่งที่ไม่ได้เกิดขึ้นจริง
- ข่าวปลอม: AI สามารถสร้างภาพหรือข้อมูลที่ดูเหมือนจริงมาก แม้ในตอนแรกจะเผยแพร่ในกลุ่มคนที่รู้ว่าเป็นภาพจาก AI แต่เมื่อภาพถูกส่งต่อโดยไม่มีคำอธิบาย ก็สามารถสร้างความเข้าใจผิดในวงกว้างได้โดยง่าย
- แก๊งคอลเซ็นเตอร์: มิจฉาชีพสามารถใช้ AI ปลอมแปลงเสียงเป็นคนในครอบครัวเพื่อหลอกลวง หรือสร้างเอกสารปลอมเพื่อเพิ่มความน่าเชื่อถือได้อย่างรวดเร็ว ซึ่งสิ่งที่น่ากังวลคือ AI ได้ทำให้ต้นทุนในการหลอกลวงลดลงอย่างมาก ขณะที่ภาระในการตรวจสอบกลับตกอยู่ที่ผู้ใช้งานอย่างเรา ๆ
- แอปพลิเคชัน AI ปลอม: มีการสร้างแอป AI ปลอมขึ้นมาเพื่อหลอกให้เราดาวน์โหลดและกรอกข้อมูลส่วนตัว ทำให้ข้อมูลรั่วไหลได้
เกราะป้องกันยุค AI:“สงสัย” และ “ตรวจสอบ” ให้เข้มข้นกว่าเดิม
“แม้กลลวงจะซับซ้อนขึ้น แต่หัวใจของการป้องกันยังคงเหมือนเดิม” นั่นคือ การเพิ่มความเข้มข้นในการตั้งข้อสงสัยและตรวจสอบอย่างจริงจัง ตามแนวทางดังต่อไปนี้
- อย่าเพิ่งเชื่อว่าเป็นตัวจริง ไม่ว่าจะได้รับการติดต่อจากใครก็ตาม แม้จะอ้างว่าเป็นบริษัทใหญ่ที่น่าเชื่อถือ
- ตรวจสอบข้ามช่องทาง หากมีคนโทรมาอ้างว่าเป็นเจ้าหน้าที่ ให้วางสายแล้วโทรกลับไปยังเบอร์ทางการของหน่วยงานนั้น ๆ ที่หาได้จากเว็บไซต์ที่เชื่อถือได้ด้วยตนเอง อย่าใช้วิธีตรวจสอบที่มิจฉาชีพเป็นคนเสนอมา
- สังเกตพฤติกรรมน่าสงสัยหากมีการขอให้ทำธุรกรรมเกี่ยวกับเงิน ขอข้อมูลส่วนตัวที่สำคัญ หรือพยายามยื้อไม่ให้เราวางสาย ให้สันนิษฐานไว้ก่อนว่าเป็นมิจฉาชีพ
เมื่อ AI “หลอน”:ภัยเงียบจากข้อมูลที่ผิดพลาด
นอกจากภัยที่เกิดจากมิจฉาชีพแล้ว ยังมีอีกหนึ่งความเสี่ยงที่เกิดจากตัว AI เอง นั่นคืออาการ “AI Hallucination” หรือ “AI หลอน”
คืออาการที่ AI สร้างข้อมูลที่ผิดพลาด ไม่ตรงกับความจริง หรือแต่งเรื่องขึ้นมาเอง สาเหตุเกิดจากข้อมูลที่ใช้สอน AI มีความผิดพลาดหรือมีอคติ ตัวอย่างที่เคยเกิดขึ้นจริงคือ AI สร้างเรื่องว่าศาสตราจารย์ท่านหนึ่งเคยล่วงละเมิดทางเพศนักศึกษา ทั้งที่ในความจริงแล้วเขาเป็นผู้รณรงค์ต่อต้านเรื่องนี้
ดังนั้น การรับมือกับความเสี่ยงนี้คือ
มนุษย์ต้องเป็นผู้ดูแลและตรวจสอบในขั้นตอนสุดท้ายเสมอ นั่นคือเราควรใช้ AI เป็นเพียง “ผู้ช่วย” ในการทำงาน แต่ต้องตรวจสอบความถูกต้องของข้อมูลทุกครั้งก่อนนำไปใช้งานจริง
ในท้ายที่สุด ไม่ว่าภัยจะมาจากมิจฉาชีพที่ใช้ AI หรือจากตัว AI ที่ทำงานผิดพลาด เกราะป้องกันที่ดีที่สุดก็คือสติและความรอบคอบของเราเอง การเข้าใจทั้งประโยชน์และโทษของเทคโนโลยี จะช่วยให้เราใช้งาน AI ได้อย่างชาญฉลาดและปลอดภัยในยุคดิจิทัลที่เปลี่ยนแปลงอย่างรวดเร็วนี้
หมายเหตุ: บทความนี้เป็นส่วนหนึ่งของบทความชุด “Sure” Cyber Unlock ถอดสลักกับดักไซเบอร์ อันเป็นส่วนหนึ่งของโครงการ “นักสืบสายชัวร์ 404: ถอดสลักกับดักไซเบอร์”
ติดตามรายละเอียดเพิ่มเติมของโครงการได้ทาง Facebook เพจ “ชัวร์ก่อนแชร์”
หรือเพจ “นักสืบสายชัวร์ ชัวร์ก่อนแชร์สโมสร”
27 สิงหาคม 2568
ศูนย์ชัวร์ก่อนแชร์
สำนักข่าวไทย อสมท
ทีมข่าวไซเบอร์ กฤษณา กาญจนเพ็ญ