ชีวิตติด TECH – เมื่อ AI มีด้านมืด…รู้จัก “Dark AI” ความฉลาดที่ร้ายกาจกว่าไวรัสทั่วไป
ทุกวันนี้เรื่องเทคโนโลยีปัญญาประดิษฐ์ หรือ AI ได้รับความนิยมนำมาใช้งานอย่างแพร่หลาย แต่ก็เป็นเทคโนโลยีที่เป็นดาบสองคม เพราะหากใช้ไปในทางไม่ดี หรือ ไม่มี จริยธรรม ก็จะกลายเป็นเทคโนโลยีที่ให้โทษได้ ช่วงที่ผ่านมามาจึงมีการถกกันถึงเรื่องกฎหมาย AI กันในหลายๆประเทศ
โดยเฉพาะ “Dark AI” ที่เป็นความท้าทาย ซึ่งอาจจำมาสู่ความมั่นคงปลอดภัยทางไซเบอร์ยุคใหม่ เพราะมันสามารถถูกใช้ ในการเขียนโค้ดที่เป็นอันตราย ,สร้างมัลแวร์ที่ตรวจจับไม่ได้ , สร้างเพจฟิชชิ่ง ,สร้างเครื่องมือแฮ็ค ,ค้นหาจุดรั่วไหลและช่องโหว่ รวมถึงใช้เขียนหน้า/จดหมายหลอกลวง ฯลฯ
วันนี้คอลัมน์ “ชีวิตติด TECH” จะพามารู้จัก AI ด้านมืด และการเตรียมพร้อมรับมือกับสิ่งที่อสตตะเกิดขึ้นได้ โดย “Dark AI” หากจะอธิบายง่ายๆ ก็หมายถึง การใช้งานโมเดลภาษาขนาดใหญ่ (Large Language Models - LLM) แบบไม่จำกัดจำนวนภายในหรือจากระยะไกล ภายในเฟรมเวิร์กหรือระบบแชทบอทเต็มรูปแบบ
ซึ่งถูกนำไปใช้เพื่อวัตถุประสงค์ที่เป็นอันตราย ผิดจริยธรรม หรือไม่ได้รับอนุญาต ระบบเหล่านี้ทำงานนอกเหนือการควบคุมด้านความปลอดภัย การปฏิบัติตามข้อกำหนด หรือการกำกับดูแลมาตรฐาน ซึ่งมักทำให้เกิดความสามารถต่างๆ เช่น การหลอกลวง การบิดเบือน การโจมตีทางไซเบอร์ หรือการละเมิดข้อมูลโดยปราศจากการกำกับดูแล เป็นต้น
“เซอร์เกย์ ลอซคิน” หัวหน้าทีมวิจัยและวิเคราะห์ระดับโลก (GReAT) ภูมิภาคตะวันออกกลาง ตุรกี แอฟริกา และเอเชียแปซิฟิก แคสเปอร์สกี้ ซึ่งเป็นบริษัทผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ระดับโลก บอกว่า นับตั้งแต่ ChatGPT ได้รับความนิยมทั่วโลกในปี 2023หรือปี 2566 เราได้เห็นการนำ AI มาใช้อย่างมีประโยชน์หลายประการ ตั้งแต่งานทั่วไปอย่างการสร้างวิดีโอ ไปจนถึงการตรวจจับและวิเคราะห์ภัยคุกคามทางเทคนิค ในขณะเดียวกัน ผู้ไม่หวังดีก็กำลังใช้ AI เพื่อเสริมศักยภาพในการโจมตี โลกกำลังก้าวเข้าสู่ยุคแห่งความมั่นคงปลอดภัยไซเบอร์ และในสังคมของเราที่ AI เป็นโล่และ Dark AI คือดาบ
สำหรับการนำ Dark AI ในการใช้งานจริง ที่เป็นอันตรายและเป็นที่รู้จักมากที่สุดในปัจจุบันคือ Black Hat GPTs ซึ่งปรากฏขึ้นในช่วงกลางปี 2023 โมเดล AI เหล่านี้ถูกสร้างขึ้น ดัดแปลง หรือใช้งาน โดยมีเจตนาเพื่อดำเนินกิจกรรมที่ผิดจริยธรรม ผิดกฎหมาย หรือเป็นอันตราย เช่น การสร้างโค้ดที่เป็นอันตราย การสร้างอีเมลฟิชชิงที่ลื่นไหลและโน้มน้าวจิตใจเหยื่อในการโจมตีทั้งแบบกลุ่มและแบบเจาะจงเป้าหมาย การสร้าง deep fake ด้วยเสียงและวิดีโอ และแม้แต่การสนับสนุนการปฏิบัติงานของ Red Team
“Black Hat GPT สามารถเป็นโมเดล AI แบบส่วนตัวหรือแบบกึ่งส่วนตัวก็ได้ ตัวอย่างที่เป็นที่รู้จัก ได้แก่ WormGPT, DarkBard, FraudGPT และ Xanthorox ซึ่งออกแบบหรือดัดแปลงเพื่อรองรับอาชญากรรมไซเบอร์ การฉ้อโกง และระบบอัตโนมัติที่เป็นอันตรายต่างๆ นอกเหนือจากการใช้งาน AI ในทางที่ผิดโดยทั่วไปแล้ว ผู้เชี่ยวชาญของแคสเปอร์สกี้ได้สังเกตเห็นแนวโน้มที่แย่กว่านั้น คือ ผู้ก่อภัยคุกคามไซเบอร์ระดับประเทศใช้ประโยชน์จาก LLM ในแคมเปญของตน”
ในช่วงที่ผ่านมา OpenAI บริษัทระดับโลก ผู้พัฒนา ChatGPT เปิดเผยว่า ได้ขัดขวางปฏิบัติการทางไซเบอร์และปฏิบัติการลับอื่นๆ ที่พยายามใช้เครื่องมือ AI ในทางที่ผิด จำนวนมาก และคาดว่าผู้ก่อภัยคุกคามจะคิดค้นวิธีการที่ชาญฉลาดมากขึ้นในการนำ generative AI ที่ทำงานอยู่ในระบบนิเวศภัยคุกคามทั้งภาครัฐและเอกชนมาใช้เป็นอาวุธ ทุกฝ่ายจึงควรเตรียมตัวให้พร้อม
ทั้งนี้รายงานของ Open AI เปิดเผยว่า ผู้ก่อภัยคุกคามได้ใช้ LLM เพื่อสร้างตัวตนปลอมที่น่าเชื่อถือ ตอบสนองต่อเป้าหมายแบบเรียลไทม์ และสร้างเนื้อหาหลายภาษาที่ออกแบบมาเพื่อหลอกลวงเหยื่อและหลีกเลี่ยงตัวกรองความปลอดภัยแบบเดิม
เซอร์เกย์ ลอซคิน ได้อธิบายว่า AI ไม่ได้แยกแยะผิดถูกได้เองโดยธรรมชาติ แต่มันเป็นเครื่องมือที่ทำตามคำสั่ง แม้ว่าจะมีมาตรการป้องกันไว้แล้วก็ตาม เราก็รู้ว่า ภัยคุกคามขั้นสูงและต่อเนื่อง (APT) มักเป็นผู้โจมตีที่ดำเนินการอย่างต่อเนื่อง
“เมื่อเครื่องมือ Dark AI เข้าถึงได้ง่ายขึ้นและมีความสามารถมากขึ้น องค์กรและบุคคลทั่วไปในภูมิภาคเอเชียแปซิฟิกจึงจำเป็นต้องเสริมสร้างด้านความปลอดภัยทางไซเบอร์ ลงทุนในการตรวจจับภัยคุกคามที่ขับเคลื่อนด้วย AI เอง และหมั่นศึกษาหาความรู้เกี่ยวกับวิธีการใช้ประโยชน์จากเทคโนโลยี AI เหล่านี้” เซอร์เกย์ ลอซคิน ระบุ
อย่างไรก็ตามแคสเปอร์สกี้ ได้แนะนำขั้นตอน เพื่อช่วยให้องค์กรต่างๆ สามารถป้องกันตนเองจาก Dark AI และภัยคุกคามทางไซเบอร์ที่ขับเคลื่อนด้วย AI ได้ ดังนี้
-ใช้โซลูชันความปลอดภัยรุ่นใหม่ เพื่อตรวจจับมัลแวร์และภัยคุกคามที่ขับเคลื่อนด้วย AI ในซัพพลายเชน
-ใช้เครื่องมือวิเคราะห์ภัยคุกคามแบบเรียลไทม์ (threat intelligence) เพื่อตรวจสอบช่องโหว่ที่ขับเคลื่อนด้วย AI
-จำกัดการควบคุมการเข้าถึงและให้ความรู้แก่พนักงานเพื่อลดความเสี่ยงจาก Shadow AI และการรั่วไหลของข้อมูล
-จัดตั้งศูนย์ปฏิบัติการด้านความปลอดภัย (SOC) เพื่อการตรวจสอบภัยคุกคามแบบเรียลไทม์และการตอบสนองได้อย่างรวดเร็ว
เทคโนโลยี AI ใช้ถูก ก็เป็นประโยชน์มหาศาล แต่ก็มีกลุ่มคนไม่หวังดีฉวยโอกาสเอาไปใช้ในด้านมืด โดยเฉพาะนำมาใช้เป็นภัยคุกคามด้านไซเบอร์ที่ทุกฝ่ายต้องเฝ้าระวัง!!
Cyber Daily