โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ไอที

ชีวิตติด TECH – เมื่อ AI มีด้านมืด…รู้จัก “Dark AI” ความฉลาดที่ร้ายกาจกว่าไวรัสทั่วไป

เดลินิวส์

อัพเดต 23 สิงหาคม 2568 เวลา 15.57 น. • เผยแพร่ 4 ชั่วโมงที่ผ่านมา • เดลินิวส์
ทุกวันนี้เรื่องเทคโนโลยีปัญญาประดิษฐ์ หรือ AI ได้รับความนิยมนำมาใช้งานอย่างแพร่หลาย แต่ก็เป็นเทคโนโลยีที่เป็นดาบสองคม เพราะหากใช้ไปในทางไม่ดี หรือ ไม่มี จริยธรรม ก็จะกลายเป็น…..

ทุกวันนี้เรื่องเทคโนโลยีปัญญาประดิษฐ์ หรือ AI ได้รับความนิยมนำมาใช้งานอย่างแพร่หลาย แต่ก็เป็นเทคโนโลยีที่เป็นดาบสองคม เพราะหากใช้ไปในทางไม่ดี หรือ ไม่มี จริยธรรม ก็จะกลายเป็นเทคโนโลยีที่ให้โทษได้ ช่วงที่ผ่านมามาจึงมีการถกกันถึงเรื่องกฎหมาย AI กันในหลายๆประเทศ

โดยเฉพาะ “Dark AI” ที่เป็นความท้าทาย ซึ่งอาจจำมาสู่ความมั่นคงปลอดภัยทางไซเบอร์ยุคใหม่ เพราะมันสามารถถูกใช้ ในการเขียนโค้ดที่เป็นอันตราย ,สร้างมัลแวร์ที่ตรวจจับไม่ได้ , สร้างเพจฟิชชิ่ง ,สร้างเครื่องมือแฮ็ค ,ค้นหาจุดรั่วไหลและช่องโหว่ รวมถึงใช้เขียนหน้า/จดหมายหลอกลวง ฯลฯ

วันนี้คอลัมน์ “ชีวิตติด TECH จะพามารู้จัก AI ด้านมืด และการเตรียมพร้อมรับมือกับสิ่งที่อสตตะเกิดขึ้นได้ โดย “Dark AI” หากจะอธิบายง่ายๆ ก็หมายถึง การใช้งานโมเดลภาษาขนาดใหญ่ (Large Language Models - LLM) แบบไม่จำกัดจำนวนภายในหรือจากระยะไกล ภายในเฟรมเวิร์กหรือระบบแชทบอทเต็มรูปแบบ

ซึ่งถูกนำไปใช้เพื่อวัตถุประสงค์ที่เป็นอันตราย ผิดจริยธรรม หรือไม่ได้รับอนุญาต ระบบเหล่านี้ทำงานนอกเหนือการควบคุมด้านความปลอดภัย การปฏิบัติตามข้อกำหนด หรือการกำกับดูแลมาตรฐาน ซึ่งมักทำให้เกิดความสามารถต่างๆ เช่น การหลอกลวง การบิดเบือน การโจมตีทางไซเบอร์ หรือการละเมิดข้อมูลโดยปราศจากการกำกับดูแล เป็นต้น

“เซอร์เกย์ ลอซคิน” หัวหน้าทีมวิจัยและวิเคราะห์ระดับโลก (GReAT) ภูมิภาคตะวันออกกลาง ตุรกี แอฟริกา และเอเชียแปซิฟิก แคสเปอร์สกี้ ซึ่งเป็นบริษัทผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ระดับโลก บอกว่า นับตั้งแต่ ChatGPT ได้รับความนิยมทั่วโลกในปี 2023หรือปี 2566 เราได้เห็นการนำ AI มาใช้อย่างมีประโยชน์หลายประการ ตั้งแต่งานทั่วไปอย่างการสร้างวิดีโอ ไปจนถึงการตรวจจับและวิเคราะห์ภัยคุกคามทางเทคนิค ในขณะเดียวกัน ผู้ไม่หวังดีก็กำลังใช้ AI เพื่อเสริมศักยภาพในการโจมตี โลกกำลังก้าวเข้าสู่ยุคแห่งความมั่นคงปลอดภัยไซเบอร์ และในสังคมของเราที่ AI เป็นโล่และ Dark AI คือดาบ

สำหรับการนำ Dark AI ในการใช้งานจริง ที่เป็นอันตรายและเป็นที่รู้จักมากที่สุดในปัจจุบันคือ Black Hat GPTs ซึ่งปรากฏขึ้นในช่วงกลางปี 2023 โมเดล AI เหล่านี้ถูกสร้างขึ้น ดัดแปลง หรือใช้งาน โดยมีเจตนาเพื่อดำเนินกิจกรรมที่ผิดจริยธรรม ผิดกฎหมาย หรือเป็นอันตราย เช่น การสร้างโค้ดที่เป็นอันตราย การสร้างอีเมลฟิชชิงที่ลื่นไหลและโน้มน้าวจิตใจเหยื่อในการโจมตีทั้งแบบกลุ่มและแบบเจาะจงเป้าหมาย การสร้าง deep fake ด้วยเสียงและวิดีโอ และแม้แต่การสนับสนุนการปฏิบัติงานของ Red Team

“Black Hat GPT สามารถเป็นโมเดล AI แบบส่วนตัวหรือแบบกึ่งส่วนตัวก็ได้ ตัวอย่างที่เป็นที่รู้จัก ได้แก่ WormGPT, DarkBard, FraudGPT และ Xanthorox ซึ่งออกแบบหรือดัดแปลงเพื่อรองรับอาชญากรรมไซเบอร์ การฉ้อโกง และระบบอัตโนมัติที่เป็นอันตรายต่างๆ นอกเหนือจากการใช้งาน AI ในทางที่ผิดโดยทั่วไปแล้ว ผู้เชี่ยวชาญของแคสเปอร์สกี้ได้สังเกตเห็นแนวโน้มที่แย่กว่านั้น คือ ผู้ก่อภัยคุกคามไซเบอร์ระดับประเทศใช้ประโยชน์จาก LLM ในแคมเปญของตน”

ในช่วงที่ผ่านมา OpenAI บริษัทระดับโลก ผู้พัฒนา ChatGPT เปิดเผยว่า ได้ขัดขวางปฏิบัติการทางไซเบอร์และปฏิบัติการลับอื่นๆ ที่พยายามใช้เครื่องมือ AI ในทางที่ผิด จำนวนมาก และคาดว่าผู้ก่อภัยคุกคามจะคิดค้นวิธีการที่ชาญฉลาดมากขึ้นในการนำ generative AI ที่ทำงานอยู่ในระบบนิเวศภัยคุกคามทั้งภาครัฐและเอกชนมาใช้เป็นอาวุธ ทุกฝ่ายจึงควรเตรียมตัวให้พร้อม

ทั้งนี้รายงานของ Open AI เปิดเผยว่า ผู้ก่อภัยคุกคามได้ใช้ LLM เพื่อสร้างตัวตนปลอมที่น่าเชื่อถือ ตอบสนองต่อเป้าหมายแบบเรียลไทม์ และสร้างเนื้อหาหลายภาษาที่ออกแบบมาเพื่อหลอกลวงเหยื่อและหลีกเลี่ยงตัวกรองความปลอดภัยแบบเดิม

เซอร์เกย์ ลอซคิน ได้อธิบายว่า AI ไม่ได้แยกแยะผิดถูกได้เองโดยธรรมชาติ แต่มันเป็นเครื่องมือที่ทำตามคำสั่ง แม้ว่าจะมีมาตรการป้องกันไว้แล้วก็ตาม เราก็รู้ว่า ภัยคุกคามขั้นสูงและต่อเนื่อง (APT) มักเป็นผู้โจมตีที่ดำเนินการอย่างต่อเนื่อง

“เมื่อเครื่องมือ Dark AI เข้าถึงได้ง่ายขึ้นและมีความสามารถมากขึ้น องค์กรและบุคคลทั่วไปในภูมิภาคเอเชียแปซิฟิกจึงจำเป็นต้องเสริมสร้างด้านความปลอดภัยทางไซเบอร์ ลงทุนในการตรวจจับภัยคุกคามที่ขับเคลื่อนด้วย AI เอง และหมั่นศึกษาหาความรู้เกี่ยวกับวิธีการใช้ประโยชน์จากเทคโนโลยี AI เหล่านี้” เซอร์เกย์ ลอซคิน ระบุ

อย่างไรก็ตามแคสเปอร์สกี้ ได้แนะนำขั้นตอน เพื่อช่วยให้องค์กรต่างๆ สามารถป้องกันตนเองจาก Dark AI และภัยคุกคามทางไซเบอร์ที่ขับเคลื่อนด้วย AI ได้ ดังนี้

-ใช้โซลูชันความปลอดภัยรุ่นใหม่ เพื่อตรวจจับมัลแวร์และภัยคุกคามที่ขับเคลื่อนด้วย AI ในซัพพลายเชน

-ใช้เครื่องมือวิเคราะห์ภัยคุกคามแบบเรียลไทม์ (threat intelligence) เพื่อตรวจสอบช่องโหว่ที่ขับเคลื่อนด้วย AI

-จำกัดการควบคุมการเข้าถึงและให้ความรู้แก่พนักงานเพื่อลดความเสี่ยงจาก Shadow AI และการรั่วไหลของข้อมูล

-จัดตั้งศูนย์ปฏิบัติการด้านความปลอดภัย (SOC) เพื่อการตรวจสอบภัยคุกคามแบบเรียลไทม์และการตอบสนองได้อย่างรวดเร็ว

เทคโนโลยี AI ใช้ถูก ก็เป็นประโยชน์มหาศาล แต่ก็มีกลุ่มคนไม่หวังดีฉวยโอกาสเอาไปใช้ในด้านมืด โดยเฉพาะนำมาใช้เป็นภัยคุกคามด้านไซเบอร์ที่ทุกฝ่ายต้องเฝ้าระวัง!!

Cyber Daily

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ล่าสุดจาก เดลินิวส์

มข.เปิดตัวนวัตกรรม ‘เครื่องพ่นอัตโนมัติพ่วงท้ายแทรกเตอร์’ ต่อยอดเกษตรอัจฉริยะ

32 นาทีที่แล้ว

‘รัชนก’ จวกการเคหะฯ ส่อป้องเอกชนงบซ่อม 303 ล้านไร้ความโปร่งใส

35 นาทีที่แล้ว

หนึ่งเดียวในโลก! เทศกาล ‘กินต่อหัวเสือ’ ฮือฮาประกวดเมนูแปลกเปิบพิสดาร

36 นาทีที่แล้ว

“โฆษกคมนาคม”แจงทางหลวงเร่งสอบสาเหตุสะพานลอยพังถล่มทั้งที่สร้างใกล้เสร็จพร้อมเคลียร์ถนนเปิดสัญจรตามปกติวันนี้

38 นาทีที่แล้ว

วิดีโอแนะนำ

ข่าวและบทความไอทีอื่น ๆ

ข่าวและบทความยอดนิยม

Loading...
Loading...
Loading...
รีโพสต์ (0)
Loading...
Loading...
Loading...
Loading...