Digitel Tech & AI
อนาคตมืดมิด!?ผู้เชี่ยวชาญแคสเปอร์สกี้ เผยAPTรุ่นใหญ่ระดับชาติใช้Dark AI

กรุงเทพฯ-ผลการวิจัยสำคัญของแคสเปอร์สกี้แนะให้เตรียมรับมือกับการโจมตีที่ซุกซ่อนตัวและซับซ้อนมากขึ้นซึ่งขับเคลื่อนโดยการเพิ่มขึ้นของDark AI ในภูมิภาคเอเชียแปซิฟิก เซอร์เกย์ลอซคินหัวหน้าทีมวิจัยและวิเคราะห์ระดับโลก (GReAT) ภูมิภาคตะวันออกกลางตุรกีแอฟริกาและเอเชียแปซิฟิกแคสเปอร์สกี้กล่าวว่า “นับตั้งแต่ChatGPT ได้รับความนิยมทั่วโลกในปี2023เราได้เห็นการนำAI มาใช้อย่างมีประโยชน์หลายประการตั้งแต่งานทั่วไปอย่างการสร้างวิดีโอไปจนถึงการตรวจจับและวิเคราะห์ภัยคุกคามทางเทคนิคในขณะเดียวกันผู้ไม่หวังดีก็กำลังใช้AI เพื่อเสริมศักยภาพในการโจมตีเรากำลังก้าวเข้าสู่ยุคแห่งความมั่นคงปลอดภัยไซเบอร์และในสังคมของเราที่AI เป็นโล่และDark AI คือดาบ”
Dark AI หมายถึงการใช้งานโมเดลภาษาขนาดใหญ่ (Large Language Models- LLM) แบบไม่จำกัดจำนวนภายในหรือจากระยะไกลภายในเฟรมเวิร์กหรือระบบแชทบอทเต็มรูปแบบซึ่งถูกนำไปใช้เพื่อวัตถุประสงค์ที่เป็นอันตรายผิดจริยธรรมหรือไม่ได้รับอนุญาตระบบเหล่านี้ทำงานนอกเหนือการควบคุมด้านความปลอดภัยการปฏิบัติตามข้อกำหนดหรือการกำกับดูแลมาตรฐานซึ่งมักทำให้เกิดความสามารถต่างๆเช่นการหลอกลวงการบิดเบือนการโจมตีทางไซเบอร์หรือการละเมิดข้อมูลโดยปราศจากการกำกับดูแล
Dark AI ในการใช้งานจริง
การใช้งานAI ที่เป็นอันตรายและเป็นที่รู้จักมากที่สุดในปัจจุบันคือBlack Hat GPTsซึ่งปรากฏขึ้นในช่วงกลางปี2023โมเดลAI เหล่านี้ถูกสร้างขึ้นดัดแปลงหรือใช้งานโดยเจตนาเพื่อดำเนินกิจกรรมที่ผิดจริยธรรมผิดกฎหมายหรือเป็นอันตรายเช่นการสร้างโค้ดที่เป็นอันตรายการสร้างอีเมลฟิชชิงที่ลื่นไหลและโน้มน้าวจิตใจเหยื่อในการโจมตีทั้งแบบกลุ่มและแบบเจาะจงเป้าหมายการสร้างdeep fake ด้วยเสียงและวิดีโอและแม้แต่การสนับสนุนการปฏิบัติงานของRed Team
Black Hat GPT สามารถเป็นโมเดลAI แบบส่วนตัวหรือแบบกึ่งส่วนตัวก็ได้ตัวอย่างที่เป็นที่รู้จักได้แก่WormGPT, DarkBard, FraudGPTและXanthoroxซึ่งออกแบบหรือดัดแปลงเพื่อรองรับอาชญากรรมไซเบอร์การฉ้อโกงและระบบอัตโนมัติที่เป็นอันตรายต่างๆ
นอกเหนือจากการใช้งานAI ในทางที่ผิดโดยทั่วไปแล้วผู้เชี่ยวชาญของแคสเปอร์สกี้ได้สังเกตเห็นแนวโน้มที่แย่กว่านั้นนั่นคือผู้ก่อภัยคุกคามไซเบอร์ระดับประเทศใช้ประโยชน์จากLLM ในแคมเปญของตน
เซอร์เกย์ลอซคิน กล่าวเสริมว่า “OpenAIเพิ่งเปิดเผยว่าได้ขัดขวางปฏิบัติการทางไซเบอร์และปฏิบัติการลับอื่นๆ ที่พยายามใช้เครื่องมือAI ในทางที่ผิดจำนวนมากกว่า20ครั้งเราคาดว่าผู้ก่อภัยคุกคามจะคิดค้นวิธีการที่ชาญฉลาดมากขึ้นในการนำgenerative AI ที่ทำงานอยู่ในระบบนิเวศภัยคุกคามทั้งภาครัฐและเอกชนมาใช้เป็นอาวุธทุกฝ่ายจึงควรเตรียมตัวให้พร้อม”
รายงานของOpen AI เปิดเผยว่าผู้ก่อภัยคุกคามได้ใช้LLM เพื่อสร้างตัวตนปลอมที่น่าเชื่อถือตอบสนองต่อเป้าหมายแบบเรียลไทม์และสร้างเนื้อหาหลายภาษาที่ออกแบบมาเพื่อหลอกลวงเหยื่อและหลีกเลี่ยงตัวกรองความปลอดภัยแบบเดิม
เซอร์เกย์ ลอซคิน กล่าวว่า “AI ไม่ได้แยกแยะผิดถูกได้เองโดยธรรมชาติแต่มันเป็นเครื่องมือที่ทำตามคำสั่งแม้ว่าจะมีมาตรการป้องกันไว้แล้วก็ตามเราก็รู้ว่าAPT มักเป็นผู้โจมตีที่ดำเนินการอย่างต่อเนื่องเมื่อเครื่องมือDark AI เข้าถึงได้ง่ายขึ้นและมีความสามารถมากขึ้นองค์กรและบุคคลทั่วไปในภูมิภาคเอเชียแปซิฟิกจึงจำเป็นต้องเสริมสร้างสุขอนามัยด้านความปลอดภัยทางไซเบอร์ลงทุนในการตรวจจับภัยคุกคามที่ขับเคลื่อนด้วยAI เองและหมั่นศึกษาหาความรู้เกี่ยวกับวิธีการใช้ประโยชน์จากเทคโนโลยีAI เหล่านี้”
ผู้เชี่ยวชาญของแคสเปอร์สกี้แนะนำขั้นตอนดังต่อไปนี้เพื่อช่วยให้องค์กรต่างๆสามารถป้องกันตนเองจากDark AI และภัยคุกคามทางไซเบอร์ที่ขับเคลื่อนด้วยAI ได้
- ใช้โซลูชันความปลอดภัยรุ่นใหม่เช่นKaspersky Nextเพื่อตรวจจับมัลแวร์และภัยคุกคามที่ขับเคลื่อนด้วยAI ในซัพพลายเชน
- ใช้เครื่องมือวิเคราะห์ภัยคุกคามแบบเรียลไทม์ (threat intelligence) เพื่อตรวจสอบช่องโหว่ที่ขับเคลื่อนด้วยAI
- จำกัดการควบคุมการเข้าถึงและให้ความรู้แก่พนักงานเพื่อลดความเสี่ยงจากShadow AI และการรั่วไหลของข้อมูล
- จัดตั้งศูนย์ปฏิบัติการด้านความปลอดภัย (SOC) เพื่อการตรวจสอบภัยคุกคามแบบเรียลไทม์และการตอบสนองได้อย่างรวดเร็ว