อนาคตมืดมิด!? ผู้เชี่ยวชาญแคสเปอร์สกี้เผย APT รุ่นใหญ่ระดับประเทศใช้ Dark AI - Today Updatenews

Breaking

Home Top Ad

Post Top Ad

วันจันทร์ที่ 18 สิงหาคม พ.ศ. 2568

อนาคตมืดมิด!? ผู้เชี่ยวชาญแคสเปอร์สกี้เผย APT รุ่นใหญ่ระดับประเทศใช้ Dark AI



 อนาคตมืดมิด!? ผู้เชี่ยวชาญแคสเปอร์สกี้เผย APT รุ่นใหญ่ระดับประเทศใช้ Dark AI

ผลการวิจัยสำคัญของแคสเปอร์สกี้แนะให้เตรียมรับมือกับการโจมตีที่ซุกซ่อนตัวและซับซ้อนมากขึ้นซึ่งขับเคลื่อนโดยการเพิ่มขึ้นของ Dark AI ในภูมิภาคเอเชียแปซิฟิก


เซอร์เกย์ ลอซคิน หัวหน้าทีมวิจัยและวิเคราะห์ระดับโลก (GReAT) ภูมิภาคตะวันออกกลาง ตุรกี แอฟริกา และเอเชียแปซิฟิก แคสเปอร์สกี้ กล่าวว่า “นับตั้งแต่ ChatGPT ได้รับความนิยมทั่วโลกในปี 2023 เราได้เห็นการนำ AI มาใช้อย่างมีประโยชน์หลายประการ ตั้งแต่งานทั่วไปอย่างการสร้างวิดีโอ ไปจนถึงการตรวจจับและวิเคราะห์ภัยคุกคามทางเทคนิค ในขณะเดียวกัน ผู้ไม่หวังดีก็กำลังใช้ AI เพื่อเสริมศักยภาพในการโจมตี เรากำลังก้าวเข้าสู่ยุคแห่งความมั่นคงปลอดภัยไซเบอร์ และในสังคมของเราที่ AI เป็นโล่และ Dark AI คือดาบ”

Dark AI หมายถึงการใช้งานโมเดลภาษาขนาดใหญ่ (Large Language Models - LLM) แบบไม่จำกัดจำนวนภายในหรือจากระยะไกล ภายในเฟรมเวิร์กหรือระบบแชทบอทเต็มรูปแบบ ซึ่งถูกนำไปใช้เพื่อวัตถุประสงค์ที่เป็นอันตราย ผิดจริยธรรม หรือไม่ได้รับอนุญาต ระบบเหล่านี้ทำงานนอกเหนือการควบคุมด้านความปลอดภัย การปฏิบัติตามข้อกำหนด หรือการกำกับดูแลมาตรฐาน ซึ่งมักทำให้เกิดความสามารถต่างๆ เช่น การหลอกลวง การบิดเบือน การโจมตีทางไซเบอร์ หรือการละเมิดข้อมูลโดยปราศจากการกำกับดูแล

Dark AI ในการใช้งานจริง

การใช้งาน AI ที่เป็นอันตรายและเป็นที่รู้จักมากที่สุดในปัจจุบันคือ Black Hat GPTs ซึ่งปรากฏขึ้นในช่วงกลางปี 2023 โมเดล AI เหล่านี้ถูกสร้างขึ้น ดัดแปลง หรือใช้งานโดยเจตนาเพื่อดำเนินกิจกรรมที่ผิดจริยธรรม ผิดกฎหมาย หรือเป็นอันตราย เช่น การสร้างโค้ดที่เป็นอันตราย การสร้างอีเมลฟิชชิงที่ลื่นไหลและโน้มน้าวจิตใจเหยื่อในการโจมตีทั้งแบบกลุ่มและแบบเจาะจงเป้าหมาย การสร้าง deep fake ด้วยเสียงและวิดีโอ และแม้แต่การสนับสนุนการปฏิบัติงานของ Red Team

Black Hat GPT สามารถเป็นโมเดล AI แบบส่วนตัวหรือแบบกึ่งส่วนตัวก็ได้ ตัวอย่างที่เป็นที่รู้จัก ได้แก่ WormGPT, DarkBard, FraudGPT และ Xanthorox ซึ่งออกแบบหรือดัดแปลงเพื่อรองรับอาชญากรรมไซเบอร์ การฉ้อโกง และระบบอัตโนมัติที่เป็นอันตรายต่างๆ

นอกเหนือจากการใช้งาน AI ในทางที่ผิดโดยทั่วไปแล้ว ผู้เชี่ยวชาญของแคสเปอร์สกี้ได้สังเกตเห็นแนวโน้มที่แย่กว่านั้น นั่นคือผู้ก่อภัยคุกคามไซเบอร์ระดับประเทศใช้ประโยชน์จาก LLM ในแคมเปญของตน

เซอร์เกย์ ลอซคิน กล่าวเสริมว่า “OpenAI เพิ่งเปิดเผยว่าได้ขัดขวางปฏิบัติการทางไซเบอร์และปฏิบัติการลับอื่นๆ ที่พยายามใช้เครื่องมือ AI ในทางที่ผิด จำนวนมากกว่า 20 ครั้ง เราคาดว่าผู้ก่อภัยคุกคามจะคิดค้นวิธีการที่ชาญฉลาดมากขึ้นในการนำ generative AI ที่ทำงานอยู่ในระบบนิเวศภัยคุกคามทั้งภาครัฐและเอกชนมาใช้เป็นอาวุธ ทุกฝ่ายจึงควรเตรียมตัวให้พร้อม”

รายงานของ Open AI เปิดเผยว่าผู้ก่อภัยคุกคามได้ใช้ LLM เพื่อสร้างตัวตนปลอมที่น่าเชื่อถือ ตอบสนองต่อเป้าหมายแบบเรียลไทม์ และสร้างเนื้อหาหลายภาษาที่ออกแบบมาเพื่อหลอกลวงเหยื่อและหลีกเลี่ยงตัวกรองความปลอดภัยแบบเดิม

เซอร์เกย์ ลอซคิน กล่าวว่า “AI ไม่ได้แยกแยะผิดถูกได้เองโดยธรรมชาติ แต่มันเป็นเครื่องมือที่ทำตามคำสั่ง แม้ว่าจะมีมาตรการป้องกันไว้แล้วก็ตาม เราก็รู้ว่า APT มักเป็นผู้โจมตีที่ดำเนินการอย่างต่อเนื่อง เมื่อเครื่องมือ Dark AI เข้าถึงได้ง่ายขึ้นและมีความสามารถมากขึ้น องค์กรและบุคคลทั่วไปในภูมิภาคเอเชียแปซิฟิกจึงจำเป็นต้องเสริมสร้างสุขอนามัยด้านความปลอดภัยทางไซเบอร์ ลงทุนในการตรวจจับภัยคุกคามที่ขับเคลื่อนด้วย AI เอง และหมั่นศึกษาหาความรู้เกี่ยวกับวิธีการใช้ประโยชน์จากเทคโนโลยี AI เหล่านี้”


ผู้เชี่ยวชาญของแคสเปอร์สกี้แนะนำขั้นตอนดังต่อไปนี้ เพื่อช่วยให้องค์กรต่างๆ สามารถป้องกันตนเองจาก Dark AI และภัยคุกคามทางไซเบอร์ที่ขับเคลื่อนด้วย AI ได้

• ใช้โซลูชันความปลอดภัยรุ่นใหม่ เช่น Kaspersky Next เพื่อตรวจจับมัลแวร์และภัยคุกคามที่ขับเคลื่อนด้วย AI ในซัพพลายเชน

• ใช้เครื่องมือวิเคราะห์ภัยคุกคามแบบเรียลไทม์ (threat intelligence) เพื่อตรวจสอบช่องโหว่ที่ขับเคลื่อนด้วย AI

• จำกัดการควบคุมการเข้าถึงและให้ความรู้แก่พนักงานเพื่อลดความเสี่ยงจาก Shadow AI และการรั่วไหลของข้อมูล

• จัดตั้งศูนย์ปฏิบัติการด้านความปลอดภัย (SOC) เพื่อการตรวจสอบภัยคุกคามแบบเรียลไทม์และการตอบสนองได้อย่างรวดเร็ว

หากต้องการรับข้อมูลอัปเดตเกี่ยวกับภัยคุกคามล่าสุดจากการใช้ Dark AI โปรดไปที่ https://www.kaspersky.com/


ไม่มีความคิดเห็น:

แสดงความคิดเห็น

Post Bottom Ad