ผู้เชี่ยวชาญของแคสเปอร์สกี้ (Kaspersky) เปิดเผยการวิเคราะห์ผลที่ตามมาของ AI (Artificial Intelligence) ที่เป็นไปได้ โดยเฉพาะอย่างยิ่งอันตรายทางจิตวิทยาที่อาจเกิดขึ้นได้จากเทคโนโลยี AI นี้
นายวิทาลี คัมลัก หัวหน้าศูนย์วิจัยประจำเอเชียแปซิฟิก ทีมวิจัยและวิเคราะห์ระดับโลกของแคสเปอร์สกี้ (Global Research and Analysis Team - GReAT) เปิดเผยว่า เนื่องจากอาชญากรไซเบอร์ใช้ AI เพื่อกระทำการที่เป็นอันตราย โดยสามารถโยนความผิดให้กับเทคโนโลยี และรู้สึกไม่ต้องรับผิดชอบต่อผลกระทบของการโจมตีทางไซเบอร์ของตน ซึ่งสิ่งนี้นำไปสู่ “การไม่รู้สึกผิดชอบชั่วดีจากการเว้นระยะห่างจากเหยื่อ” (suffering distancing syndrome)
“นอกเหนือจากภัยคุกคามทางเทคนิคของ AI แล้ว ยังมีอันตรายทางจิตวิทยาที่อาจเกิดขึ้นได้
อาชญากรไซเบอร์มักมีอาการที่ต้องทนทุกข์ทรมานจากการเว้นระยะห่างจากเพื่อนร่วมงาน
การทำร้ายคนบนท้องถนนทำให้อาชญากรเกิดความเครียดอย่างมากเพราะตนได้จะเห็นความทุกข์ทรมานของเหยื่อ แต่อาการนี้ใช้ไม่ได้กับอาชญากรรมออนไลน์ต่อเหยื่อที่ตนไม่เคยเห็นมาก่อน
การสร้าง AI ที่สามารถทำเงินหรือผลกำไรที่ผิดกฎหมายทำให้อาชญากรออกห่างจากความรู้สึกผิดออกไปอีก
เพราะคิดว่าไม่ใช่ฝีมือของตน แต่เป็น AI ที่ต้องรับผิด” นายวิทาลีอธิบาย
ผลกระทบทางจิตวิทยาอีกประการหนึ่งของ AI ที่อาจส่งผลกระทบต่อทีมรักษาความปลอดภัยด้านไอทีก็คือเรื่อง “ความรับผิดชอบต่องานที่ได้รับมอบหมาย” (responsibility delegation) เนื่องจากกระบวนการและเครื่องมือด้านความปลอดภัยทางไซเบอร์ทำงานอัตโนมัติ และจ่ายงานให้กับโครงข่าย AI มากขึ้น มนุษย์จึงอาจรู้สึกรับผิดชอบน้อยลงหากเกิดการโจมตีทางไซเบอร์ โดยเฉพาะอย่างยิ่งในการตั้งค่าความปลอดภัยต่างๆ ของบริษัท
“ผลกระทบที่คล้ายกันนี้อาจกับผู้ดูแลรักษาความปลอดภัย
โดยเฉพาะอย่างยิ่งในภาคธุรกิจที่เต็มไปด้วยความรับผิดชอบด้านความปลอดภัย และการปฏิบัติตามกฎระเบียบที่เป็นทางการ
ระบบการป้องกันที่ชาญฉลาดอาจกลายเป็นแพะรับบาป นอกจากนี้
การมีระบบขับเคลื่อนอัตโนมัติที่เป็นอิสระอย่างสมบูรณ์จะช่วยลดความสนใจของมนุษย์ที่ทำหน้าที่ดูแล”
นายวิทาลีกล่าวเสริม
นายวิทาลีได้แบ่งปันแนวทางปฏิบัติบางประการเพื่อการใช้คุณประโยชน์ของ
AI อย่างปลอดภัย
1. การเข้าถึง -
เราต้องจำกัดการเข้าถึงโดยไม่เปิดเผยตัวตนสำหรับระบบอัจฉริยะที่แท้จริงที่สร้างขึ้นและฝึกอบรมเกี่ยวกับปริมาณข้อมูลขนาดใหญ่
ควรเก็บประวัติของเนื้อหาที่สร้างขึ้น และระบุวิธีการสร้างเนื้อหาสังเคราะห์
เช่นเดียวกับ WWW ควรมีขั้นตอนในการจัดการกับการละเมิดและการใช้ AI ในทางที่ผิด รวมถึงข้อมูลที่ชัดเจนเพื่อรายงานการละเมิด
ซึ่งสามารถตรวจสอบได้ด้วยข้อมูลสนับสนุน AI บรรทัดแรก
และหากจำเป็นในบางกรณี ก็จะต้องให้มนุษย์เป็นผู้ตรวจสอบ
2. กฎระเบียบ – สหภาพยุโรปได้เริ่มหารือเกี่ยวกับการทำเครื่องหมายเนื้อหาที่สร้างขึ้นด้วยความช่วยเหลือของ
AI ด้วยวิธีนี้ อย่างน้อยผู้ใช้จะมีวิธีที่รวดเร็วและเชื่อถือได้ในการตรวจจับภาพ
เสียง วิดีโอ หรือข้อความที่สร้างโดย AI แต่ผู้กระทำความผิดนั้นมีส่วนน้อยและจะต้องคอยหลบหลีกและและซ่อนตัวอยู่เสมอ
สำหรับนักพัฒนา AI อาจสมเหตุสมผลที่จะมีไลเซนซ์อนุญาตใช้งาน
AI ดังกล่าว
เนื่องจากระบบอาจเป็นอันตรายได้ เป็นเทคโนโลยีที่ใช้ได้สองทาง
เช่นเดียวกับอุปกรณ์ทางการทหารหรืออุปกรณ์ที่ใช้ได้ทั้งทางดีและทางร้ายอื่นๆ การพัฒนาจะต้องได้รับการควบคุม
รวมถึงข้อจำกัดในการนำไฟล์ออกตามที่จำเป็น
3. การศึกษา – ประสิทธิผลสูงสุดสำหรับทุกคน คือการสร้างความตระหนักเกี่ยวกับวิธีการตรวจจับเนื้อหาปลอม
วิธีตรวจสอบความถูกต้อง และวิธีการรายงานการละเมิดที่อาจเกิดขึ้น
โรงเรียนควรสอนแนวคิดว่า AI แตกต่างจากความฉลาดตามธรรมชาติอย่างไร
และ AI จะเชื่อถือได้หรือสร้างความเสียหายได้เพียงใด
นอกจากนี้ ผู้เขียนโค้ดซอฟต์แวร์ต้องได้รับการสอนให้ใช้เทคโนโลยีอย่างมีความรับผิดชอบ
และทราบถึงบทลงโทษสำหรับการละเมิดเทคโนโลยี
“บางคนคาดการณ์ว่า AI จะเป็นศูนย์กลางแห่งวันสิ้นโลก
ซึ่งจะทำลายอารยธรรมของมนุษย์ ผู้บริหารระดับ C หลายคนของบริษัทขนาดใหญ่ถึงกับแสดงตัวและเรียกร้องให้มีการชะลอ AI เพื่อป้องกันภัยพิบัตินี้ ในความเป็นจริงการเพิ่มขึ้นของ
Generative AI ทำให้เราได้เห็นความก้าวหน้าของเทคโนโลยีที่สามารถสังเคราะห์เนื้อหาที่คล้ายคลึงกับสิ่งที่มนุษย์ทำได้
ตั้งแต่รูปภาพไปจนถึงเสียง วิดีโอ ดีพเฟค และแม้แต่การสนทนาแบบข้อความที่แยกไม่ออกจากว่ามนุษย์หรือ
AI ทั้งนี้ความก้าวหน้าทางเทคโนโลยีส่วนใหญ่ก็เป็นดาบสองคมรวมถึง
AI ด้วย เราสามารถใช้งานเพื่อประโยชน์ของเราได้ตลอดเวลา ตราบใดที่เรารู้วิธีกำหนดคำสั่งที่ปลอดภัยสำหรับเครื่องจักรอัจฉริยะเหล่านี้”
นายวิทาลีกล่าวสรุป
แคสเปอร์สกี้จะสานต่อการอภิปรายเกี่ยวกับอนาคตของความปลอดภัยทางไซเบอร์ที่งาน
“Kaspersky Security Analyst Summit (SAS) 2023” ซึ่งจะจัดขึ้นที่จังหวัดภูเก็ต
ประเทศไทย ตั้งแต่วันที่ 25 ถึง 28 ตุลาคม 2566 สำหรับนักวิจัยที่มีความสามารถสูงด้านการป้องกันมัลแวร์
หน่วยงานบังคับใช้กฎหมายระดับโลก ทีมตอบสนองเหตุฉุกเฉินทางคอมพิวเตอร์
และผู้บริหารระดับสูงจากบริษัทบริการด้านการเงิน เทคโนโลยี การดูแลสุขภาพ
สถาบันการศึกษา และหน่วยงานภาครัฐจากทั่วโลก ผู้สนใจสามารถทราบข้อมูลเพิ่มเติมได้ที่เว็บไซต์
ไม่มีความคิดเห็น:
แสดงความคิดเห็น