Kaspersky มองภัยคุกคามเมื่อโลกกับ AI ผสานกัน AI deepfakes จะแนบเนียนขึ้น

Share

Loading

Kaspersky (แคสเปอร์สกี้) เปิดมุมมอง ภาพรวมภัยคุกคามเป็นลางบอกเหตุสำหรับอนาคตที่ผสานกับ AI เป็นอย่างไร โดยเชื่อว่า ต่อไป AI จะมีโจมตีฟิชชิงหลอกหลวงมากขึ้น, AI deepfakes จะแนบเนียนขึ้น

วิทาลี คัมลุค ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ ทีมวิจัยและวิเคราะห์ระดับโลก (GReAT) แคสเปอร์สกี้ ได้เปิดมุมมอง เรื่องภาพรวมของภัยคุกคามจาก AI ในอนาคตไว้อย่างน่าสนใจ ในระหว่างการประชุมสัมมนา Cybersecurity Weekend สำหรับประเทศในเอเชียแปซิฟิกประจำปี 2024 ระหว่างวันที่ 4-7 สิงหาคม 2024 ที่ประเทศศรีลังกา  โดย ต่อไป AI จะมีโจมตีแบบสเปียร์ฟิชชิง Spear phishing ที่ดูน่าเชื่อถือมากขึ้น  ส่วน  AI deepfakes สามารถใช้เลียนแบบบุคคลสำคัญได้แนบเนียนมากขึ้น

โดย วิทาลี คัมลุค ได้วิเคราะห์ภาพรวมภัยคุกคามเป็นลางบอกเหตุสำหรับอนาคตที่ผสานกับ AI เป็นอย่างไร?

AI กำลังผสานเข้ากับสังคมมากขึ้นเรื่อยๆ โดยมีการใช้ AI หลายด้านเพื่อเพิ่มประสิทธิภาพโครงสร้างพื้นฐานในเมืองอัจฉริยะ ยกระดับการดูแลสุขภาพ การศึกษา การเกษตร และอื่นๆ เทคโนโลยี AI ก็มีข้อผิดพลาดเช่นเดียวกับเทคโนโลยีอื่นๆ เพราะเป็นโมเดลการเรียนรู้และการฝึกสร้างข้อมูล และอาจตกเป็นเป้าหมายการโจมตีของซัพพลายเชนโดยการใส่อินพุตที่เป็นอันตราย

“แนวทางการโจมตีซัพพลายเชนที่เป็นไปได้บน AI คือการจัดการข้อมูลการฝึกอบรมและนำช่องโหว่มาสู่โมเดล AI หรือแก้ไขโมเดล AI ด้วยเวอร์ชันที่ถูกปรับเปลี่ยนเพื่อสร้างผลลัพธ์ที่ไม่ถูกต้อง พฤติกรรมดังกล่าวอาจตรวจจับได้ยาก ส่งผลให้ไม่มีใครสังเกตกิจกรรมอันตรายเป็นระยะเวลานาน”

สำหรับภัยคุกคาม APT ที่ดำเนินการระยะยาว การโจมตีซัพพลายเชนสามารถรอเป้าหมายที่เหมาะสมอย่างเงียบๆ ขณะเดียวกันก็อาจปกปิดเพย์โหลดของมัลแวร์ ซ่อนตัวเป็นไฟล์ที่ถูกต้อง และวางเครื่องมือเพิ่มเติมภายในโครงสร้างพื้นฐานของบริษัทที่น่าเชื่อถือ เพื่ออำนวยความสะดวกในการเข้าถึงระดับที่สูงขึ้นหรือเข้าถึงระบบเต็มรูปแบบได้ ที่แย่กว่านั้นคือความเป็นไปได้ในระยะยาวที่บั๊กหรือข้อบกพร่องจะถูกนำมาใช้ในการโจมตีซัพพลายเชนที่เน้นไปที่ AI ซึ่งจะทำให้ความสามารถและคุณภาพลดลงเมื่อเวลาผ่านไป เทียบได้กับระเบิดเวลาที่จะส่งผลกระทบต่อระบบสำคัญที่มีความสำคัญอย่างยิ่งหรือมีขอบเขตเป็นวงกว้าง

AI แบบจำลองภาษาขนาดใหญ่ (LLM) ที่พร้อมใช้งาน เช่น ChatGPT, CoPilot และ Gemini สามารถถูกใช้ในการสร้างการโจมตีแบบสเปียร์ฟิชชิง Spear phishing ที่ดูน่าเชื่อถือ

โดยการฟิชชิงเป็นหนึ่งในการหลอกลวงทางโลกออนไลน์ที่พบได้บ่อยที่สุด ฟิชชิงมีหลายรูปแบบ การหลอกลวงประเภทนี้มักจะเกี่ยวข้องกับการใช้กลอุบายหลอกล่อผู้ใช้งาน และการแอบอ้างเป็นเว็บไซต์ที่น่าเชื่อถือ เช่น เว็บไซต์ธนาคาร หรือบัญชีโซเชียลมีเดีย

ในขณะที่ AI deepfakes สามารถใช้เลียนแบบบุคคลสำคัญได้ ซึ่งส่งผลเสียอย่างเช่นกรณีที่ผู้ก่อภัยคุกคามเลียนแบบภาพของประธานเจ้าหน้าที่ฝ่ายการเงินของบริษัทหนึ่งในฮ่องกงเพื่อเบิกจ่ายเงิน ทำให้สูญเสียเงินถึง 25 ล้านดอลลาร์สหรัฐ

ผู้เชี่ยวชาญที่ศูนย์วิจัยเทคโนโลยี AI ของแคสเปอร์สกี้เป็นผู้นำด้านการนำ AI มาประยุกต์ใช้กับความปลอดภัยไซเบอร์และพัฒนา Ethical AI ยาวนานเกือบสองทศวรรษ ความเชี่ยวชาญนี้ถูกรวมเข้ากับผลิตภัณฑ์ต่างๆ ของแคสเปอร์สกี้ ปรับปรุงทุกสิ่งตั้งแต่การตรวจจับภัยคุกคามที่เสริมด้วย AI และการจัดลำดับความสำคัญของการแจ้งเตือน ไปจนถึงคลังข้อมูลภัยคุกคามที่ขับเคลื่อนโดย Generative AI

“เพื่อจัดการกับภูมิทัศน์ภัยคุกคามที่อาจเกิดขึ้นจากการโจมตีซัพพลายเชน องค์กรต่างๆ จึงมีกลยุทธ์อื่นๆ ที่นอกเหนือจากแนวปฏิบัติด้านความปลอดภัยทางไซเบอร์ที่ดีที่สุด นอกจากนี้องค์กรยังจำเป็นต้องดำเนินกลยุทธ์การจัดการและบรรเทาผลกระทบที่อาจเกิดขึ้นจากการโจมตีซัพพลายเชนในโครงสร้างพื้นฐานขององค์กร”

กลยุทธ์ต่างๆ ได้แก่ การทดสอบอย่างเข้มงวดก่อนเริ่มใช้งานจริง ความสมบูรณ์ของเครื่องมือต่างๆ  การควบคุมการผลิตที่เข้มงวด หมายเลขเวอร์ชันของโมเดล และการตรวจสอบความถูกต้องของโมเดล เพื่อติดตามการเปลี่ยนแปลง การตรวจสอบความผิดปกติอย่างต่อเนื่อง ลายเซ็นดิจิทัลสำหรับบิวด์ และการตรวจสอบความปลอดภัยเป็นประจำ

แหล่งข้อมูล

https://www.springnews.co.th/digital-tech/technology/852183