ในปี 2565 ที่ผ่านมาพบว่า 66% ของผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ประสบกับการโจมตีแบบ Deepfake ภายในองค์กรของตน ขณะที่นักวิจัยคาดการณ์ว่าภายในปี 2569 เนื้อหาออนไลน์มากถึง 90% อาจถูกสร้างขึ้นโดยการสังเคราะห์หรือปรุงแต่งใหม่โดยปราศจากความจริงอย่างยิ่งยวด
ด้วยการพัฒนาเทคโนโลยีการตรวจจับแบบใหม่ การศึกษาอย่างเข้มข้น และข้อพิจารณาด้านจริยธรรม ทำให้เราสามารถทำงานร่วมกันเพื่อต่อสู้กับ Deepfake (วิดีโอหรือเสียงที่บันทึกแทนใบหน้าหรือเสียงของบุคคลอื่นในลักษณะที่ดูเหมือนจริงแต่ความจริงแล้วใช้ปัญญาประดิษฐ์และการเรียนรู้เชิงลึกในการสร้างหรือปรุงแต่งขึ้นมา) และรับประกันได้ว่าเทคโนโลยีการปลอมแปลงจะถูกนำมาใช้เพื่อสิ่งที่ดีกว่า
ในช่วงไม่กี่ปีที่ผ่านมา เราได้เห็นการปลอมแปลงที่ลึกล้ำมากขึ้น โดยระหว่างปี 2019-2020 จำนวนเนื้อหาออนไลน์ของ Deepfake เพิ่มขึ้น 900% การคาดการณ์บ่งชี้ว่าแนวโน้มที่น่าเป็นห่วงนี้จะดำเนินต่อไปในอีกหลายปีข้างหน้า เพราะบ่อยครั้งที่มีการใช้เทคโนโลยีนี้ในทางที่ผิดเพื่อหลอกลวงและดำเนินการโจมตีบุคคลอื่นเพื่อมุ่งหวังผลประโยชน์โดยไม่คำนึงถึงศีลธรรมอันดีงาม ซึ่งนั้นจะส่งผลให้การทำ Deepfake จะกัดกร่อนความไว้วางใจในเทคโนโลยีดิจิทัล และเป็นภัยคุกคามต่อธุรกิจมากขึ้นเรื่อยๆ
ตัวอย่างของอาชญากรรม Deepfake ที่พบเห็นได้บ่อยคือการสร้างข้อความเสียงปลอมของซีอีโอหรือผู้บริหารระดับสูงของบริษัทต่างๆ โดยใช้ซอฟต์แวร์เปลี่ยนเสียงเพื่อแอบอ้างเป็นบุคคลนั้น ข้อความเสียงที่ถูกปรับแต่งเหล่านี้มักมีคำขอเร่งด่วนให้ผู้รับโอนเงินหรือเปิดเผยข้อมูลที่ละเอียดอ่อน
การวิจัยแสดงให้เห็นว่าภาคการธนาคารมีความกังวลเป็นพิเศษต่อการโจมตีแบบ Deepfake โดย 92% ของผู้ปฏิบัติงานทางไซเบอร์กังวลเกี่ยวกับการใช้เทคโนโลยีนี้ในทางที่ผิดและฉ้อฉล บริการต่างๆ เช่น ธนาคารส่วนบุคคลและการชำระเงินเป็นเรื่องที่น่ากังวลเป็นพิเศษ ยกตัวอย่าง ในปี 2021 ผู้จัดการธนาคารรายหนึ่งถูกหลอกให้โอนเงิน 35 ล้านดอลลาร์สหรัฐฯ ไปยังบัญชีปลอม
Deepfake ยังส่งผลต่ออุตสาหกรรมอื่นๆ ด้วย โดยในปีที่ผ่านมา 26% ของบริษัทขนาดเล็กและ 38% ของบริษัทขนาดใหญ่ประสบปัญหาการฉ้อโกงแบบ Deepfake ส่งผลให้เกิดการสูญเสียสูงถึง 480,000 ดอลลาร์สหรัฐฯ เลยทีเดียว
ไม่เพียงเท่านี้ Deepfake ยังมีศักยภาพที่จะบ่อนทำลายผลการเลือกตั้ง เสถียรภาพทางสังคม และแม้กระทั่งความมั่นคงของชาติ โดยเฉพาะอย่างยิ่งในบริบทของการรณรงค์บิดเบือนข้อมูล ในบางกรณีมีการใช้ Deepfake เพื่อบิดเบือนความคิดเห็นของประชาชน หรือเผยแพร่ข่าวปลอมซึ่งนำไปสู่ความไม่ไว้วางใจและความสับสนในหมู่ประชาชน
ผลกระทบจากการพัฒนา AI ต่อความเสี่ยงของ Deepfake
การพัฒนาปัญญาประดิษฐ์ (AI) ได้เพิ่มความเสี่ยงของ Deepfake เป็นอย่างมาก อัลกอริทึม AI สามารถสร้างสื่อปลอมที่แยกแยะได้ยากจากภาพ วิดีโอ หรือการบันทึกเสียงจริง ยิ่งไปกว่านั้น อัลกอริทึมเหล่านี้สามารถหาซื้อได้ด้วยต้นทุนที่ต่ำและได้รับการฝึกฝนในชุดข้อมูลที่เข้าถึงได้ง่าย ทำให้อาชญากรไซเบอร์สร้าง Deepfake ที่น่าเชื่อถือเพื่อโจมตีแบบฟิชชิง (วิธีการโจมตีส่วนบุคคลโดยพยายามหลอกล่อให้เราเชื่อว่าแหล่งที่มานั้นเชื่อถือได้) และสร้างเนื้อหาหลอกลวงได้ง่ายขึ้น
อย่างไรก็ตาม เทคโนโลยีและเครื่องมือในการตรวจจับภัยคุกคามดังกล่าวก็พัฒนาตามไปด้วยเช่นกัน ปัจจุบัน เครื่องมือตรวจจับ Deepfake สามารถช่วยระบุได้ว่าว่าเนื้อหาวิดีโอหรือเสียงนั้นเป็นของจริงหรือไม่ จากคุณสมบัติไบโอเมตริกต่างๆ เช่น การเต้นของหัวใจหรือความถี่เสียงของมนุษย์
อย่างในกรณีของอินเทลที่พัฒนา FakeCatcher เครื่องตรวจจับ Deepfake แบบเรียลไทม์ ด้วยการวิเคราะห์การไหลเวียนของเลือดในพิกเซลวิดีโอจากนั้นส่งคืนผลลัพธ์ภายในไม่กี่มิลลิวินาทีเป็นครั้งแรกของโลก ด้วยความแม่นยำ 96%
เพราะเมื่อหัวใจสูบฉีดเลือด เส้นเลือดของเราจะเปลี่ยนสี จากนั้นรวบรวมสัญญาณการไหลเวียนของเลือดจากทั่วใบหน้าและอัลกอริทึมจะแปลสัญญาณเหล่านี้เป็นแผนที่เชิงพื้นที่ และเมื่อใช้การเรียนรู้เชิงลึก เราจะสามารถตรวจจับได้ทันทีว่าวิดีโอนั้นจริงหรือปลอม
ด้วยเครื่องมือตรวจจับนี้ช่วยให้สื่อต่างๆ ใช้ตรวจสอบให้มั่นใจ ก่อนที่จะนำคลิปวิดีโอใดๆ ไปเผยแพร่ เพื่อไม่ให้ตกเป็นเครื่องมือของอาชญากรไซเบอร์ และเพื่อรักษาความน่าเชื่อถือในการนำเสนอข่าวสารต่างๆ
ความเสี่ยงที่เพิ่มขึ้นจากการหลอกลวงแบบ Deepfake และการโจรกรรมข้อมูลประจำตัว
Deepfake สามารถเพิ่มความเสี่ยงของอาชญากรรมไซเบอร์อื่นๆ เช่น การโจรกรรมข้อมูลประจำตัว ตัวอย่างเช่น Deepfake สามารถใช้สร้างเอกสารระบุตัวตนปลอม ทำให้อาชญากรไซเบอร์ปลอมตัวเป็นบุคคลหรือเข้าถึงระบบรักษาความปลอดภัยได้ง่ายขึ้น ยิ่งไปกว่านั้น Deepfake ยังสามารถสร้างการบันทึกเสียงหรือวิดีโอปลอมของบุคคล ซึ่งจะถูกใช้เพื่อแบล็กเมล์หรือขู่กรรโชกเรียกทรัพย์สินได้
ในทางกลับกัน การโจรกรรมข้อมูลประจำตัวสามารถเพิ่มความเสี่ยงที่เกิดจากการหลอกลวงแบบ Deepfake ได้ ตัวอย่างเช่น อาชญากรไซเบอร์สามารถใช้ตัวตนที่ถูกขโมยเพื่อสร้าง Deepfake ที่น่าเชื่อถือมากขึ้น หรือใช้ Deepfake เพื่อขโมยข้อมูลประจำตัวเพิ่มเติม
เพื่อลดความเสี่ยงเหล่านี้ เราต้องใช้หลายแนวทางเพื่อที่จะรับมือกับ Deepfake ได้อย่างมีประสิทธิภาพด ซึ่งรวมถึงการลงทุนในเทคโนโลยีการตรวจจับ Deepfake ที่ซับซ้อนมากขึ้น เช่นเดียวกับการปรับปรุงระบบการยืนยันตัวตน รวมถึงการใช้การยืนยันตัวตนด้วยไบโอเมตริกซ์ เพื่อป้องกันการใช้ Deepfake ในทางที่ผิด โดยเฉพาะในการโจรกรรมข้อมูลส่วนตัว
แล้วอะไรคือโซลูชั่นที่มีศักยภาพ
เพื่อจัดการกับภัยคุกคามที่เกิดขึ้นใหม่เหล่านี้ เราต้องพัฒนาและปรับปรุงเทคโนโลยีการตรวจจับ Deepfake อย่างต่อเนื่อง ซึ่งอาจเกี่ยวข้องกับการใช้อัลกอริทึมที่ซับซ้อนมากขึ้น เช่นเดียวกับการพัฒนาวิธีการใหม่ๆ ที่สามารถระบุ Deepfake ได้อย่างชัดเจนและแม่นยำจากบริบทต่างๆ เช่นในกรณีของอินเทลที่กล่าวมาข้างต้น
ทางออกที่เป็นไปได้อีกทางหนึ่งคือ การส่งเสริมการรู้เท่าทันสื่อและการคิดเชิงวิพากษ์ โดยการให้ความรู้แก่สาธารณชนเกี่ยวกับอันตรายของ Deepfake และวิธีสังเกต รวมถึงการปกป้องผลประโยชน์ของผู้มีส่วนได้ส่วนเสียทั้งหมดอย่างแข็งขัน
สุดท้าย รัฐบาลและหน่วยงานกำกับดูแลสามารถมีบทบาทสำคัญในการกำหนดนโยบายที่ควบคุมเทคโนโลยี Deepfake ส่งเสริมการพัฒนาและการใช้เทคโนโลยีที่โปร่งใส ตรวจสอบได้ และมีความรับผิดชอบ เพื่อสร้างความมั่นใจแก่สาธารณชนว่า AI จะไม่ก่อให้เกิดอันตราย
โดยสรุป เทคโนโลยี Deepfake กำลังเป็นภัยคุกคามที่เพิ่มมากขึ้น โดยเฉพาะอย่างยิ่งเมื่ออยู่ในมือของอาชญากรไซเบอร์ ด้วยพัฒนาการและความนิยมในการใช้ AI ที่เพิ่มขึ้น ทำให้เราต้องตระหนักถึงความเสี่ยงที่เกิดจาก Deepfake มากขึ้นเช่นกัน และด้วยการพัฒนาเทคโนโลยีการตรวจจับใหม่ ข้อบังคับทางกฎหมายและจริยธรรม จะช่วยลดความเสี่ยงเหล่านี้ลงได้ และรับประกันว่าเทคโนโลยี Deepfake จะถูกนำไปใช้ให้เกิดประโยชน์มากกว่าการทำลาย
สุดท้าย พึงทราบว่าการต่อสู้กับ Deepfake เป็นการต่อสู้ที่ต่อเนื่อง และต้องใช้ความพยายามร่วมกันของทั้งบุคคล บริษัทเทคโนโลยี ผู้กำหนดนโยบาย และสังคมโดยรวม
แหล่งข้อมูล