Deepfake คลิปปลอมจาก AI อันตราย จน Microsoft ต้องออกมาเตือนภัย

Share

ประธานบริษัท Microsoft ออกมาเตือนภัยจากปัญญาประดิษฐ์ เมื่อเทคโนโลยี Deepfake คลิปปลอมจาก AI และการจำแลงเสียงจริงของ AI กลายเป็นสิ่งที่จับต้องได้ง่ายขึ้น

Brad Smith ประธานบริษัท Microsoft ระบุว่า สิ่งที่น่ากังวลที่สุดเกี่ยวกับปัญญาประดิษฐ์ในขณะนี้คือเทคโนโลยี Deepfake ที่สามารถสร้างข้อมูลเท็จให้เหมือนจริงได้

ในการพูดคุย ที่กรุงวอชิงตัน เพื่อหาแนวทางกำกับดูแลการใช้งาน ChatGPT ปัญญาประดิษฐ์ที่สร้างขึ้นโดย OpenAI และเริ่มถูกใช้อย่างแพร่หลายไปทั่วโลก Brad Smith ประธานบริษัท Microsoft ได้เรียกร้องให้มีการดำเนินงานเพื่อให้ผู้ใช้รู้ว่าภาพถ่ายหรือวิดีโอเป็นของจริงหรือเป็นสิ่งที่ AI สร้างขึ้น ซึ่งอาจมีจุดประสงค์ร้ายแอบแฝง

“เราต้องจัดการกับปัญหาเทคโนโลยี Deepfake เราต้องแก้ไขในสิ่งที่น่ากังวล ซึ่งก็คืออิทธิพลทางไซเบอร์จากต่างประเทศ  เช่น กิจกรรมที่เกิดขึ้นโดยรัฐบาลรัสเซีย จีน และอิหร่าน เราจำเป็นต้องดำเนินการป้องกันการดัดแปลงคลิป จากคนที่มีวัตถุประสงค์ในการหลอกลวงหรือเอาเปรียบบุคคลอื่นผ่านการใช้งาน AI”

ข้อถกเถียงเรื่อง AI เกิดขึ้นเป็นเวลาหลายสัปดาห์แล้ว ที่ฝ่ายนิติบัญญัติของสหรัฐฯ กำลังถกเถียงเรื่อง กฎหมายควบคุม AI ขณะเดียวกันบริษัทต่าง ๆ ก็พยายามนำเทคโนโลยี AI เข้ามาใช้ในธุรกิจของตน

นอกจากนี้ Smith ยังเรียกร้องให้ออกใบอนุญาตสำหรับ AI เพื่อความปลอดภัยทางไซเบอร์ และความมั่นคงระดับชาติ ซึ่งผู้คนจำเป็นต้องรับผิดชอบต่อปัญหาที่เกิดขึ้นจากปัญญาประดิษฐ์ และฝ่ายนิติบัญญัติต้องตรวจสอบให้มั่นใจว่าระบบโครงสร้างพื้นฐานจะยังมีความปลอดภัยหากมีการใช้เทคโนโลยีปัญญาประดิษฐ์ควบคุม

“เราต้องมีระบบใหม่เพื่อควบคุมการส่งออกเทคโนโลยีปัญญาประดิษฐ์ เพื่อให้แน่ใจว่าเทคโนโลยีเหล่านี้จะไม่ใช้ในทางที่ผิดหรือละเมิดกฎการส่งออกระหว่างประเทศ”

อย่างไรก็ตาม ข้อเสนอที่สภาสหรัฐฯกำลังพิจารณาจะเน้นไปที่ภัยจากปัญญาประดิษฐ์ที่อาจก่อให้เกิดความเสี่ยงต่อวิถีชีวิตหรืออาชีพของผู้คนมากกว่า เช่น ด้านการแพทย์ หรือการเงิน

แหล่งข้อมูล

https://www.springnews.co.th/digital-tech/technology/839284