การเปลี่ยนแปลงสำคัญด้านเทคโนโลยีของโลกในช่วงทศวรรษที่ผ่านมาหนีไม่พ้นการปรากฏ (หรือไม่ปรากฏ) ของ “ปัญญาประดิษฐ์” หรือ “AI (Artificial Intelligence)” จนเป็นส่วนหนึ่งของชีวิตประจำวันซึ่งเปลี่ยนวิถีชีวิตของเราไปอย่างสิ้นเชิง
สหภาพยุโรปออกแบบข้อกำหนดในการควบคุมการใช้ AI ในชื่อย่อว่า “AI Act” บนฐานความเสี่ยง (risk-based regulations) โดยแบ่งการควบคุมการใช้ AI เป็น 4 ประเภท ได้แก่
(1) “ความเสี่ยงที่ไม่สามารถยอมรับได้ (unacceptable risk)”
(2) “ความเสี่ยงสูง (high-risk)”
(3) “ความเสี่ยงจำกัด (limited risk)” และ
(4) “ความเสี่ยงต่ำ (minimal risk)”
อีกทั้งยังมีการแบ่งประเภทแบบอื่นด้วย คือ General Purpose AI (GPAI)
ประเภท “limited risk” และ “minimal risk” เป็น AI ประเภทที่ถูกควบคุมน้อยมากจนถึงไม่ถูกควบคุมเลย เช่น นักพัฒนาและผู้ใช้ AI ประเภท “limited risk” ถูกเรียกร้องเพียงให้แจ้งให้ผู้ใช้งานปลายทางทราบว่าตนกำลังมีปฏิสัมพันธ์อยู่กับ AI เป็นต้น
ประเภท “unacceptable risk” เป็น AI ที่ถูกห้ามมิให้ใช้ (เว้นแต่เข้าข้อยกเว้นตามที่กำหนด) โดยมีลักษณะต่างๆ ตัวอย่างเช่น การใช้เทคนิคแอบแฝง บิดเบือน หรือหลอกลวง เพื่อบิดเบือนพฤติกรรมซึ่งส่งผลกระทบต่อการตัดสินใจ
การใช้ประโยชน์จากความเปราะบางด้านอายุ ความพิการ หรือสภาพเชิงสังคมเศรษฐกิจ การให้คะแนนทางสังคม (social scoring) คือ การประเมินหรือจัดกลุ่มบุคคลหรือกลุ่มตามพฤติกรรมทางสังคมหรือลักษณะส่วนบุคคล ซึ่งก่อให้เกิดการปฏิบัติที่เสียหายหรือไม่เป็นธรรมต่อบุคคลเหล่านั้น
การสังเคราะห์อารมณ์ในสถานที่ทำงานหรือสถาบันการศึกษา ยกเว้นเพื่อเหตุผลทางการแพทย์หรือความปลอดภัย การรวบรวมฐานข้อมูลการจดจำใบหน้า (facial recognition) โดยการดึงข้อมูลภาพใบหน้าอย่างไร้เป้าหมายจากอินเทอร์เน็ตหรือกล้องวงจรปิด
การระบุตัวตนทางชีวมิติระยะไกลแบบ “เรียลไทม์” (“real-time” remote biometric identification: RBI) ในพื้นที่สาธารณะที่เข้าถึงได้ สำหรับการบังคับใช้กฎหมาย (ยกเว้นในกรณีการค้นหาบุคคลสูญหายหรือบุคคลอื่นในทำนองเดียวกัน การป้องกันภัยคุกคามที่ร้ายแรง และการระบุตัวผู้ต้องสงสัยในคดีอาชญากรรมร้ายแรง) เป็นต้น
เนื้อหาของ AI Act ส่วนใหญ่เป็นการควบคุม AI ประเภท “high-risk” AI ประเภทนี้สามารถนำมาใช้ได้ แต่อยู่ภายใต้การควบคุมอย่างเข้มงวดโดยมี 2 ประเภทย่อย ได้แก่
(1) AI ที่ถูกใช้เป็นส่วนประกอบด้านความปลอดภัยหรือผลิตภัณฑ์ที่อยู่ภายใต้กฎหมายของสหภาพยุโรปในภาคผนวก I (Annex I) และจำเป็นต้องผ่านการประเมินความสอดคล้องโดยบุคคลที่สามภายใต้กฎหมายในภาคผนวก I (Annex I)
(2) AI ที่ถูกใช้ในรูปแบบในภาคผนวก III (Annex III) อาทิ ด้านการศึกษาและการฝึกอบรม เช่น ระบบ AI ที่พิจารณาการเข้าถึง การรับเข้า หรือการมอบหมายที่เกี่ยวกับสถาบันการฝึกอบรมด้านการศึกษาและด้านอาชีพในทุกระดับ ระบบ AI ที่ใช้เพื่อประเมินระดับความเหมาะสมของการรับการศึกษาของบุคคล เป็นต้น
ด้านการเข้าถึงและอุปโภคบริการที่จำเป็นทั้งจากภาครัฐและภาคเอกชน เช่น ระบบ AI ที่ใช้เพื่อการประเมินความเหมาะสมที่จะได้รับบริการดังกล่าว เว้นแต่เป็นการใช้เพื่อตรวจสอบการฉ้อโกง ระบบ AI ที่ใช้ประเมินความเสี่ยงและกำหนดราคาที่เกี่ยวกับการประกันสุขภาพและประกันชีวิต เป็นต้น
ด้านการบังคับใช้กฎหมาย เช่น ระบบ AI ที่ใช้เพื่อประเมินความเสี่ยงของบุคคลที่จะเป็นเหยื่ออาชญากรรม ระบบ AI ที่ใช้ประเมินความเสี่ยงของการจะกระทำความผิดหรือการกระทำความผิดซ้ำที่ไม่ได้วางโดยสิ้นเชิงบนฐานการประเมินลักษณะส่วนบุคคลหรือพฤติกรรมการกระทำความผิดที่ผ่านมา (หากวางอยู่บนฐานเหล่านี้โดยสิ้นเชิงจะเป็นประเภท “unacceptable risk”) เป็นต้น
อย่างไรก็ดี AI ในข้อ (2) นี้ หากเข้ากรณียกเว้นข้อหนึ่งข้อใดต่อไปนี้ จะไม่ถือว่าอยู่ในประเภท high-risk:
1) ระบบ AI ที่ปฏิบัติงานเชิงกระบวนการที่ขอบเขตแคบ
2) ระบบ AI ที่ใช้เพื่อปรับปรุงผลของกิจกรรมที่มนุษย์ทำเสร็จแล้ว
3) ระบบ AI ที่ใช้ตรวจจับรูปแบบการตัดสินใจหรือความเบี่ยงเบนจากรูปแบบการตัดสินใจที่ผ่านมา และไม่ได้ถูกทำให้ทดแทนหรือมีอิทธิพลต่อการประเมินที่มนุษย์ได้ทำไว้แล้วโดยไม่มีการตรวจสอบที่เหมาะสมจากมนุษย์ หรือ
4) ระบบ AI ที่ปฏิบัติงานด้านการเตรียมการประเมินที่เกี่ยวข้องกับวัตถุประสงค์ของกรณีการใช้งานที่ระบุในภาคผนวก III (Annex III)
สำหรับเรื่องการใช้บังคับ ในเชิงพื้นที่ AI Act มีผลใช้บังคับกับการใช้ AI ใน EU ไม่ว่าผู้ใช้นั้นจะอยู่ใน EU หรือไม่ ในด้านเวลา AI Act มีผลใช้บังคับไปแล้วเมื่อวันที่ 1 สิงหาคม พ.ศ. 2567 ที่ผ่านมา อย่างไรก็ตาม แต่ละส่วนจะมีผลใช้บังคับหลังจาก AI Act มีผลใช้บังคับ ดังนี้
-6 เดือน สำหรับประเภท unacceptable risk
-12 เดือน สำหรับ GPAI
-24 เดือน สำหรับประเภท high risk AI systems ภายใต้ภาคผนวก III (Annex III)
-36 เดือน สำหรับประเภท high risk AI systems ภายใต้ภาคผนวก I (Annex I)
แหล่งข้อมูล