สิทธิมนุษยชนกับการปรากฏตัวของ AI: แนวทางในสหภาพยุโรป

Share

Loading

การเปลี่ยนแปลงสำคัญด้านเทคโนโลยีของโลกในช่วงทศวรรษที่ผ่านมาหนีไม่พ้นการปรากฏ (หรือไม่ปรากฏ) ของ “ปัญญาประดิษฐ์” หรือ “AI (Artificial Intelligence)” จนเป็นส่วนหนึ่งของชีวิตประจำวันซึ่งเปลี่ยนวิถีชีวิตของเราไปอย่างสิ้นเชิง

สหภาพยุโรปออกแบบข้อกำหนดในการควบคุมการใช้ AI ในชื่อย่อว่า “AI Act” บนฐานความเสี่ยง (risk-based regulations) โดยแบ่งการควบคุมการใช้ AI เป็น 4 ประเภท ได้แก่

(1) “ความเสี่ยงที่ไม่สามารถยอมรับได้ (unacceptable risk)”

(2) “ความเสี่ยงสูง (high-risk)”

(3) “ความเสี่ยงจำกัด (limited risk)” และ

(4) “ความเสี่ยงต่ำ (minimal risk)”

อีกทั้งยังมีการแบ่งประเภทแบบอื่นด้วย คือ General Purpose AI (GPAI)

ประเภท “limited risk” และ “minimal risk” เป็น AI ประเภทที่ถูกควบคุมน้อยมากจนถึงไม่ถูกควบคุมเลย เช่น นักพัฒนาและผู้ใช้ AI ประเภท “limited risk” ถูกเรียกร้องเพียงให้แจ้งให้ผู้ใช้งานปลายทางทราบว่าตนกำลังมีปฏิสัมพันธ์อยู่กับ AI เป็นต้น

ประเภท “unacceptable risk” เป็น AI ที่ถูกห้ามมิให้ใช้ (เว้นแต่เข้าข้อยกเว้นตามที่กำหนด) โดยมีลักษณะต่างๆ ตัวอย่างเช่น การใช้เทคนิคแอบแฝง บิดเบือน หรือหลอกลวง เพื่อบิดเบือนพฤติกรรมซึ่งส่งผลกระทบต่อการตัดสินใจ

การใช้ประโยชน์จากความเปราะบางด้านอายุ ความพิการ หรือสภาพเชิงสังคมเศรษฐกิจ การให้คะแนนทางสังคม (social scoring) คือ การประเมินหรือจัดกลุ่มบุคคลหรือกลุ่มตามพฤติกรรมทางสังคมหรือลักษณะส่วนบุคคล ซึ่งก่อให้เกิดการปฏิบัติที่เสียหายหรือไม่เป็นธรรมต่อบุคคลเหล่านั้น

การสังเคราะห์อารมณ์ในสถานที่ทำงานหรือสถาบันการศึกษา ยกเว้นเพื่อเหตุผลทางการแพทย์หรือความปลอดภัย การรวบรวมฐานข้อมูลการจดจำใบหน้า (facial recognition) โดยการดึงข้อมูลภาพใบหน้าอย่างไร้เป้าหมายจากอินเทอร์เน็ตหรือกล้องวงจรปิด

การระบุตัวตนทางชีวมิติระยะไกลแบบ “เรียลไทม์” (“real-time” remote biometric identification: RBI) ในพื้นที่สาธารณะที่เข้าถึงได้ สำหรับการบังคับใช้กฎหมาย (ยกเว้นในกรณีการค้นหาบุคคลสูญหายหรือบุคคลอื่นในทำนองเดียวกัน การป้องกันภัยคุกคามที่ร้ายแรง และการระบุตัวผู้ต้องสงสัยในคดีอาชญากรรมร้ายแรง) เป็นต้น

เนื้อหาของ AI Act ส่วนใหญ่เป็นการควบคุม AI ประเภท “high-risk” AI ประเภทนี้สามารถนำมาใช้ได้ แต่อยู่ภายใต้การควบคุมอย่างเข้มงวดโดยมี 2 ประเภทย่อย ได้แก่

(1) AI ที่ถูกใช้เป็นส่วนประกอบด้านความปลอดภัยหรือผลิตภัณฑ์ที่อยู่ภายใต้กฎหมายของสหภาพยุโรปในภาคผนวก I (Annex I) และจำเป็นต้องผ่านการประเมินความสอดคล้องโดยบุคคลที่สามภายใต้กฎหมายในภาคผนวก I (Annex I)

(2) AI ที่ถูกใช้ในรูปแบบในภาคผนวก III (Annex III) อาทิ ด้านการศึกษาและการฝึกอบรม เช่น ระบบ AI ที่พิจารณาการเข้าถึง การรับเข้า หรือการมอบหมายที่เกี่ยวกับสถาบันการฝึกอบรมด้านการศึกษาและด้านอาชีพในทุกระดับ ระบบ AI ที่ใช้เพื่อประเมินระดับความเหมาะสมของการรับการศึกษาของบุคคล เป็นต้น

ด้านการเข้าถึงและอุปโภคบริการที่จำเป็นทั้งจากภาครัฐและภาคเอกชน เช่น ระบบ AI ที่ใช้เพื่อการประเมินความเหมาะสมที่จะได้รับบริการดังกล่าว เว้นแต่เป็นการใช้เพื่อตรวจสอบการฉ้อโกง ระบบ AI ที่ใช้ประเมินความเสี่ยงและกำหนดราคาที่เกี่ยวกับการประกันสุขภาพและประกันชีวิต เป็นต้น

ด้านการบังคับใช้กฎหมาย เช่น ระบบ AI ที่ใช้เพื่อประเมินความเสี่ยงของบุคคลที่จะเป็นเหยื่ออาชญากรรม ระบบ AI ที่ใช้ประเมินความเสี่ยงของการจะกระทำความผิดหรือการกระทำความผิดซ้ำที่ไม่ได้วางโดยสิ้นเชิงบนฐานการประเมินลักษณะส่วนบุคคลหรือพฤติกรรมการกระทำความผิดที่ผ่านมา (หากวางอยู่บนฐานเหล่านี้โดยสิ้นเชิงจะเป็นประเภท “unacceptable risk”) เป็นต้น

อย่างไรก็ดี AI ในข้อ (2) นี้ หากเข้ากรณียกเว้นข้อหนึ่งข้อใดต่อไปนี้ จะไม่ถือว่าอยู่ในประเภท high-risk:

1) ระบบ AI ที่ปฏิบัติงานเชิงกระบวนการที่ขอบเขตแคบ

2) ระบบ AI ที่ใช้เพื่อปรับปรุงผลของกิจกรรมที่มนุษย์ทำเสร็จแล้ว

3) ระบบ AI ที่ใช้ตรวจจับรูปแบบการตัดสินใจหรือความเบี่ยงเบนจากรูปแบบการตัดสินใจที่ผ่านมา และไม่ได้ถูกทำให้ทดแทนหรือมีอิทธิพลต่อการประเมินที่มนุษย์ได้ทำไว้แล้วโดยไม่มีการตรวจสอบที่เหมาะสมจากมนุษย์ หรือ

4) ระบบ AI ที่ปฏิบัติงานด้านการเตรียมการประเมินที่เกี่ยวข้องกับวัตถุประสงค์ของกรณีการใช้งานที่ระบุในภาคผนวก III (Annex III)

สำหรับเรื่องการใช้บังคับ ในเชิงพื้นที่ AI Act มีผลใช้บังคับกับการใช้ AI ใน EU ไม่ว่าผู้ใช้นั้นจะอยู่ใน EU หรือไม่ ในด้านเวลา AI Act มีผลใช้บังคับไปแล้วเมื่อวันที่ 1 สิงหาคม พ.ศ. 2567 ที่ผ่านมา อย่างไรก็ตาม แต่ละส่วนจะมีผลใช้บังคับหลังจาก AI Act มีผลใช้บังคับ ดังนี้

-6 เดือน สำหรับประเภท unacceptable risk

-12 เดือน สำหรับ GPAI

-24 เดือน สำหรับประเภท high risk AI systems ภายใต้ภาคผนวก III (Annex III)

-36 เดือน สำหรับประเภท high risk AI systems ภายใต้ภาคผนวก I (Annex I)

แหล่งข้อมูล

https://www.bangkokbiznews.com/tech/innovation/1167489