หลังจากที่ Chat GPT ได้เปิดให้บริการแก่บุคคลทั่วไปตั้งแต่ปลายปี 2565 AI (Artificial intelligence) หรือ Generative AI ก็เป็นคำที่ทุกท่านได้ยินผ่านหูและเห็นผ่านตากันบ่อยขึ้นมาก
ทางสหภาพยุโรปได้เล็งเห็นความสำคัญของ AI และผลกระทบในวงกว้างของการใช้ AI มาซักระยะแล้ว และประกาศร่างกฎหมายเพื่อควบคุมกำกับการใช้ AI มาตั้งแต่ปี 2564 ซึ่งร่างกฎหมายดังกล่าวพึ่งได้รับความเห็นชอบจากตัวแทนเจรจาของสภายุโรปและประธานของคณะมนตรียุโรปโดยเมื่อวันที่ 9 ธันวาคม 2566
ร่างกฎหมายเพื่อควบคุมกำกับการใช้ AI นี้อยู่ในขั้นตอนการแก้ไขปรับปรุงในรายละเอียดและถูกคาดหมายว่าจะเป็นกฎหมายเพื่อควบคุมกำกับการใช้ AI ที่มีความครอบคลุมฉบับแรกของโลก หลักการสำคัญของร่างกฎหมายเพื่อควบคุมกำกับการใช้ AI ดังกล่าวคือ การกำหนดให้มีการแยกประเภทการใช้งาน AI ตามระดับความเสี่ยงที่แตกต่างกันไป และกำหนดระดับความเข้มข้นของการกำกับแตกต่างกันไปตามระดับความเสี่ยง
(1) การใช้ AI ที่มีความเสี่ยงสูงระดับที่ยอมรับไม่ได้ (Unacceptable Risk)
การใช้ AI ที่มีความเสี่ยงสูงระดับที่ยอมรับไม่ได้ หมายถึง การใช้ AI ที่อาจก่อให้เกิดความเสียหายทางร่างกายหรือจิตใจแก่บุคคลใด ๆ โดยใช้ AI ปรับพฤติกรรมผ่านจิตใต้สำนึก หรือ การใช้ AI ที่การใช้ประโยชน์จากความเปราะบางของกลุ่มคนบางกลุ่มจากปัจจัยด้านอายุ สภาพร่างกาย หรือ สุขภาพจิตของบุคคลเหล่านั้น
ตัวอย่างของการใช้ AI ที่มีความเสี่ยงสูงระดับที่ยอมรับไม่ได้ เช่น การใช้ AI ในระบบการให้คะแนนความประพฤติทางสังคม หรือที่เรียกว่า social scoring การใช้ AI เพื่อตรวจสอบสีหน้าและอารมณ์ในที่ทำงาน การใช้ระบบตรวจสอบตัวตนโดยชีวมิติ (biometric) แบบเรียลไทม์เพื่อระบุตัวตนในพื้นที่สาธารณะเพื่อจุดประสงค์ในการบังคับใช้กฎหมาย (ยกเว้นกรณีที่สาธารณประโยชน์ของการใช้งานในรูปแบบดังกล่าวมีน้ำหนักมากกว่าความเสี่ยงที่จะเกิดขึ้น เช่น ระบบตรวจสอบตัวตนโดยชีวมิติ (biometric) แบบเรียลไทม์การใช้เพื่อค้นหาเด็กหาย หรือเพื่อแก้ไขหรือควบคุมสถานการณ์การก่อการร้าย หรือเพื่อหาตัวผู้กระทำความผิดสำหรับความผิดบางประเภทที่มีความรุนแรงพิเศษ)
ทั้งนี้ อย่างไรก็ดี การใช้ AI ในรูปแบบที่ได้รับอนุญาตภายใต้ข้อยกเว้นข้างต้น จะต้องได้รับการรับรองจากหน่วยงานฝ่ายตุลาการ หรือหน่วยงานภาครัฐอิสระในประเทศสมาชิกที่เกี่ยวข้องก่อนการใช้งาน เพื่อป้องกันการละเมิดสิทธิของประชาชน
(2) AI ประเภทที่มีความเสี่ยงสูง (High Risk)
AI ประเภทที่มีความเสี่ยงสูง เช่น การใช้ AI ในอุปกรณ์การแพทย์ การใช้ AI ในของเล่น การใช้ AI กับระบบสาธารณูปโภคที่สำคัญ การใช้ AI เพื่อพิจารณาความน่าเชื่อถือ (credit rating) ของบุคคล การใช้ AI ในการเลือกรับพนักงานเข้าทำงานหรือการตัดสินใจเลื่อนตำแหน่ง หรือการใช้ AI ในการคัดเลือกคนเข้าศึกษาต่อในโรงเรียนหรือมหาวิทยาลัย หรือการตัดเกรดในการสอบ เนื่องจากการตัดสินใจในเรื่องเหล่านี้จะส่งผลต่อโอกาสและความก้าวหน้าของพนักงานและโอกาสในการเลือกอาชีพและการประกอบอาชีพของบุคคลเหล่านั้น
ในส่วนของการกำกับผู้ให้บริการระบบ AI นั้น ผู้ให้บริการ AI ประเภทที่มีความเสี่ยงสูงจะมีหลายหน้าที่ เช่น หน้าที่ในการประเมินผลกระทบต่อสิทธิพื้นฐานของประชาชน หน้าที่ในการจัดให้มีระบบควบคุมคุณภาพและระบบจัดการความเสี่ยงตามที่กฎหมายกำหนด
หน้าที่ในการควบคุมชุดข้อมูลที่ใส่ในระบบในกรณีที่จะต้องมีการป้อนข้อมูลเพื่อฝึก AI หน้าที่ในการจัดทำเอกสารทางเทคนิคเพื่อแสดงว่ามีการปฏิบัติตามกฎหมายนี้ เป็นต้น
(3) AI ที่มีความเสี่ยงจำกัด (Limited Risk)
AI ที่มีความเสี่ยงจำกัด จะครอบคลุม AI เพื่อการใช้ทั่วไป เช่น Generative AI Chatbot และ AI ที่สร้าง Deepfake
สำหรับ AI ที่มีความเสี่ยงจำกัด จะมีการกำหนดหน้าที่การเปิดเผยข้อมูลเพื่อความโปร่งใส เช่น การแจ้งผู้ใช้งานว่าผู้ใช้งานกำลังติดต่อกับ AI การแจ้งให้ทราบว่าผลงานนั้นสร้างหรือดัดแปลงโดย AI การเปิดเผยข้อมูลเกี่ยวกับผลงานที่มีลิขสิทธิ์ที่นำมาใช้ในการพัฒนาระบบ การให้เปิดเผยข้อมูลเกี่ยวกับการป้องกันไม่ให้ AI ผลิตเนื้อหาที่เป็นการหมิ่นประมาท
(4) AI ความเสี่ยงต่ำ (Minimal Risk)
ตัวอย่าง AI ที่มีความเสี่ยงต่ำ หรือ ไม่มีความเสี่ยง เช่น AI ที่ใช้ในเกมส์ หรือ AI ที่ใช้ในการกรอง spam ซึ่งทางสหภาพยุโรปได้แสดงความเห็นใน press release ว่า AI ส่วนมากจะเป็น AI ในประเภทนี้
AI ที่มีความเสี่ยงต่ำจะไม่มีหน้าที่ภายใต้ร่างกฎหมายเพื่อควบคุมกำกับการใช้ AI แต่ผู้ประกอบการสามารถประกาศ Code of Conduct สำหรับการใช้ AI ประเภทนี้ได้โดยสมัครใจ
หลักการดังกล่าวข้างต้นที่กำหนดให้มีการแยกประเภทการใช้งาน AI ตามระดับความเสี่ยงที่แตกต่างกันไป และกำหนดระดับความเข้มข้นของการกำกับแตกต่างกันไปตามระดับความเสี่ยง น่าเป็นแบบอย่างที่หลายประเทศที่กำลังพิจารณาออกกฎหมายเพื่อกำกับ AI นำไปใช้อ้างอิงในการออกแบบกฎหมายกำกับ AI ของประเทศตนเอง
แหล่งข้อมูล