AI อาจเป็นผลไม้มีพิษ หากไร้ทิศทางกำกับ ดูแล ควบคุม

Share

Loading

ความก้าวหน้าและศักยภาพของปัญญาประดิษฐ์ (AI) ก่อให้เกิดประโยชน์โภคผลต่อมวลมนุษยชาติอย่างมิต้องสงสัย แต่ก็ได้ก่อให้เกิดความวิตกกังวลขึ้นพร้อมกัน โดยเฉพาะต่อความสามารถในการเรียนรู้ที่ไร้ขีดจำกัด ที่อาจนำไปสู่ปัญหาด้านจริยธรรม ความไม่ถูกต้อง

ผู้ช่วย AI (AI Assistant) ที่ทำให้การทำงานง่ายขึ้น มีประสิทธิภาพมากขึ้น จึงอาจกลายเป็นผลไม้มีพิษ (Toxicity) ทำผิดจริยธรรม ให้ข้อมูลที่ไม่ถูกต้อง (Inaccuracy) ข้อมูลที่คลาดเคลื่อน (Misinformation) ซึ่งหากเป็นกรณี AI แนะนำผลิตภัณฑ์ที่ไม่เหมาะสม อาจไม่ใช่เรื่องร้ายแรงนัก แต่หากเป็น AI ที่ทำงานผิดพลาดในประเด็นสำคัญที่มีความเสี่ยงสูง เช่น การเงินส่วนบุคคลหรือข้อมูลทางการแพทย์ ถือเป็นความเสียหายรุนแรง

รบส สุวรรณมาศ จาก เซลส์ฟอร์ซ (Salesforce) ประเทศไทย เปิดเผยผลการศึกษาเรื่องปัญญาประดิษฐ์เชิงสร้างสรรค์ (Generative AI) ในประเทศไทย ซึ่งดำเนินการโดย YouGov ในปีที่ผ่านมา พบว่าพนักงานชาวไทยจำนวนมาก เห็นประโยชน์ของ AI อย่างไรก็ตามผลการศึกษาได้เน้นย้ำถึงความจำเป็นในการกำหนดนโยบายด้าน AI ที่ชัดเจน และการฝึกอบรมเพื่อให้แน่ใจว่าการใช้ AI เป็นไปอย่างมีจริยธรรมและความรับผิดชอบ

รายงาน State of AI Readiness ของ Salesforce ยังพบว่า ประเทศไทยสามารถยกระดับความพร้อมด้าน AI ในปี 2566 ขึ้นมาได้อย่างน่าสนใจเมื่อเทียบกับปี 2564 และเป็นอันดับ 9 จากทั้งหมด 12 ประเทศในภูมิภาคเอเชียแปซิฟิก แต่เนื่องจาก AI ซับซ้อนขึ้น จึงเป็นเรื่องสำคัญมากที่ต้องคิดหาวิธีนำพลังแห่งนวัตกรรม AI มาใช้อย่างระมัดระวัง

เพื่อป้องกันความเสี่ยงและอันตราย มนุษย์จึงต้องเป็นผู้นำในการกำกับดูแลการทำงานของ AI ให้ได้ AI ต้องได้รับการออกแบบให้มีมนุษย์เป็นผู้นำ ควบคุม โดยต้องให้ความสำคัญกับการตัดสินใจของมนุษย์เป็นลำดับแรก ซึ่งแนวทาง 3 ประการที่จะช่วยให้มนุษย์ยังคงเป็นผู้นำในการใช้ AI ได้แก่

1.การสร้างคำสั่งหรือพรอมท์ (Prompt) ที่มีประสิทธิภาพ ซึ่งคำสั่งที่มนุษย์ส่งไปยังโมเดล generative AI นั้นมีอิทธิพลและมีศักยภาพในการกำหนดทิศทางของผลลัพธ์ได้หลายล้านรูปแบบ รวมถึงสามารถคาดเดาผลลัพธ์ที่อาจเกิดขึ้นได้ตลอดจนสามารถปรับแต่งและแก้ไขพรอมท์ เพื่อให้ได้ผลลัพธ์ที่มีประโยชน์ แม่นยำ และเกี่ยวข้องกับบริบทมากยิ่งขึ้น

2.เส้นทางการตรวจสอบ (Audit Trails) ที่ช่วยค้นหาสิ่งที่ถูกมองข้ามไป การมี Audit Trails ที่ละเอียดและครบถ้วน จะช่วยให้สามารถประเมินประวัติการทำงานของ AI ได้อย่างถูกต้องและระบุได้ว่าจุดใดที่ผู้ช่วย AI ทำงานถูกต้องหรือผิดพลาด และยังช่วยระบุปัญหาในชุดข้อมูลขนาดใหญ่ที่มนุษย์อาจมองข้าม

3.การควบคุมข้อมูล (Data Control) ช่วยรักษาความปลอดภัยของข้อมูลได้ดียิ่งขึ้น ระบบควบคุมข้อมูลต่างๆ เช่น การกำหนดสิทธิ์การใช้งาน การควบคุมการเข้า ถึงข้อมูล การจำแนกประเภทข้อมูลด้วย Metadata Field จะช่วยเสริมความสามารถให้ทั้งมนุษย์และโมเดล AI รักษาความปลอดภัยและจัดการข้อมูลที่มีความละเอียดอ่อนได้ดียิ่งขึ้น

แหล่งข้อมูล

https://www.thairath.co.th/lifestyle/tech/2797033