ภายในระยะเวลาไม่ถึง 2 ปีที่เทคโนโลยี AI เติบโตอย่างก้าวกระโดดและเข้ามาเป็นส่วนหนึ่งของชีวิตมนุษย์แทรกซึมอยู่ในหลากบริบทหลายมิติของสังคมโลก ปฏิเสธไม่ได้ว่าขณะที่ AI เข้ามาเป็นตัวเร่งสร้างนวัตกรรมใหม่ๆ เพิ่มประสิทธิภาพในการทำงาน แต่ในขณะเดียวกัน ความเสี่ยงที่เกิดจากการนำ AI ไปใช้ผิดวัตถุประสงค์ก็ทวีความรุนแรงขึ้นเช่นกัน การวาง จริยธรรม AI จึงเป็นประเด็นสำคัญที่ทั่วโลกมุ่งขับเคลื่อนให้เท่าทันกับการพัฒนาและใช้งาน AI
โดยมีความเข้มข้นแตกต่างกันไปตามบริบทแต่ละประเทศ ทั้งในมิติการนิยามประเภทความเสี่ยง การกำกับดูแล การควบคุมผ่านการออกกฏหมาย แนวทาง กฎระเบียบต่างๆ ยกตัวอย่าง ‘AI ACT’ กฏหมาย AI ฉบับแรกของโลก โดยสหภาพยุโรป ที่มีผลบังคับใช้แล้วในประเทศสมาชิกเมื่อเดือน พ.ค.67 ที่ผ่านมา สำหรับประเทศไทยได้มีการพูดคุยประเด็นดังกล่าวผ่านเสวนา “จริยธรรม AI กับภาครัฐ และนโยบาย” งาน AI Ethics Exhibition Thailand 2024 ร่วมเสวนา โดยมี 4 ประเด็นที่น่าสนใจ ดังนี้
กฎเกณฑ์ และ จริยธรรม AI ไม่ควรหว่านแห
ดร.ศักดิ์ เสกขุนทด ที่ปรึกษา ETDA กล่าวว่า “เรื่องของกฏเกณฑ์ AI อย่าโฟกัสเพียงจะทำอย่างไรไม่ให้ผิดกฎหมาย แต่ควรมองว่าจะทำธรรมภิบาล AI อย่างไรให้ตอบโจทย์ประเทศ แก้ปัญหาให้ประชาชน และที่ผ่านมา สิ่งที่ ETDA Thailand ทำ คือ การหากลไก หรือ วิธีการให้ AI เป็นไปตามหลักการและแนวทางจริยธรรมปัญญาประดิษฐ์ของประเทศไทย โดย สำนักงานคณะกรรมการดิจิทัลเพื่อเศรษฐกิจและสังคมแห่งชาติ (สดช.)
“เราต้องเข้าใจบริบทความต้องการของแต่ละภาคส่วนที่แตกต่างกัน แล้วจึงกำหนดกลไกในการจัดการเรื่อง AI ให้เป็นไปตามบริบทเหล่านั้น อย่าไปออกกฏหมายประเภทหว่านแห โดยต้องมองทั้งประโยชน์และความเสี่ยงเพื่อหาจุดที่ลงตัวระหว่างการคุ้มครองผู้บริโภคและส่งเสริมนวัตกรรม” ดร.ศักดิ์ กล่าว
ด้าน ณัฐพงษ์ เรืองปัญญาวุฒิ ประธานคณะกรรมาธิการศึกษาการจัดทำและติดตามการบริหารงบประมาณสภาผู้แทนราษฎร เล่าว่า
“เสียงส่วนใหญ่ที่ได้รับจากการทำงานในสภาอาจรู้สึกว่าประเทศไทยยังไม่ถึงขั้นต้องกำกับดูแล AI เป็นหลัก เนื่องจากอุตสาหกรรม AI ยังไม่เกิด ให้เน้นส่งเสริมเป็นหลัก อย่างไรก็ตามส่วนตัวมองว่าภาครัฐหรือภาคส่วนที่เกี่ยวข้องสามารถศึกษากลไกการกำกับดูแล และออกเป็นนโยบายสาธารณะที่มุ่งส่งเสริมและกำกับดูแล AI ไปพร้อมกัน”
“ยกตัวอย่าง ประเทศสิงคโปร์ที่พัฒนา ‘AI Verify’ เครื่องมือในการทดสอบความน่าเชื่อถือของ AI ที่ภาครัฐจะให้การรับรองมาตรฐานซอฟแวร์ หรือ ผลิตภัณฑ์ AI ที่ผ่านการทดสอบนี้ ซึ่งเป็นการส่งเสริมผู้ประกอบการ และสร้างความเชื่อมั่นให้กับผู้ใช้งานอีกด้วย”
ชี้ชัดถึงความท้าทายกับการพัฒนา AI ในไทย
ความท้าทายใหญ่ในความเห็นของ ดร.ศักดิ์ คือ การพัฒนา Large Language Model (LLM) ที่ทำให้เกิดความเหลื่อมล้ำระหว่างประเทศที่ไม่มีความพร้อมกับประเทศที่พัฒนาแล้ว ในอนาคตหาก AI อยู่ในคอมพิวเตอร์ทุกเครื่อง ทุกครั้งที่ใช้สมาร์ตโฟน AI จะช่วยคิดแทนเรา ทุกครั้งเราต้องไปจ่ายเงินค่าใช้งานให้กับประเทศใหญ่ ประเทศไทยก็จะกลายเป็นผู้ใช้งานโดยสมบูรณ์
“ประเทศไทยที่ผลักดันเรื่องนี้อยู่แล้วอาจร่วมมือกับอาเซียนเพื่อแสดงจุดยืน หากประเทศที่กำลังพัฒนาโดนออกกฎไม่ให้ทำโน่นทำนี่ เรายังไม่ได้เกิดเลย คุณมาห้ามแล้ว ผมคิดว่ามันไม่แฟร์ ดังนั้น เราจะต้องมีของเราเอง แม้จะไม่เก่งเหมือนของเขา เราจะต้องมีจุดยืนในเรื่องนี้” ดร.ศักดิ์ กล่าว
ในประเด็นนี้ ดร.อภิวดี ปิยธรรมรงค์ นักวิจัยกลุ่มวิจัยปัญญาประดิษฐ์ เนคเทค สวทช. กล่าวเสริมว่า “ในเรื่อง LLM ภาษาไทย หลายคนอาจมองว่าเราเป็นไทย เราน่าจะเข้าใจภาษาไทยได้ดีที่สุด แต่เกมนี้ผู้ที่ถือไพ่เหนือกว่า คือ คนที่มีทรัพยากรในการเก็บและรวบรวบข้อมูล มีกำลังในการประมวลผลข้อมูลขนาดใหญ่ ยิ่งสามารถนำข้อมูลภาษาไทยขนาดใหญ่เข้าไปให้เครื่องได้เรียนรู้มากเท่าไหร่ ระบบจะทำความเข้าใจภาษาไทยได้ดีมากเท่านั้น”
เรื่องโครงสร้างพื้นฐานในการพัฒนา AI ประเทศไทยมี LANTA Supercomputer โดย ThaiSC สวทช. ที่มีศักยภาพติดอับดับโลก มีบุคลากรและเทคโนโลยีที่จะช่วยในการพัฒนา AI ได้ แม้อาจไม่เพียงพอสำหรับการแข่งขันในระดับโลก แต่เราพยายามพัฒนา Foundation Model เพื่อสนับสนุนการพัฒนา AI ในประเทศ
ยกตัวอย่าง ‘OpenThaiGPT’ จากความร่วมมือของหลายหน่วยงานในไทยทั้งภาครัฐ เอกชน สมาคม รวมถึงเนคเทค สวทช. เพื่อพัฒนา LLM ภาษาไทยที่เปิดให้ทุกคนดาวน์โหลดไปต่อยอดโดยไม่มีค่าใช้จ่ายใดๆ ทั้งสิ้น (Open Source) นอกจากนี้ยังมี AI for Thai แพลตฟอร์มให้บริการ AI สัญชาติไทยที่เปิดให้เรียกใช้และต่อยอด API ด้าน AI ได้ฟรีทั้งจากเนคเทค สวทช. และหน่วยงานพันธมิตร รวมถึงเปิดพื้นที่ให้ภาคเอกชนนำ API มาวางเพื่อเป็นพื้นที่ทดสอบใช้งานเชิงพาณิชย์ได้
‘อำนาจเงิน’ ขับเคลื่อนการแชร์ข้อมูลสนับสนุน AI
‘ความท้าทายสำคัญอีกหนึ่งอย่างสำหรับการพัฒนา AI คือ ‘ข้อมูล’ ด้วยข้อมูลมากมายบนอินเทอร์เน็ตนั้นไม่เพียงพอทั้งในแง่ปริมาณ และ ความหลากหลายของชนิดข้อมูล นักวิจัยยังต้องการข้อมูลจากภาครัฐ ภาคเอกชนที่มีความพร้อมในการแบ่งปันข้อมูลที่ไม่ติดลิขสิทธิ์มาใช้ในการทำวิจัย’ ดร.อภิวดี กล่าว
เรื่องการแบ่งปันข้อมูลภาครัฐ คุณณัฐพงษ์ มองว่า ด้วยโครงสร้างอำนาจรัฐของไทยที่ต่างหน่วยงานต่างมีกฎหมายเป็นของตัวเองประกอบกับสิทธิ์การเป็นเจ้าของข้อมูลที่เป็นข้อจำกัดในการแบ่งปันข้อมูลภาครัฐ อำนาจกฎหมายจึงไม่ใช่วิธีการแก้ไขปัญหาเรื่องนี้แต่เป็นอำนาจเงิน
“ผู้มีอำนาจควบคุมการจัดซื้อจัดจ้างต้องกำหนดเป็นข้อบังคับว่า เมื่อหน่วยงานรัฐต้องการพัฒนาระบบ IT ขึ้นมาใหม่ให้ระบุเงื่อนไขขั้นต่ำในข้อกำหนดและขอบเขตการจ้าง (TOR) ว่าต้องมีการเชื่อมข้อมูลมาที่ Big Data ภาครัฐ เชื่อมเข้าดิจิทัลไอดี รวมถึงข้อมูลต้องบูรณาการเข้ามาตามนโยบายรัฐบาลดิจิทัล”
คลายความกังวลของประชาชนว่าด้วย AI Ethics
เมื่อ AI ได้รับการพัฒนาให้มีทักษะเทียบเท่ามนุษย์จนเริ่มแยกแยะไม่ออก ทำให้ประชาชนกังวลใจทั้งในแง่การถูกหลอกลวง รวมถึงข้อมูลส่วนบุคคลรั่วไหล ในมุมนักพัฒนาและภาครัฐมีความเคลื่อนไหวในเรื่องการสร้างความมั่นใจปลอดภัยให้กับประชาชนอย่างต่อเนื่อง ดร.อภิวดี เล่าว่า
“การพัฒนาระบบ AI ให้มีความน่าเชื่อถือ เรื่องความเป็นส่วนตัวของข้อมูลเป็นประเด็นสำคัญที่ต้องดูแล (Privacy) และต้องบอกได้ว่า AI มีความถูกต้องแค่ไหน ได้รับการเทรนด์มาจากข้อมูลประเภทไหนให้ผู้ใช้ได้เลือก (Transparency) ข้อมูลที่ใช้ในการวิจัยจะต้องปฏิบัติตามกฎหมาย PDPA มีการตรวจสอบข้อมูลส่วนบุคคลก่อนเป็นอันดับแรก และในอนาคตข้อมูลที่โมเดลสร้างขึ้นจะต้องตรวจสอบข้อมูลส่วนบุคคลซ้ำเช่นกัน”
“นอกจากนี้ในฝั่ง Frontier Research เนคเทค สวทช. พัฒนา “Chatbot Arena” เป็นเครื่องมือให้ผู้ใช้มีโอกาสได้ประเมิน LLM ภาษาไทย โดยนำ LLM ภาษาไทย จากแหล่งต่างๆ มาสร้างเป็น Chatbot เมื่อผู้ใช้ถามคำถามเข้าไประบบจะเลือก Model 2 ตัวเพื่อสร้างคำตอบให้ผู้ใช้เลือกว่าถูกใจคำตอบของโมเดลใดมากกว่ากัน ซึ่งเป็นวิธีเดียวกันกับ ChatGPT” ดร. อภิวดี กล่าว
ด้านคุณณัฐพงษ์ ยังเสนอไอเดียว่า “ในอนาคตอาจมีข้อกำหนดมาตรฐานอุตสาหกรรมซอฟต์แวร์ เทคโนโลยี หรือ Web browser ที่บอกว่าสื่อต่างๆ ต้องเพิ่ม Metadata ว่าเป็นมนุษย์ หรือ AI หากไม่ระบุให้ชัดจะไม่มีสิทธิ์เผยแพร่สื่อดังกล่าว เป็นนโยบายที่น่าสนใจเหมือนกับการทำ Water Mask เพราะประชาชนมีสิทธิ์รู้ที่มาของสื่อที่ได้รับ อาจปรับใช้เรื่อง Call Center ที่สามารถรู้ว่ากำลังคุยกับ AI หรือ มนุษย์”
“นอกจากเรื่อง AI Ethics หรือ จริยธรรม AI แล้ว การส่งเสริมให้ประชาชนทุกคนมี AI Literacy เป็นเรื่องสำคัญและจำเป็นอย่างยิ่ง อีกทั้ง AI Literacy เป็นเรื่องใหม่และไปเร็ว ไกด์ไลน์ต่าง ๆ ที่เริ่มต้นขึ้นเริ่มล้าสมัย ฉะนั้นจะทำอย่างไรให้ประชาชนสามารถติดตามได้ตลอดเวลา เข้าใจ และใช้เป็น อย่ามองแค่รู้เท่าทัน ควรจะรู้วิธีการใช้ที่เกิดประโยชน์กับตัวเองด้วย เพราะตอนนี้เครื่องมือ AI นั้นเยอะมาก แต่ต้องพิจารณาก่อนนำไปใช้ว่าข้อมูลที่ได้รับจาก AI นั้นถูกต้องหรือไม่” ดร.ศักดิ์ กล่าวทิ้งท้าย
แหล่งข้อมูล
https://www.salika.co/2024/07/11/4-issues-ai-ethics-in-thailand/