หลุมพราง AI ก้าวผิดชีวิต (องค์กร) เสี่ยง

Share

Loading

การนำ Generative AI มาใช้อย่างรวดเร็วก่อให้เกิดข้อถกเถียงอย่างมากถึงผลกระทบของ AI ที่มีต่อสังคม ซึ่งองค์กรจะต้องสร้างสมดุลระหว่างศักยภาพเทคโนโลยีที่มีความสำคัญนี้กับความเสี่ยงใหม่ๆ ที่อาจเกิดขึ้น โดยเฉพาะการใช้ AI ไปในทางที่ผิด จึงต้องวางแนวทางป้องกันพื้นฐานรับมือความเสี่ยงและคุณค่าของ AI

องค์กรควรมีแนวทางป้องกันอย่างเหมาะสม เพื่อยกระดับศักยภาพเทคโนโลยี พร้อมรับมือความท้าทายที่เกิดขึ้น ซึ่งสามารถทำได้โดยการวางกรอบการกำกับดูแล หรือ Governance Framework ที่มีความยืดหยุ่นและสามารถปรับให้เหมาะกับคุณสมบัติเฉพาะของ AI พร้อมมั่นใจว่าเทคโนโลยีนี้จะได้รับการนำไปใช้อย่างปลอดภัยและมีความรับผิดชอบแต่แท้จริง AI Governance คืออะไร และเหตุใดองค์กรควรให้ความสำคัญอย่างจริงจัง?

แม้เป็นคำที่ดูสวนทางกัน แต่การกำกับดูแลที่ดีนั้นทำให้เกิดนวัตกรรมที่ดียิ่งกว่า เนื่องจากนำเสนอข้อจำกัดและแนวทางป้องกัน ที่ทำให้องค์กรสามารถทำความเข้าใจกับคำถามทั้งในด้านคุณค่าและความเสี่ยงของ AI รวมถึงมีพื้นที่สร้างสรรค์นวัตกรรมและผลลัพธ์

การขยายขอบเขตการใช้งาน AI โดยปราศจากการควบคุมดูแลนั้น ทำให้ไม่เกิดประสิทธิภาพและเป็นอันตราย สังคมต่างคาดหวังให้องค์กรดำเนินงานด้วยความโปร่งใส รับผิดชอบและมีจริยธรรม ดังนั้นการควบคุมดูแล AI จึงมีความจำเป็นเพื่อตอบสนองต่อความต้องการทางสังคมเหล่านี้ พร้อมยังคงให้ความสำคัญกับความก้าวหน้าในการจัดการกับความซับซ้อน ความคลุมเครือ และวิวัฒนาการทางเทคโนโลยีที่เปลี่ยนรวดเร็ว

นอกจากการพิจารณาผลกระทบต่อสังคมวงกว้างและการปฏิบัติตามกฎระเบียบ องค์กรจำเป็นต้องสร้างสมดุลระหว่างข้อกำหนด เพื่อสร้างความไว้วางใจในการแข่งขันและควบคุมการใช้งานในที่ทำงานร่วมกับคุณค่าทางธุรกิจ ความเสี่ยงต่อองค์กร รวมถึงความเป็นส่วนตัวของพนักงาน ลูกค้าและพลเมืองตามปัจเจกบุคคล

ตัวอย่างเช่น การกำกับดูแล AI จะต้องกำหนดแนวทางการลดอคติ และมีข้อกำหนดเพื่อตรวจสอบ โดยคำนึงถึงความแตกต่างทางวัฒนธรรมและระเบียบข้อบังคับ ที่คุ้มครองสิทธิส่วนบุคคลและกลุ่มบุคคล อคติสามารถส่งผลลบต่อระดับการยอมรับ AI ในองค์กรและในสังคมภาพรวมได้ ซึ่งอคติถือเป็นปัญหาร้ายแรงขององค์กรข้ามชาติ เนื่องจากในแต่ละประเทศมีบรรทัดฐานทางวัฒนธรรมและระเบียบข้อบังคับที่เกี่ยวข้องแตกต่างกัน อาทิ กฎหมายคุ้มครองผู้บริโภค เป็นต้น

สิ่งสำคัญสำหรับองค์กรคือ การชี้ชัดบุคลากรที่จะมาจัดการกับปัญหาต่างๆ ที่เกี่ยวกับองค์กร สังคม ลูกค้า และพนักงาน ซึ่งควรเป็นผู้ที่มีแนวคิด มีพื้นฐานความรู้และมีบทบาทหลากหลาย จากนั้นแยกแยะการตัดสินใจในการกำกับดูแลและสิทธิการตัดสินใจ โดยใช้ความเชี่ยวชาญและมุมมองที่พวกเขามี

สิทธิการตัดสินใจสำหรับกำหนดอำนาจและความรับผิดชอบสำหรับธุรกิจ เทคโนโลยี รวมถึงการตัดสินใจทางจริยธรรม ซึ่งควรมุ่งความสนใจไปที่ AI Content เป็นสิ่งสำคัญที่สุด โดยต้องได้รับการควบคุมดูแลอย่างเข้มงวด แต่ในทางกลับกัน องค์กรสามารถให้มีอิสระในการตัดสินใจด้าน AI Content ที่ไม่สำคัญได้ ขณะที่พนักงานที่ใช้ AI ช่วยทำงานจะต้องตระหนักว่าพวกเขาต้องรับผิดชอบต่อผลลัพธ์ที่เกิดขึ้น

ขจัดความซับซ้อนของ AI ด้วยการกำกับดูแล

AI พัฒนาอยู่ท่ามกลางภูมิทัศน์ทางเทคโนโลยีที่เปลี่ยนแปลงและมีความซับซ้อนอยู่ตลอด รวมถึงมีความคลุมเครือตามธรรมชาติของเทคโนโลยีนี้ ที่สามารถนำไปสู่การขาดความเข้าใจถึงผลกระทบต่อชื่อเสียง ธุรกิจ และสังคม

การกำกับดูแล ควรสะท้อนถึงคุณลักษณะการทำงานข้ามฟังก์ชันและคาดการณ์การทำงานของ AI โดยสิ่งที่องค์กรหลายแห่งมักก่อข้อผิดพลาด คือ การกำหนดให้ AI Governance เป็นโครงการแบบ Standalone ซึ่งแท้ที่จริงควรเป็นการขยายขอบเขตของมาตรการที่มีอยู่เดิมในองค์กรต่างหาก

การดึงประสิทธิภาพจากแนวทางการกำกับดูแลที่มีอยู่เดิม และการนำแนวทางที่เคยประสบความสำเร็จแล้วกลับมาใช้ซ้ำ จะทำให้การจัดการผลกระทบของ AI เป็นเรื่องที่เข้าใจง่ายขึ้น และลดความท้าทายน้อยลง แม้จะมีแนวทางมากมายนำไปใช้กับ AI ได้ เช่น การจำแนกข้อมูล การกำหนดมาตรฐาน และการกำหนดแนวทางการสื่อสาร แต่ก็มีแนวทางที่เป็นลักษณะเฉพาะเช่นกัน ได้แก่ การสร้างความน่าเชื่อถือ ความโปร่งใส และความหลากหลาย รวมถึงวิธีการที่จะนำไปใช้ร่วมกับผู้คน ข้อมูล และเทคนิคต่างๆ ก็ถือเป็นสิ่งสำคัญ

การตัดสินใจสำคัญเกี่ยวกับ AI ในองค์กรหลายแห่ง กระทำผ่านคณะกรรมการด้าน AI หรือ AI Council โดยทั่วไปผู้ที่นั่งเป็นประธานจะเป็นผู้บริหาร CIO หรือ CDAO และมีกลุ่มคณะทำงานที่เป็นตัวแทนจากหน่วยธุรกิจอื่นๆ ทั่วทั้งองค์กรมาร่วมด้วย โดยกลุ่มคณะกรรมการที่มีความหลากหลายนี้จำเป็นต้องทำงานสัมพันธ์โดยตรงร่วมกับกลุ่มผู้มีหน้าที่กำกับดูแลอื่นๆ เพื่อเป็นแกนนำในความพยายามผลักดัน AI Governance

ภารกิจแรกของคณะกรรมการ คือ การรับรองการปฏิบัติตามกฎระเบียบที่เกี่ยวข้อง แม้ว่าความเป็นส่วนตัวจะเป็นข้อกังวลสูงสุดและเห็นชัดเจนสุด แต่ก็ยังมีข้อกำหนดทางกฎหมายและข้อกำหนดเฉพาะของแต่ละอุตสาหกรรมทุกประเภทที่ต้องปฏิบัติตาม

การกำกับดูแล AI เริ่มจากความต้องการสนับสนุนเป้าหมายทางธุรกิจ โดยเป้าหมายของ AI ในโครงการนำร่องหรือในกระบวนการพิสูจน์เชิงแนวคิด หรือ Proof Of Concept (POC) นั้นควรเป็นการพิสูจน์คุณค่าตามที่คณะกรรมการกำหนดและอนุมัติร่วมกับผู้มีส่วนได้ส่วนเสียทางธุรกิจอื่นๆ ไม่ใช่การวัดผล เช่น ความแม่นยำ หรือเปรียบเทียบกับเครื่องมือเทคนิคอื่นๆ

สำหรับองค์กรที่ใช้ AI ขั้นสูง หรือ AI-Advanced Organisations ยังรวมถึงการกำกับดูแลวงจรชีวิต AI ทั้งหมด ตามเป้าหมายเพื่อให้สามารถนำส่วนประกอบ AI กลับมาใช้ใหม่ได้ พร้อมเร่งการส่งมอบ รวมถึงการปรับขนาดการใช้ AI ให้ครอบคลุมทั่วทั้งองค์กร

แหล่งข้อมูล

https://www.salika.co/2024/10/10/ai-governance/