เวลาได้ยินคำว่า “Black Box” หรือ “กล่องดำ” คนทั่วไปมักจะคิดถึงเวลาเครื่องบินตกแล้วไปค้นหาสาเหตุของปัญหาจาก “กล่องดำ”
สำหรับ Black Box ในแวดวง AI จะหมายถึงระบบการทำงานของ AI ที่ได้ผลลัพธ์เป็นคำตอบที่แม้แต่ผู้สร้าง AI ก็ไม่เข้าใจอย่างถ่องแท้ว่า ทำไมถึงเป็นเช่นนั้น?!?
Black Box มักจะเกิดกับโมเดลแบบ Deep Learning เพราะมีขบวนการทำงานที่ซับซ้อน มีการกลั่นกรองข้อมูลหลายชั้น มีการเชื่อมต่อของข้อมูลมากมาย อาจมีพารามิเตอร์นับล้านตัว มีตัวแปรหลายอย่างที่เอามาพิจารณาร่วมกัน
เมื่อ AI ให้ผลลัพธ์มา มันยากต่อการทำความเข้าใจว่า ไม่รู้เหตุผลเกี่ยวกับน้ำหนักและการเชื่อมต่อของแต่ละส่วนที่ส่งผลต่อผลลัพธ์สุดท้าย ไม่รู้ว่ามีที่มาอย่างไร มนุษย์ผู้สร้างไม่สามารถตีความได้ง่าย และปริศนาที่อธิบายได้ยากเหล่านี้ จะเรียกว่า “ปัญหากล่องดำ”
มีตัวอย่าง Black Box Problem ที่อธิบายได้ยากหรืออธิบายไม่ได้เลย เช่น
– AlphaGo’s Move 37:
DeepMind บริษัทในเครือกูเกิล สร้าง AlphaGo ซึ่งเป็น AI ที่สามารถเล่นเกมโกะ หรือ หมากล้อม ในการแข่งขันกับ Lee Sedol แชมป์โลกเกมโกะ ในการเดินหมากตาที่ 37 เป็นการเดินที่แหวกแนว ผู้คนที่สังเกตการณ์และรวมถึงนักพัฒนาที่เป็นผู้สร้าง ต่างก็รู้สึกประหลาดใจกับการเดินหมากตานี้อย่างมาก แต่ในที่สุด AlphaGo ก็เป็นผู้ชนะ เหตุผลที่อยู่เบื้องหลังในการเดินครั้งที่ 37 นี้ ยังเป็นเรื่องยากสำหรับมนุษย์ที่จะเข้าใจ
– Generative AI:
AI สร้างข้อความ, AI สร้างภาพ, AI สร้างวิดีโอ ใช้โมเดล Deep Learning ทั้งนั้น สิ่งที่ทำออกมาดูสมจริงมาก แต่ไม่สามารถอธิบายให้ชัดเจนว่า ได้ผลลัพธ์ออกมาอย่างไร ส่งผลทำให้ควบคุมสิ่งที่ AI จะผลิตออกมาได้ยาก
– Autonomous Vehicles:
รถไร้คนขับอาศัยอัลกอริธึม AI ที่ซับซ้อนในการตัดสินใจเกี่ยวกับ การนำทาง การตรวจจับสิ่งกีดขวง การจัดการกับการจราจร และในยามที่เกิดอุบัติเหตุซึ่งมีความเกี่ยวข้องกับรถไร้คนขับ ยังมีหลายประเด็นที่นักพัฒนาไม่เข้าใจว่า AI มีขบวนการตัดสินใจอย่างไร เลยกลายเป็นปัญหากล่องดำที่หาสาเหตุของอุบัติเหตุได้ยาก
– AI in Finance:
มีการนำ AI มาช่วยทำงานทางด้านการเงินต่างๆ เช่น การตรวจจับการฉ้อโกง การตรวจจับการซื้อขายด้วยอัลกอริทึม และสิ่งที่เป็นเรื่องน่าทึ่งและน่าข้องใจกันมาก คือ การใช้ AI มาช่วยพิจารณาให้เครดิต มันทำให้หนี้เสียลดลงกว่าตอนที่ใช้ผู้เชี่ยวชาญที่เป็นคน ถ้าเป็นคนจะพิจารณาให้เครดิตโดยดูจากปัจจัยหลัก 5 เรื่อง คือ นิสัยส่วนตัว สภาพเศรษฐกิจ ความสามารถในการหาเงิน เงินทุน หลักทรัพย์ค้ำประกัน แต่เวลา AI พิจารณาให้เครดิต มันศึกษาจากปัจจัยต่างๆหลายร้อยรายการ บางปัจจัยก็อธิบายความเกี่ยวข้องกับการให้เครดิตได้ยาก เช่น ใช้แอปอะไรบ้าง เล่นเกมบ่อยแค่ไหน ใช้เวลากับอะไร แม้แต่ตอนที่มาขอเครดิตแบตเตอรี่มือถือเหลืออยู่แค่ไหนก็เอามาพิจารณาร่วมด้วย นักพัฒนาไม่รู้ว่าแน่ชัดว่า AI ให้น้ำหนักกับแต่ละปัจจัยอย่างไร และทำไมถึงเป็นเช่นนั้น?
ยังมีตัวอย่างปัญหากล่องดำที่ยากจะอธิบายอีกหลายเรื่อง เช่น
– AI ในระบบตุลาการ
– AI ในระบบรักษาความปลอดภัยทางไซเบอร์
– AI ในระบบให้คำแนะนำ (Netflix, Amazon, YouTube, TikTok)
– AI ในเกม
– AI นักรังสีวิทยา
– ความอคติทางเพศและเชื้อชาติในระบบ AI
บุคคลที่มีชื่อเสียงในแวดวงเทคโนโลยีโลกหลายคน แสดงความกังวลเกี่ยวกับปัญหากล่องดำ มีการเน้นย้ำให้เห็นถึงความเสี่ยงและอันตรายที่อาจเกิดขึ้นเพราะความไม่โปร่งใส หรือความไม่เข้าใจ AI อย่างแท้จริง
อันตรายที่อาจเกิดขึ้นจากปัญหากล่องดำ เช่น ขาดความรับผิดชอบ อคติและการเลือกปฏิบัติ ไร้จริยธรรม ไม่ปลอดภัย ไม่น่าเชื่อถือ
อีลอน มัสก์ ที่มักจะออกมาแสดงความคิดเห็นด้านลบเกี่ยวกับ AI อย่างรุนแรง ให้เหตุผลว่า การขาดความเข้าใจ อาจนำไปสู่อุบัติเหตุ หรือการวินิจฉัยที่ผิดพลาด และส่งผลกระทบอย่างร้ายแรงต่อมนุษย์
มนุษย์กำลังสร้างเครื่องจักรที่ไม่รู้แน่ชัดว่า มันทำงานอย่างไรแน่?
AI จะกลายเป็นอสูรร้ายที่แว้งกลับมาทำร้ายมนุษย์ผู้สร้างมันหรือเปล่า?
แหล่งข้อมูล
https://www.facebook.com/turakij4.0/photos/a.698141950343830/2525351957622811/