สำหรับคนทั่วไป คำว่า Turing test เป็นคำที่อาจเคยได้ยินแต่ไม่รู้ว่าคืออะไรกันแน่ แต่ถ้าให้อธิบายง่ายๆ มันคือการทดสอบมนุษย์ว่าสามารถแยกคอมพิวเตอร์ออกจากมนุษย์ได้หรือไม่ โดยในการทดสอบนี้คอมพิวเตอร์จะปลอมเป็นมนุษย์และบททดสอบคือมนุษย์จะรู้หรือไม่ว่าตนกำลังมีปฏิสัมพันธ์กับคอมพิวเตอร์อยู่ ซึ่งถ้ามนุษย์ไม่รู้ เราก็จะบอกว่าคอมพิวเตอร์ที่ว่านั้นผ่านใน Turing test
ดังนั้นการบอกว่าอะไรที่ผ่าน Turing test เราก็พูดได้อีกแบบว่าสิ่งนั้นปลอมเป็นมนุษย์ได้เหมือนจนแยกไม่ออก
ประเด็นเหล่านี้เคยเป็นเรื่องที่ไม่ใช่ส่วนหนึ่งของชีวิตคนทั่วไปแน่ๆ แต่ในยุคของ Generative AI ที่เนื้อหาที่ AI สร้างมีอยู่ทั่วอินเทอร์เน็ต เอาจริงๆ คือเราก็ถูกทดสอบตลอดเวลาว่าเราสามารถแยกเนื้อหาที่ AI สร้างออกจากเนื้อหาที่มนุษย์สร้างได้หรือไม่
เรื่องพวกนี้สำหรับหลายคนมันเป็นปัญหาทางศีลธรรมที่ต้องถกเถียงกัน แต่สำหรับหลายๆ วิชาชีพนี่อาจเป็นปัญหาทางวิชาชีพ โดยเฉพาะคนที่ต้องตรวจงานของคนอื่นๆ โดยที่ไม่รู้ว่างานที่ส่งมาคือฝีมือของ AI หรือไม่
และอาชีพที่ต้องเจอปัญหานี้หนักที่สุด คืออาชีพที่มีหน้าที่ฝึกฝนมนุษย์อย่างอาจารย์มหาวิทยาลัย
ถ้าใครได้คุยกับอาจารย์มหาวิทยาลัยก็น่าจะพอรู้ว่าทุกวันนี้อาจารย์มหาวิทยาลัยปวดหัวมากเวลาสั่งงานนักศึกษา เพราะการใช้ ChatGPT ทำงานมาส่งคือเรื่องปกติมาก และแม้แต่ ‘โปรแกรมตรวจการลอกงาน’ จะมีการอัปเกรดเพื่อตรวจจับงานพวกนี้ แต่นี่ก็เป็นเกมแบบแมวจับหนู เพราะทุกครั้งที่พวกโปรแกรมอย่าง ChatGPT ทำการอัปเกรด พวกโปรแกรมตรวจก็จะตรวจไม่เจอ อย่างน้อยๆ ก็จนว่าจะอัปเกรดตาม
ในภาวะแบบนี้ คำถามสำคัญสำหรับชีวิตมหาวิทยาลัยก็คือ แล้วอาจารย์มหาวิทยาลัยเองจะสามารถแยกแยะคำตอบฝีมือ ChatGPT ด้วยตาเปล่าและวิจารณญาณของตนได้หรือไม่? และก็มีนักวิจัยไปทดลองจริงๆ โดยทำการวิจัยโดยการสวมรอยเป็นนักศึกษาที่ใช้ ChatGPT เขียนข้อสอบแบบเทคโฮมส่งอาจารย์ในวิชาจิตวิทยาที่มหาวิทยาลัยรีดดิง (University of Reading) สหราชอาณาจักร โดยผลวิจัยนี้ตีพิมพ์ออนไลน์ในวารสาร PLOS ONE ช่วงปลายเดือนมิถุนายน 2024
ผลรวมๆ คือ อาจารย์ในวิชานั้นจับได้เพียง 6 เปอร์เซ็นต์ ของบรรดาข้อสอบฝีมือ ChatGPT และในพวกที่จับไม่ได้ อาจารย์มักจะให้เกรดข้อสอบฝีมือ ChatGPT สูงกว่านักศึกษาจริงๆ เสียอีก
จะบอกว่างานวิจัยนี้ทำสิ่งที่คนรู้อยู่แล้วก็ได้ แต่ประเด็นคือ พอวิจัยออกมาแบบนี้มันไม่ใช่การเดาสุ่ม หรือเรื่องที่คุยกันตามระเบียงหรือวงเหล้า แต่มันเป็นงานวิจัยที่สามารถสถาปนาข้อเท็จจริงทางวิชาการให้หนาแน่น เพื่อจะคุยกันต่อได้
หรือพูดง่ายๆ ก็คือ งานชิ้นนี้กำลังบอกว่า นักศึกษาใช้ ChatGPT เขียนงานส่งอาจารย์กันเป็นปกติ อาจารย์นอกจากจะไม่รู้แล้ว ก็ยังให้เกรดงานพวกนี้ดีกว่างานที่นักศึกษาเขียนมาด้วยความรู้และมือของตัวเองอีกด้วย
งานมันโยนคำถามมาว่า ถ้าทุกคนรู้ว่าสถานการณ์เป็นแบบนี้แล้วจะยังไงต่อ การมาสอนศีลธรรมว่านักศึกษาควรจะเขียนงานด้วยตัวเองมัน ‘ไม่ได้ผล’ ไม่ได้ต่างจากบรรดาคำสอนศีลธรรมทั้งหลายในโลกที่เราตระหนักได้ง่ายๆ ว่าอะไรที่นักศีลธรรมชอบห้าม ก็แสดงว่ามันเป็นสิ่งที่ผู้คนทำกันเป็นปกติ
เพราะถ้าคุยกับอาจารย์มหาวิทยาลัยหัวก้าวหน้าหน่อย เขาก็จะเริ่มออกแบบบททดสอบมาโดยคาดหวังว่า ChatGPT จะเป็น ‘เครื่องมือ’ หนึ่งที่นักศึกษาจะใช้ทำบททดสอบ ไม่ได้ต่างจาก Google หรือ Wikipedia ซึ่งถ้าคิดแบบนี้แต่แรก โจทย์มันจะยากกว่าเดิม และมันต้องใช้ทักษะพอสมควรเพื่อสกัดคำตอบออกมาจาก ChatGPT
โหดไปเลยก็อาจให้โจทย์แล้วปิดท้ายว่า ‘จงเขียน Prompt สำหรับ ChatGPT เพื่อให้ได้มาซึ่งคำตอบที่ถูกต้องของโจทย์’ เพราะสุดท้ายอาจารย์มหาวิทยาลัยสมัยนี้ก็อาจต้องยอมรับแล้วว่ายังไงนักศึกษาส่วนใหญ่ก็จะหาคำตอบแบบนี้ การฝืนไปนั้นไม่มีประโยชน์ ไม่ได้ต่างจากอาจารย์สัก 20-30 ปีก่อนที่ต้องการจะให้นักศึกษาเข้าห้องสมุดค้นคำตอบมากกว่าจะไป ‘ค้นหา’ ในอินเทอร์เน็ต ซึ่งในความเป็นจริงมันเป็นสิ่งที่ห้ามกันไม่ได้หรอก
แหล่งข้อมูล
https://www.facebook.com/photo/?fbid=1041448807543455&set=a.811136570574681