เมื่อ ChatGPT อาจทำให้การดูดเงินในบัญชีทำได้ง่ายขึ้น

Share

Loading

ความแพร่หลายในการใช้งาน ChatGPT กำลังจะเพิ่มขึ้น เมื่อมีบริการจ่ายรายเดือนเพื่อเพิ่มความสะดวกในการใช้งาน เราเคยพูดถึงมาแล้วว่า ChatGPT ทำอะไรได้บ้าง วันนี้เราจะมาลองดูว่ามิจฉาชีพแบบแก๊งค์คอลเซ็นเตอร์สามารถนำไปใช้ในทิศทางใด

ถึงวันนี้คาดว่าปัจจุบันทุกท่านน่าจะรู้จัก ChatGPT แชทบ็อท AI ทรงพลังที่สามารถนำไปใช้งานได้หลากหลายสาขา ล่าสุด ChatGPT Plus บริการ subscription ที่ให้ผู้ใช้เสียค่าบริการรายเดือน เพื่อปลดล็อกศักยภาพของปัญญาประดิษฐ์ก็เปิดให้บริการในราคาเดือนละ 20 ดอลลาร์(ราว 675 บาท) และคาดว่าคนมากมายคงเต็มใจจ่าย

แน่นอนหลายคนอาจรู้สึกยินดีในการมาถึงของเทคโนโลยีนี้เปิดให้บริการเต็มรูปแบบ แม้บางส่วนจะรู้สึกไม่สบายใจเพราะเอไออาจเข้ามาแทนที่ตำแหน่งงานของตน แต่ล่าสุดยังมีเรื่องน่ากังวลยิ่งกว่า เมื่อแชทบ็อทที่ได้รับการพัฒนากันครึกโครมปัจจุบัน อาจถูกนำไปใช้ซ้ำเติมปัญหาการถูกดูดเงินจากบัญชีให้ร้ายแรงยิ่งขึ้น

แต่ก่อนอื่นคงต้องย้อนความกันเสียหน่อยว่า ปัญหาการหลอกโอนเงินในบัญชีปัจจุบันเป็นอย่างไร

การทำธุรกรรมออนไลน์ที่มาพร้อมเรื่องน่าหนักใจ

นับแต่ความก้าวหน้าของเทคโนโลยีนำไปสู่การเกิดแอปพลิเคชั่นทำธุรกรรมออนไลน์ โทรศัพท์มือถือจึงไม่ได้เป็นเพียงอุปกรณ์ติดต่อสื่อสารแต่ยิ่งทวีความสำคัญ ด้วยความเข้าถึงและใช้งานง่ายนี้เองที่ทำให้เกิดพิษภัย เพราะเป็นการง่ายที่อุปกรณ์เหล่านี้จะถูกแทรกแซงจากภายนอกเพื่อขโมยเงินในบัญชี

อาชญากรรมประเภทนี้เกิดขึ้นแพร่หลายเป็นวงกว้างจากการผลักดันให้ไทยเข้าสู่สังคมไร้เงินสด การมาถึงของคอลเซ็นเตอร์ที่หลอกสอบถามข้อมูลส่วนตัว การเข้ามาพูดคุยตีสนิทเพื่อโน้มน้าวให้โอนเงิน หรือการส่งลิงค์ให้ลงแอปพลิเคชั่นควบคุมมือถือโดยตรง นำไปสู่การสูญเงินเก็บภายในบัญชีที่เชื่อมโยงกับมือถือเราในไม่กี่นาที

จากสถิติของธนาคารแห่งประเทศไทยพบว่า ในปี 2021 การหลอกลวงผ่านช่องทางโทรศัพท์เพิ่มขึ้นจากปีก่อนถึง 270% เช่นเดียวกับการส่งข้อความสั้น SMS เพื่อหลอกลวงก็เพิ่มขึ้นถึง  57% นำไปสู่การเกิดผู้เสียหายจำนวนกว่า 1,600 รายและความเสียหายมูลค่านับพันล้านบาท

แน่นอนว่านี่ใม่ใช่เรื่องที่เกิดเฉพาะในไทย ทั่วโลกเองก็กำลังประสบปัญหา แต่ความพยายามในการปราบปรามทำได้ยาก เนื่องจากส่วนมากกลุ่มอาชญากรรมเหล่านี้ล้วนมาจากต่างชาติ ทำให้การเข้าจับกุมกวาดล้างติดขัดไม่เกิดประสิทธิภาพ กลายเป็นปัญหาเรื้อรังในหลายประเทศที่ต้องหาทางแก้ไขกันต่อไป

และเรื่องอาจเลวร้ายยิ่งขึ้นจากการมาถึงของเทคโนโลยีปัญญาประดิษฐ์ที่พาเหรดกันออกมา

แนวโน้มการใช้งาน ChatGPT โดยมิจฉาชีพ

สิ่งหนึ่งที่เราจำเป็นต้องเข้าใจคือ แก๊งค์คอลเซ็นเตอร์และกลุ่มที่ต้องการหลอกให้โอนเงินพัฒนาอย่างต่อเนื่อง มีการปรับใช้เทคโนโลยีเพิ่มความแนบเนียนในการเข้าหาตลอดเวลา ตั้งแต่การสืบหาข้อมูลเป้าหมายล่วงหน้า พัฒนาแอปเพื่อให้สามารถดูดเงินออกจากเครื่องอย่างรวดเร็ว หรือแม้แต่การปลอมเสียงคนรู้จักเพื่อหลอกลวงให้ทำการโอนเงิน

สิ่งเหล่านี้แสดงให้เห็นว่ากลุ่มคอลเซ็นเตอร์ทั้งหลายรู้เท่าทันเทคโนโลยีเป็นอย่างดี ด้วยเหตุนี้เมื่อมีการเปิดตัวให้บริการของเทคโนโลยีรุ่นใหม่ เป็นไปได้สูงว่าอาจถูกนำไปใช้งานในทางผิดกฎหมาย กลายเป็นอีกหนึ่งเครื่องมือในการหลอกลวงของมิจฉาชีพ

เทคโนโลยีล่าสุดที่ได้รับความสนใจอย่างแชทบ็อท ก็มีการประกาศเปิดตัวมากมาย ตั้งแต่ ChatGPT ของ Microsoft, Bard ของ Google หรือ ERINE ของ Baidu เอง เมื่อเปิดให้ทุกคนเข้าถึงและใช้งานได้อิสระจึงมีแนวโน้มสูงที่อาจถูกนำไปส่งเสริมอาชญากรรมรูปแบบต่างๆ เช่น

– การพัฒนามัลแวร์ เราทราบดีว่า ChatGPT มีความสามารถในการเขียนโปรแกรม แม้มีการจำกัดการเข้าถึงข้อมูลที่เป็นอันตราย แต่เป็นไปได้ว่าอาจถูกนำไปใช้สนับสนุนการพัฒนามัลแวร์เพื่อโจมตีทางไซเบอร์ การพัฒนาโปรแกรมหรือแอปพลิเคชั่นอันตรายอาจทำได้สะดวกขึ้น ซึ่งจะยิ่งเพิ่มความเสี่ยงในการถูกดูดเงินมากขึ้นไปอีก

– การฟิชชิ่ง หรือการปลอมแปลงเพื่อสอบถามข้อมูลผ่านข้อความ เป็นกลุ่มที่บางครั้งถูกจับพิรุธได้ง่ายด้วยความผิดพลาดด้านการสะกดคำไปจนความถูกต้องของข้อมูล แต่เมื่อผ่านการปรับปรุงด้วย ChatGPT ช่องโหว่นี้อาจหายไป อีกทั้งยังทำให้แรงงานหนึ่งคนในธุรกิจนี้ สามารถรับมือลูกค้าได้มากและทำงานได้รวดเร็วขึ้นด้วยไม่ต้องนั่งคิดคำตอบ จึงอาจทำให้จำนวนของเหยื่อที่โดนหลอกเพิ่มสูงเป็นทวีคูณ

– สร้างตัวตนปลอม อีกหนึ่งแนวทางที่ได้รับความนิยมใช้คือ สร้างตัวตนปลอมเข้าไปตีสนิทให้เกิดความสนใจ จากนั้นโน้มน้าวให้เป้าหมายหลงเชื่อโอนเงินหรือกดลิงค์ที่กำหนด เดิมเป็นรูปแบบที่ทำได้ยากเพราะต้องใช้การรับมือเฉพาะเจาะจง แต่หากใช้ประโยชน์จาก ChatGPT ก็อาจสร้างโปรไฟล์ปลอมที่สามารถโต้ตอบสนทนากับเป้าหมายได้แนบเนียน เพิ่มความน่าเชื่อถือจนอาจทำให้เหยื่อถูกหลอกได้ในที่สุด

นี่เป็นเพียงแนวทางเบื้องต้นที่มีการพูดถึงโดยคร่าว ไม่แน่ว่าปัจจุบันอาจเริ่มมีการนำ ChatGPT ไปใช้งานในธุรกิจสีเทาแล้ว นั่นทำให้เราไม่อาจคาดเดาได้เลยว่าการมาถึงของเทคโนโลยีนี้ จะเพิ่มจำนวนเหยื่อและความเสียหายทางการเงินของประเทศได้อีกมากขนาดไหน

ปัญญาประดิษฐ์ชนิดอื่นที่อาจถูกนำไปใช้ในทางผิด

เราทราบดีว่าเทคโนโลยีเอไอไม่ได้มีเพียงแชทบ็อทแบบ ChatGPT บนโลกเรามีเทคโนโลยีจากปัญญาประดิษฐ์หลายแขนง มีทั้งที่เป็นประโยชน์ในชีวิตประจำวัน บ้างสามารถช่วยรักษาชีวิตคน แต่บางส่วนอาจถูกพัฒนาไปใช้เชิงอาชญากรรมได้เช่นกัน

ตัวอย่างของเทคโนโลยีปัญญาประดิษฐ์ที่อาจทำให้เกิดปัญหา เช่น การทำ Deepfake แนวทางการปลอมแปลงภาพและเสียง จากการเก็บรวบข้อมูลจากไฟล์ภาพและวีดีโอ จากนั้นเอไอจะทำการสร้างภาพใบหน้าที่สามารถขยับปากตามการสนทนาได้สมจริง ซึ่งสามารถมองออกได้ยากแม้แต่ระดับผู้เชี่ยวชาญ

นั่นทำให้ในอนาคตเมื่อเทคโนโลยีนี้แพร่หลายอาจถูกนำไปใช้โดยกลุ่มคอลเซ็นเตอร์ โดยอาจปลอมแปลงเป็นบุคคลมีชื่อเสียงหรือสร้างเจ้าหน้าที่รัฐตัวปลอมขึ้นมาเพื่อตบตาเหยื่อ จากนั้นจึงใช้การวีดีโอคอลชักจูงให้หลงเชื่อแล้วหลอกไปสู่ช่องทางโอนเงินในที่สุด

อีกหนึ่งเอไอที่อาจสร้างปัญหาได้เช่นกันคือ เอไอที่มีความสามารถในการลอกเลียนเสียง เช่น VALL-E อีกหนึ่งปัญญาประดิษฐ์ของ Microsoft กับความสามารถในการเลียนแบบเสียงของใครก็ได้ ขอเพียงมีเสียงต้นแบบให้เรียนรู้เพียง 3 วินาที ก็จะสามารถจำลองเสียงเป้าหมายที่ต้องการปลอมแปลงออกมาได้สมจริง

นี่ทำให้เราสามารถสร้างเสียงสนทนาของใครก็ได้ ขอเพียงมีตัวอย่างเสียงสนทนาการพูดคุย ตั้งแต่คนดัง เจ้าหน้าที่รัฐ ไปจนญาติมิตรคนสนิทของเหยื่อ สามารถทำให้เกิดการชักจูงโน้มน้าวหรือหลอกล่อเหยื่อให้หลงกลได้โดยง่าย จนอาจทำให้เกิดความวุ่นวายขนานใหญ่ในสังคม

จริงอยู่เทคโนโลยีทั้งสองอาจไม่แพร่หลายหาใช้ได้ง่ายเท่าแชทบ็อทแบบ ChatGPT อีกทั้งเอไอบางตัวอย่าง VALL-E ก็ยังไม่มีกำหนดในการเปิดใช้งาน แต่เราก็จำเป็นต้องเตรียมการหรือมองหาทางรับมือ เพราะเชื่อว่านี่จะเป็นสิ่งที่เกิดขึ้นในอนาคต

ปัจจุบันหลายประเทศรวมถึงไทยยังคงพยายามอุดช่องโหว่ ทั้งในทางกฎหมายและระบบเพื่อแก้ไขปัญหานี้อย่างต่อเนื่อง ล่าสุดทางธนาคารแห่งประเทศไทยเตรียมให้แอปธนาคารยืนยันข้อมูลผู้ใช้งานเพิ่มเติม หากมีแนวโน้มการใช้งานผิดปกติ เช่น โอนเงินเป็นจำนวนมาก, โอนเงินความถี่สูง, ปรับเพิ่มวงเงินการใช้งาน ฯลฯ ต้องยืนยันตัวตนด้วยการสแกนใบหน้าหรือลายนิ้วมือแล้วเช่นกัน

คงต้องรอดูต่อไปว่าในอนาคตเราจะมีแนวทางรับมือเป็นรูปธรรมที่รับมือเรื่องพวกนี้ได้ในวันใด

แหล่งข้อมูล

https://www.posttoday.com/post-next/innovation/690980