Whoscall แอพมือถือที่ช่วยให้ผู้คนระบุสายโทรศัพท์และข้อความที่ไม่รู้จัก เปิดเผยว่าเมื่อปีที่แล้วคนไทยได้รับข้อความ SMS หลอกลวงมากที่สุดในเอเชีย
จากข้อมูลของ Whoscall พบว่าคนไทยได้รับข้อความ SMS และการโทรหลอกลวงถึง 79 ล้านข้อความในปีที่แล้ว ซึ่งคิดเป็นการเพิ่มขึ้น 18% จากจำนวนการโทรและข้อความทั้งหมด 66.7 ล้านครั้งในปี 2565 โดยเฉลี่ยแล้ว คนไทย 1 รายได้รับข้อความ SMS หลอกลวง 20.3 ข้อความต่อปี รองจากประเทศไทย ฟิลิปปินส์ได้รับข้อความโดยเฉลี่ย 19.3 ข้อความต่อคน ในขณะที่ชาวฮ่องกงได้รับข้อความโดยเฉลี่ย 16.2 ข้อความต่อคนในหนึ่งปี
ด้วยเหตุนี้ Cofact (Collaborative Fact Checking) องค์กรที่ต่อสู้กับข่าวปลอม จึงได้จัดฟอรัมในหัวข้อ “From Cheap Fakes To Deepfakes: Is Fact-Checking And Media Literacy Enough?” ณ หอศิลปวัฒนธรรมแห่งกรุงเทพมหานคร
ภิญโญ ตรีเพชรราภรณ์ ผู้อำนวยการฝ่ายกำกับดูแลความเสี่ยงด้านเทคโนโลยี ธนาคารแห่งประเทศไทย เริ่มต้นฟอรัมโดยอธิบายความแตกต่างระหว่างของปลอมราคาถูกและของปลอมที่ลึกล้ำ
“ของปลอมราคาถูกเป็นการหลอกลวงประเภทหนึ่งที่ใช้เทคโนโลยีง่ายๆ เช่น เครื่องมือแก้ไขภาพถ่ายหรือวิดีโอเพื่อปรับแต่งรูปลักษณ์ของคนดัง การปลอมแปลงราคาถูกมักเป็นพื้นฐาน ตัวอย่างเช่น พวกเขาอาจใช้ใบหน้าของคนดังและทำให้ดูเหมือนบุคคลนั้น กำลังพูดพร้อมขยับปาก แต่ใบหน้าที่เหลือกลับนิ่ง ในกรณีนี้ เป็นเรื่องง่ายที่คนจะบอกว่าภาพหรือวิดีโอได้รับการแก้ไขแล้ว” ภิญโญอธิบาย
ฐิตินันท์ สุทธินาราพันธ์ ผู้อำนวยการฝ่ายการตลาด Whoscall ยกตัวอย่างกลโกงที่ใช้ของปลอมราคาถูกที่หลายคนคุ้นเคย นั่นก็คือ วิดีโอคอลจากเจ้าหน้าที่ตำรวจ
“มิจฉาชีพมักจะแนะนำให้เหยื่อดาวน์โหลด Line และสื่อสารกับพวกเขาผ่านวิดีโอคอล โดยทั่วไปวิดีโอจะแสดงใบหน้านิ่งของเจ้าหน้าที่ตำรวจโดยมีเพียงริมฝีปากขยับ น่าเสียดายที่คนไทยจำนวนมากเชื่อของปลอมราคาถูกเหล่านี้และจบลงด้วยการสูญเสียทางการเงินอย่างมาก” ฐิตินันท์อธิบาย
“Deepfake มีเทคโนโลยีที่ซับซ้อนและ AI เพื่อทำให้รูปลักษณ์และเสียงของคนดังในคลิปวิดีโอคล้ายกับของจริง อย่างไรก็ตาม ยังมีข้อจำกัดเนื่องจาก Deepfake จำเป็นต้องรวมคลิปหลาย ๆ คลิปเพื่อสร้างวิดีโอที่มีประสิทธิภาพ ด้วยเหตุนี้ Deepfake ส่วนใหญ่ เป้าหมายคือบุคคลที่มีชื่อเสียงปรากฏตามสื่อ”
มาซาโตะ คาจิโมโตะ ศาสตราจารย์ที่ศูนย์ศึกษาวารสารศาสตร์และสื่อแห่งมหาวิทยาลัยฮ่องกง แบ่งปันข้อมูลที่ทำให้เกิดความกังวลเกี่ยวกับเทคโนโลยีปลอมและดีพเฟคราคาถูก
“Open AI ซึ่งเป็นองค์กรวิจัยปัญญาประดิษฐ์ได้ประกาศเมื่อเร็วๆ นี้ว่าพวกเขาสามารถสร้างเสียงของคุณได้หากมีตัวอย่าง 15 วินาที ยิ่งไปกว่านั้น พวกเขาอ้างว่าเทคโนโลยีของพวกเขาสามารถสร้างเสียงของบุคคลที่พูดได้หลายภาษา หากพวกเขามีการบันทึกเสียงของฉัน พวกเขาสามารถทำให้ฉันพูดภาษาไทยได้ นี่เป็นเทคโนโลยีที่ยอดเยี่ยม แต่คุณสามารถจินตนาการได้ว่ามันจะง่ายแค่ไหนที่จะหลอกผู้คน” ศาสตราจารย์คาจิโมโตะอธิบาย
เพื่อตอบสนองต่อปัญหา Deepfakes ที่เพิ่มมากขึ้น Google DeepMind ได้เปิดตัวเครื่องมือที่เรียกว่า SynthID Faith Chen หัวหน้าฝ่ายพันธมิตรข่าว APAC ที่ Google News Initiative อธิบายว่าเทคโนโลยีนี้ฝังลายน้ำดิจิทัลลงในรูปภาพและวิดีโอที่สร้างโดย AI แม้ว่าจะมองไม่เห็นด้วยตามนุษย์ แต่อัลกอริธึม AI สามารถตรวจจับลายน้ำนี้เพื่อตรวจสอบความคิดริเริ่มและพิสูจน์ได้ว่าไม่ได้มีการเปลี่ยนแปลง
“นี่เป็นเครื่องมือที่สามารถช่วยให้เราทุกคนใช้รูปภาพ AI เชิงสร้างสรรค์ในที่ทำงานหรือบน YouTube เราสามารถระบุได้อย่างง่ายดายว่า AI สร้างขึ้นอะไร” เฉินกล่าว
ผศ.เจษฎา ศาลาทอง คณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย พิธีกรตั้งคำถามที่น่าสนใจ เขากล่าวว่ากรณีการฉ้อโกงและการหลอกลวงในญี่ปุ่นปรากฏน้อยกว่าในประเทศไทย ศาสตราจารย์คาจิโมโตะถูกถามว่าคนในญี่ปุ่นมีความรู้ด้านสื่อมากกว่าในประเทศไทยหรือไม่
“ในญี่ปุ่น การหลอกลวงทางโทรศัพท์แบบดั้งเดิมยังคงแพร่ระบาด การบริโภคข่าวสารบนอินเทอร์เน็ตต่ำมาก มีคนน้อยกว่า 10% อ่านหรือแชร์ข่าวบนอินเทอร์เน็ต พวกเขายังคงพึ่งพาข่าวทีวีและวิทยุ หรือไม่ก็ไม่เชื่อ ใส่ใจข่าวสารเลย” ศ.คาจิโมโตะ กล่าว
“เหตุผลอีกประการหนึ่งคืออุปสรรคทางภาษา นักต้มตุ๋นจำนวนมากมาจากต่างประเทศ เป็นการยากที่จะหลอกคนที่ใช้ภาษาญี่ปุ่น อย่างไรก็ตาม เทคโนโลยี AI มีการพัฒนาอย่างต่อเนื่อง หากนักต้มตุ๋นสามารถแปลข้อความของตนเป็นภาษาญี่ปุ่นได้อย่างมีประสิทธิภาพ สถานการณ์อาจเปลี่ยนแปลงอย่างมีนัยสำคัญ”
เนื่องจากเทคโนโลยีการฉ้อโกงมีความก้าวหน้ามากขึ้น การรู้เท่าทันสื่อจึงมีความสำคัญ เฉินกล่าวว่าคนหนุ่มสาวและผู้สูงอายุเป็นกลุ่มที่เปราะบางที่สุด
“การรู้เท่าทันสื่อไม่ได้หมายความว่าคุณต้องรู้วิธีตรวจจับภาพที่ AI สร้างขึ้นจากภาพปกติ มันง่ายพอๆ กับการฝึกผู้สูงอายุและคนหนุ่มสาวให้มีเหตุผลและคิดอย่างมีวิจารณญาณเมื่อพวกเขาอ่าน ดู ฟัง หรือเห็นอะไรบางอย่าง โดยเฉพาะโซเชียลมีเดีย” เฉินกล่าว
เมื่อผู้ดำเนินรายการถามว่าผู้คนควรทำอย่างไรเพื่อป้องกันการถูกหลอกลวง ฐิตินันท์กล่าวว่าผู้คนควรตระหนักว่านักต้มตุ๋นใช้อารมณ์สามอย่างเพื่อบงการเหยื่อ: ความกลัว ความโลภ หรือความรัก นอกจากนี้ นายฐิตินันท์ยังชี้ให้เห็นว่าเทคโนโลยี Deepfake ในปัจจุบันมีราคาแพง แต่มีแนวโน้มว่าจะถูกลงและเข้าถึงได้มากขึ้น
“เมื่อสองเดือนก่อน พนักงานคนหนึ่งในบริษัทแห่งหนึ่งในฮ่องกงถูกฉ้อโกงด้วยวิดีโอปลอมของ CFO ที่สร้างโดย AI เพื่ออนุมัติการโอนเงินจำนวน 25 ล้านเหรียญสหรัฐ (920.5 ล้านบาท) เทคโนโลยี Deepfake มีราคาแพง แต่สามารถให้ข้อมูลที่สำคัญได้ หากำไรให้พวกหลอกลวง” ฐิตินันท์กล่าว
“หากผู้คนใช้แอพ Whoscall แอพจะแจ้งเตือนพวกเขาว่าหมายเลขโทรศัพท์ใดมาจากสแกมเมอร์ อย่างไรก็ตาม ตอนนี้สแกมเมอร์สามารถสร้างหมายเลขที่ตรวจจับได้ยาก ดังนั้นผู้คนควรตรวจสอบการโทรที่น่าสงสัยก่อนตัดสินใจโอนเงิน”
ภิญโญเน้นสโลแกนบนโปสเตอร์ที่สร้างโดย Cofact ซึ่งมีข้อความว่า “อย่าด่วนเชื่อ แบ่งปัน และ/หรือถ่ายโอน”
“เนื่องจากเทคโนโลยีในปัจจุบันมีความซับซ้อนมากขึ้น นักต้มตุ๋นจึงมีทักษะมากขึ้นในการใช้มันให้เป็นประโยชน์ ตัวอย่างเช่น พวกเขาสามารถส่งข้อความผ่านแพลตฟอร์มส่งข้อความเดียวกันกับธนาคาร” เขากล่าว
” ‘อย่าด่วนเชื่อ’ หมายความว่าคุณต้องยืนยันแหล่งที่มาก่อน เช่น หากคุณได้รับ SMS จากธนาคารขอให้คุณคลิกลิงก์ หลายๆ คนจะรู้ว่าธนาคารไม่ส่งข้อความ SMS พร้อมลิงก์ ให้กับลูกค้า อย่างไรก็ตาม บางคนอาจไม่ทราบเรื่องนี้ ควรโทรติดต่อธนาคารเพื่อยืนยันว่าได้ส่ง SMS ไปแล้วหรือไม่
” ‘อย่าด่วนโอน’ หมายความว่าคุณต้องระมัดระวังในการขอเงิน คุณควรตรวจสอบหมายเลขบัญชีธนาคารของผู้รับบนเว็บไซต์เช่น checkgon.com และ blacklistseller.com ทั้งสองเว็บไซต์อนุญาตให้คุณตรวจสอบโทรศัพท์ได้ หมายเลขหรือหมายเลขบัญชีเพื่อดูว่าผู้รับถูกแจ้งข้อหาหลอกลวงในอดีตหรือไม่ ผู้หลอกลวงมักมีกลอุบายใหม่ๆ และเราอาจไม่คุ้นเคยกับพวกเขาทั้งหมด ดังนั้น เราจึงต้องป้องกันตนเอง”