ก.ล.ต. เตือนภัย! มิจฉาชีพใช้ AI Deepfake ปลอมหน้า-เสียงคนดัง หลอกชวนลงทุน
ก.ล.ต. ออกประกาศเตือนภัยคลิปโฆษณาหลอกลงทุนที่ใช้เทคโนโลยี AI Deepfake ปลอมแปลงภาพและเสียงของบุคคลมีชื่อเสียง แนะตรวจสอบข้อมูลก่อนลงทุนทุกครั้ง โทร 1207 กด 22
สำนักงานคณะกรรมการกำกับหลักทรัพย์และตลาดหลักทรัพย์ (ก.ล.ต.) ออกประกาศเตือนประชาชนเมื่อวันที่ 17 มีนาคม 2568 ให้ระวังคลิปโฆษณาชวนลงทุนที่ใช้เทคโนโลยี AI Deepfake (การปลอมแปลงใบหน้าและเสียงด้วยปัญญาประดิษฐ์) ปลอมแปลงภาพและเสียงของบุคคลมีชื่อเสียง เพื่อสร้างความน่าเชื่อถือและหลอกลวงนักลงทุน พร้อมแนะนำให้ประชาชนตรวจสอบข้อมูลและแจ้งเบาะแสผ่านสายด่วน 1207 กด 22
ก.ล.ต. ส่งสัญญาณเตือน มิจฉาชีพอัปเกรดกลโกง ใช้ AI ปั้นหน้าคนดัง
สำนักงาน ก.ล.ต. (คณะกรรมการกำกับหลักทรัพย์และตลาดหลักทรัพย์ หน่วยงานกำกับดูแลตลาดทุนของประเทศไทย) ออกมาส่งสัญญาณเตือนภัยผ่านโซเชียลมีเดียอย่างเป็นทางการ ระบุว่า ขณะนี้มีการแพร่ระบาดของคลิปโฆษณาหลอกลงทุนรูปแบบใหม่ ที่อาศัยเทคโนโลยี AI Deepfake (ปัญญาประดิษฐ์ที่สามารถสร้างหรือแก้ไขภาพและเสียงให้ดูสมจริงจนแยกแทบไม่ออก) ในการปลอมแปลงใบหน้าและเสียงของบุคคลที่มีชื่อเสียง เพื่อสร้างความน่าเชื่อถือและชักจูงให้ประชาชนตกเป็นเหยื่อ
กลโกงดังกล่าวมักอยู่ในรูปแบบวิดีโอที่ดูเหมือนว่าผู้มีชื่อเสียงหรือผู้เชี่ยวชาญด้านการเงินกำลังแนะนำการลงทุนที่ "ให้ผลตอบแทนสูง" โดยมีลิงก์ชวนกดเข้ากลุ่มหรือเว็บไซต์ที่ตั้งขึ้นมาหลอกลวง ซึ่งเมื่อโอนเงินเข้าไปแล้วก็มักสูญเงินโดยไม่สามารถเรียกคืนได้
3 ข้อห้ามที่ ก.ล.ต. ย้ำเตือนอย่างเร่งด่วน
ก.ล.ต. ระบุแนวปฏิบัติที่ประชาชนต้องระวังไว้อย่างชัดเจน ดังนี้
- 🚫 อย่ากดลิงก์เข้ากลุ่มหรือเว็บไซต์ ที่ส่งมาทางออนไลน์โดยที่ยังไม่ได้ตรวจสอบแหล่งที่มา
- 🚫 อย่าโอนเงิน ไปยังบัญชีที่ไม่ผ่านการตรวจสอบ ไม่ว่าจะมีการรับประกันผลตอบแทนมากเพียงใด
- ✅ ตรวจสอบข้อมูลก่อนลงทุนทุกครั้ง โดยสามารถตรวจสอบรายชื่อผู้ประกอบธุรกิจที่ได้รับอนุญาตอย่างถูกกฎหมายได้ที่เว็บไซต์ ก.ล.ต. โดยตรง
หากไม่แน่ใจ โทรเช็คก่อน!
ก.ล.ต. ย้ำว่าหากมีข้อสงสัยหรือต้องการรายงานเบาะแสเกี่ยวกับการหลอกลงทุน สามารถติดต่อได้ที่ สายด่วนแจ้งหลอกลงทุน โทร. 1207 กด 22 ซึ่งเปิดให้บริการเพื่อช่วยเหลือประชาชนโดยเฉพาะ
พูดง่ายๆ ก็คือ ในยุคที่ AI สามารถปั้นหน้าปลอมเสียงได้อย่างแนบเนียน การตรวจสอบข้อมูลก่อนตัดสินใจลงทุนจึงสำคัญกว่าที่เคยเป็นมา
📎 ข่าวที่เกี่ยวข้องจาก Bitcoinaddict.com: เหตุการณ์นี้สืบเนื่องจากที่เราเคยรายงานไว้ก่อนหน้านี้เรื่องภัยคุกคามออนไลน์ที่เพิ่มสูงขึ้น 👉 10 วิธีป้องกันมิจฉาชีพออนไลน์ ระวังตัวไม่ให้โดนโกงยังไงดี 👉 จะป้องกันการโกงเหรียญคริปโตได้อย่างไรบ้าง | รู้ทันกลโกงเหรียญ
🔗 อ้างอิงต้นฉบับ: Facebook สำนักงาน ก.ล.ต. (กลต.)
💬 ความเห็นบรรณาธิการ Bitcoinaddict การที่มิจฉาชีพหันมาใช้ AI Deepfake ในการหลอกลงทุนถือเป็นสัญญาณที่น่าจับตามองอย่างมาก เพราะเทคโนโลยีนี้ทำให้ "ของปลอม" ดูน่าเชื่อถือมากกว่าที่เคย ในโลกของสินทรัพย์ดิจิทัลที่ยังอยู่ในช่วงการสร้างความเชื่อมั่น ภัยลักษณะนี้ยิ่งทำให้การศึกษาและตรวจสอบข้อมูลก่อนลงทุนทุกครั้งเป็นสิ่งที่ขาดไม่ได้ ทีมงาน Bitcoinaddict ขอสนับสนุนการเตือนภัยของ ก.ล.ต. และเป็นกำลังใจให้ทุกคนใช้ความรอบคอบเสมอ — น่าจับตามองว่าหน่วยงานกำกับดูแลไทยจะมีมาตรการเพิ่มเติมในการรับมือกับ AI Scam ในระยะต่อไปอย่างไร
Tags / คีย์เวิร์ด SEO: ก.ล.ต. เตือนภัย, AI Deepfake หลอกลงทุน, คลิปปลอมคนดัง, มิจฉาชีพออนไลน์, สายด่วน 1207, หลอกลงทุนคริปโต, ภัยไซเบอร์การเงิน
— รายงานโดยทีมข่าว Bitcoinaddict.com