ตำรวจไซเบอร์เตือน เป็นวีดีโอคอลก็อย่าไว้ใจ! มิจฉาชีพใช้ AI ปลอมใบหน้าสวมรอยบุคคลอื่น

92

5 มี.ค. 68 – ตำรวจไซเบอร์ – บช.สอท. เตือนภัย ระวัง! AI กับมิจฉาชีพ อาจทำให้คุณหลงเชื่อ แม้จะเป็นวีดีโอคอลก็อย่าไว้ใจ

AI ปลอมใบหน้า (Deepfake) คือ เทคโนโลยีที่ใช้ปัญญาประดิษฐ์ในการสร้างหรือแก้ไขใบหน้าผู้คนในภาพหรือวีดีโอให้เหมือนจริง ซึ่งมิจฉาชีพอาจนำเทคโนโลยีนี้มาหลอกลวงผู้คนโดยการสร้างวีดีโอปลอมของบุคคลที่มีชื่อเสียงหรือคนรู้จัก เพื่อขอข้อมูลส่วนตัวหรือเงินจากผู้ที่ถูกหลอก

ดังนั้นอย่าเชื่อทุกอย่างที่เห็นในวิดีโอ การตัดต่อและเทคโนโลยี AI สามารถสร้างภาพหรือเสียงที่ดูเหมือนจริงได้ หากมีข้อสงสัย ให้หยุดและตรวจสอบข้อมูลเพิ่มเติม

วิธีสังเกตและป้องกันภัยจากมิจฉาชีพที่ใช้ AI และเทคโนโลยีหลอกลวง:
1. ระวังการขอข้อมูลส่วนตัว หากมีการขอข้อมูลส่วนตัวหรือข้อมูลทางการเงิน ควรระมัดระวังและไม่ให้ข้อมูลทันที
2. ตรวจสอบแหล่งที่มา ให้ตรวจสอบแหล่งที่มาหรือหมายเลขโทรศัพท์ของผู้ติดต่อก่อน
3. อย่ารีบทำธุรกรรมทางการเงิน หากมีการขอให้โอนเงินหรือทำธุรกรรมทันทีจากคนที่ไม่รู้จัก อย่าทำการโอนจนกว่าจะยืนยันข้อมูลหรือถามคำปรึกษาจากคนใกล้ชิด
4. ใช้การยืนยันตัวตนแบบสองขั้นตอน ตั้งค่าการยืนยันตัวตนสองขั้นตอน (Two-Factor Authentication) ในบัญชีออนไลน์เพื่อเพิ่มความปลอดภัย
5. เรียนรู้เกี่ยวกับเทคโนโลยี AI ทำความเข้าใจเกี่ยวกับเทคโนโลยี AI และการใช้งาน เพื่อให้สามารถแยกแยะระหว่างสิ่งที่เป็นจริงและสิ่งที่เป็นการหลอกลวงได้

การระมัดระวังและไม่เชื่อถือข้อมูลจากแหล่งที่ไม่คุ้นเคยเป็นวิธีที่ดีที่สุดในการป้องกันตัวจากมิจฉาชีพ

481259483 939136878398704 8405215785662819689 n