เปิดสูตรจับผิด Deepfake AI หลังมีคนใช้ปลอมหน้า-แปลงเสียง ก่ออาชญากรรม

ตำรวจสอบสวนกลาง เปิดเผย 7 วิธีจับผิดการปลอมแปลงเสียง-ใบหน้า ที่ผ่านการใช้ Deepfake AI หลังมีผู้ใช้ก่ออาชญากรรม ย้ำ ตรวจสอบทุกครั้งก่อนเผยแพร่สู่สังคม

ปัจจุบัน เทคโนโลยีปัญญาประดิษฐ์หรือ AI ถูกใช้แพร่หลายมากขึ้น ซึ่งนอกจากจะมีการใช้งานอย่างสร้างสรรค์หรือช่วยอำนวยความสะดวกให้กับเราแล้ว ยังมีการนำมาใช้งานในทางที่ไม่ถูกต้อง เช่น การก่ออาชญากรรมออนไลน์ หรือการละเมิดสิทธิส่วนบุคคล ผ่านการปลอมแปลงเป็นคนอื่น ๆ โดยเทคโนโลยี AI ที่ถูกพบว่านำมาใช้ในการก่ออาชญากรรมมากคือ Deepfake AI หรือ AI ปลอมแปลงใบหน้า และน้ำเสียง ซึ่งมีความสมจริงมาก
ด้วยเหตุนี้ กองบัญชาการตำรวจสอบสวนกลาง จึงออกมาให้ความรู้เกี่ยวกับวิธีสังเกตระหว่างคนจริง กับ Deepfake AI

เปิด 7 สูตรจับผิด Deepfake AI หลังมีคนใช้ก่ออาชญากรรม
 
วิธีสังเกต "เสียง"
 
จังหวะการเว้นวรรคคำพูด : เสียงพูดจาก AI จะไม่มีอารมณ์หรือความรู้สึก เสียงจึงไม่มีจังหวะหยุด ไม่มีเว้นวรรคจังหวะหายใจ และจะพูดประโยคยาว
น้ำเสียงราบเรียบ : เสียงจาก AI ที่มิจฉาชีพใช้จะมีเสียงที่ราบเรียบ ไม่มีการเน้นน้ำหนักเสียง หรือความสำคัญของคำ

คำทับศัพท์ : เสียงจาก AI จะพูดคำศัพท์เฉพาะไม่ค่อยชัด คำบางคำเวลาออกเสียง จะมีความผิดเพี้ยนไปบ้าง เนื่องจาก AI อาจยังไม่สามารถออกเสียงวรรณยุกต์ เสียงสูง-ต่ำ ได้ในบางคำ
 

วิธีสังเกต "ใบหน้า"
 
สังเกตการขยับริมฝีปาก : หากเป็นคลิปสร้างจาก AI การขยับปากของคนในคลิปจะไม่สอดคล้องกับเสียงในวิดีโอ และดูไม่เป็นธรรมชาติ
ใบหน้า : มีลักษณะที่ผิดสัดส่วนธรรมชาติ โดยเฉพาะเมื่อก้มเงยหน้าหรือหันซ้ายหันขวา
สีผิวเข้ม หรือ อ่อนเป็นหย่อมๆ : แสงและเงาบริเวณผิวไม่สอดคล้องต่อการเคลื่อนไหว
การกะพริบตาถี่เกินไป หรือน้อยเกินไป : ดูไม่เป็นธรรมชาติ
 
โดยเทคโนโลยี Deepfake AI กลุ่มมิจฉาชีพได้นำมาใช้เป็นเครื่องมือในการแอบอ้างเป็นบุคคลอื่น เพื่อประโยชน์ หลอกลวงให้โอนเงิน สร้างโพสต์ปลอม ข้อความปลอม ความคิดเห็นปลอม และสร้างโปรไฟล์ปลอม บนสื่อโซเชียลมีเดีย กลายเป็นข่าวปลอม (Fake News) ทำให้สังคมเกิดความเข้าใจผิด
ตำรวจสอบสวนกลาง จึงขอเตือนประชาชน ว่าควรตรวจสอบข้อมูลทุกครั้งก่อนที่จะเชื่อ หรือแชร์ต่อ เพื่อให้มั่นใจว่า สิ่งที่เห็นเป็นเรื่องจริง จะได้ไม่เผยแพร่ข้อมูลปลอมสู่สังคม

Cr. https://www.pptvhd36.com/news/ไอที/219387

แสดงความคิดเห็น
โปรดศึกษาและยอมรับนโยบายข้อมูลส่วนบุคคลก่อนเริ่มใช้งาน อ่านเพิ่มเติมได้ที่นี่