AI เลียนเสียงหลอกเป็นคนใกล้ชิด มันเป็นความจริงรึครับ

เมื่อวาน มีการส่งต่อข้อความเสียงสนทนา ว่ามีคนปลอมเสียงเป็นลูกสาว โทรคุยเพื่อให้พ่อโอนเงินให้ 
หลายวันก่อน มีข่าว ก้อง วิทยา โดนโทรหลอกว่าเป็นน้องสาว แล้วดูดเงินไป

ขอความเห็นหน่อยว่า  ในทางปฏิบัติ มิจจะใช้AI เพื่อปลอมเสียงแบบเรียลไทม์ แล้วมาหลอกเป้าหมายที่เป็นญาติกับเจ้าของเสียง จริงหรือ
คำตอบที่ได้รับเลือกจากเจ้าของกระทู้
ความคิดเห็นที่ 22
สามารถใช้ AI ปลอมเสียงได้

แต่ระดับแก๊งคอลเซนเตอร์ จะเอา AI มาใช้ปลอมเสียงตาสีตาสา/ปลอมเป็นเสียงเพื่อนสนิท เสียงญาติพี่น้อง เสียงลูกหลานเหลน ฯลฯ เพื่อหลอกคนธรรมดาทั่วไป ยังไม่มีหรอก

เพราะมันยังยาก ยังใช้เวลาต่อเคสนานมาก ไม่คุ้มค่าที่จะทำเลย

ด้วยความที่มันยังทำได้อย่างยากเย็นแสนเข็ญขนาดนั้น ถ้าจะให้คุ้มคงเอาไว้หลอกเป้าหมายที่เป็นระดับสำคัญจริงๆโน่นแหละ

มิจฉาชีพทั่วไปเลยจะไม่เลือกวิธีการปลอมเสียงเป็นญาติ/คนใกล้ชิด มาหลอกคนทั่วไป

แต่เป็นไปได้ว่าต่อไปอาจมีการปลอมเสียงโดยใช้เสียงต้นแบบจากคนพูดที่มีชื่อเสียงโด่งดังในสังคมมาใช้หลอกคนทั่วไป ซึ่งตอนนี้ยังไม่เจอ แต่ไม่นานจากนี้อาจจะมีก็ได้นะ



9อาร์ม ทดสอบแล้ว โดยเอาเสียงของตนเองเป็นต้นแบบให้ AI จำลองเสียงในแบบต่างๆ ดูว่าผลลัพธ์ที่ได้จาก AI ยุคนี้คือประมาณไหน

คลิกเพื่อดูคลิปวิดีโอ

ต้องดูคลิปเองจะได้เข้าใจ และจะหายกังวลกับข้อมูลหลายต่อหลายเรื่องที่ถูกแชร์ต่อๆกันมา เพราะถ้าหลงเข้าใจว่าความเท็จเป็นเรื่องจริง แล้วส่งความเท็จต่อๆกันไป  ก็คือคุณโดนจดหมายลูกโซ่/รูปแบบหนึ่งของมิจฉาชีพหลอกเข้าแล้ว

มีสติรู้เท่าทันให้มาก ไม่หลงเข้าร่วมกับเรื่องหลอกลวงใดๆแม้เล็กๆ จะช่วยป้องกัน/ลดโอกาส ไม่ให้พลาดตกเป็นเหยื่อถูกหลอกลวงให้เสียหายใหญ่โตกว่านี้ได้

.
แสดงความคิดเห็น
โปรดศึกษาและยอมรับนโยบายข้อมูลส่วนบุคคลก่อนเริ่มใช้งาน อ่านเพิ่มเติมได้ที่นี่