ปัญญาประดิษฐ์ AI

อ่านข่าวของ BBC สตีเฟน ฮอว์กิงบอกว่าถ้าหากมนุษย์พัฒนาเทคโนโลยีปัญญาประดิษฐ์ไปเรื่อยๆจนถึงขั้นสูงสุด อาจทำให้มนุษย์เจอกับจุดจบได้ อยากทราบครับว่ามันจริงแท้แค่ไหนที่ว่าปัญญาประดิษฐ์อาจมีสิทธิ์เก่งกว่าคนถ้าหากในประมาณอีก 50 ปีข้างหน้ายังพัฒนาไปเรื่อยๆ (50 ปี ที่ว่าผมสมมติเอา) แล้วมันจะเป็นภัยอันตรายขนาดนั้นเลยหรอครับ ?

[Spoil] คลิกเพื่อดูข้อความที่ซ่อนไว้
แสดงความคิดเห็น
โปรดศึกษาและยอมรับนโยบายข้อมูลส่วนบุคคลก่อนเริ่มใช้งาน อ่านเพิ่มเติมได้ที่นี่