อ่านข่าวของ BBC สตีเฟน ฮอว์กิงบอกว่าถ้าหากมนุษย์พัฒนาเทคโนโลยีปัญญาประดิษฐ์ไปเรื่อยๆจนถึงขั้นสูงสุด อาจทำให้มนุษย์เจอกับจุดจบได้ อยากทราบครับว่ามันจริงแท้แค่ไหนที่ว่าปัญญาประดิษฐ์อาจมีสิทธิ์เก่งกว่าคนถ้าหากในประมาณอีก 50 ปีข้างหน้ายังพัฒนาไปเรื่อยๆ (50 ปี ที่ว่าผมสมมติเอา) แล้วมันจะเป็นภัยอันตรายขนาดนั้นเลยหรอครับ ?
[Spoil] คลิกเพื่อดูข้อความที่ซ่อนไว้https://www.facebook.com/BBCThai/photos/a.1527194487501586.1073741828.1526071940947174/1586523314902036/?type=1&theater
ปัญญาประดิษฐ์ AI
[Spoil] คลิกเพื่อดูข้อความที่ซ่อนไว้