Amazon Apple Microsoft Meta และ Google ปรับปรุงการรู้จำคำพูดของ AI สำหรับผู้ทุพพลภาพ

กระทู้ข่าว
มหาวิทยาลัยอิลลินอยส์ (UIUC) ได้ร่วมมือกับ Amazon, Apple, Google, Meta, Microsoft และองค์กรไม่แสวงหากำไรในโครงการ Speech Accessibility จุดมุ่งหมายคือการปรับปรุงการรู้จำเสียงสำหรับกลุ่มผู้ที่มีความพิการและรูปแบบการพูดที่หลากหลายซึ่งที่ยังไม่ถูกพิจารณาโดยอัลกอริธึม Artificial Intelligence (AI) หรือ ปัญญาประดิษฐ์ ต่าง ๆ รวมถึงผู้ที่เป็นโรคกล้ามเนื้ออ่อนแรง ( ALS ) โรคพาร์กินสัน (Parkinson's disease) ภาวะโรคสมองพิการ (Cerebral Palsy) กลุ่มอาการดาวน์ หรือ ดาวน์ซินโดรม ( Down syndrome) และโรคอื่น ๆ ที่ส่งผลต่อการพูด

ศาสตราจารย์ Mark Hasegawa-Johnson มหาวิทยาลัยอิลลินอยส์ กล่าวว่า "อินเทอร์เฟซคำพูดควรมีให้สำหรับทุกคน และนั่นรวมถึงผู้ทุพพลภาพด้วย" "งานนี้เป็นเรื่องยากเพราะต้องใช้โครงสร้างพื้นฐานจำนวนมาก ซึ่งควรเป็นประเภทที่บริษัทเทคโนโลยีชั้นนำรองรับได้ ดังนั้นเราจึงได้สร้างทีมสหวิทยาการที่มีความเชี่ยวชาญด้านภาษาศาสตร์ คำพูด AI ความปลอดภัย และความเป็นส่วนตัว"

เพื่อคนพิการเช่นโรคพาร์กินสัน (Parkinson's disease) โครงการความสามารถในการเข้าถึงคำพูดจะรวบรวมตัวอย่างคำพูดจากบุคคลที่เป็นตัวแทนของรูปแบบการพูดที่หลากหลาย มหาวิทยาลัยอิลลินอยส์จะรับสมัครอาสาสมัครที่ได้รับค่าจ้างเพื่อบริจาคตัวอย่างเสียงและช่วยสร้างชุดข้อมูล "ส่วนตัวที่ไม่ระบุตัวตน" ที่สามารถใช้เพื่อฝึกโมเดลการเรียนรู้ของ AI โดยเน้นภาษาอังกฤษแบบอเมริกันในตอนเริ่มต้น

มูลนิธิ Davis Phinney (พาร์กินสัน) และTeam Gleason (ALS) ได้ให้คำมั่นว่าจะสนับสนุนโครงการนี้ Polly Dawkins กรรมการบริหารมูลนิธิ Davis Phinney กล่าวว่า "โรคพาร์กินสันส่งผลต่ออาการทางการเคลื่อนไหว ทำให้การพิมพ์ทำได้ยาก ดังนั้นการรู้จำคำพูดจึงเป็นเครื่องมือสำคัญสำหรับการสื่อสารและการแสดงออก "ส่วนหนึ่งของความมุ่งมั่น [ของเรา] รวมถึงการรับรองว่าผู้ป่วยโรคพาร์กินสันจะสามารถเข้าถึงเครื่องมือ เทคโนโลยี และทรัพยากรที่จำเป็นในการใช้ชีวิตที่ดีที่สุด"

เรียบเรียงจาก
https://news.yahoo.com/apple-microsoft-meta-google-nonprofits-speech-recognition-120021686.html
แสดงความคิดเห็น
โปรดศึกษาและยอมรับนโยบายข้อมูลส่วนบุคคลก่อนเริ่มใช้งาน อ่านเพิ่มเติมได้ที่นี่