อยากทราบการทำงานของ Siri ใน iPhone หน่อยครับว่าทำงานอย่างไร

เป็นสาวกแอนดรอยครับ แต่ยอมรับว่าพอได้ใช้สิริภาษาไทยแล้ว(เครื่องเพื่อน) บอกได้เลยครับว่าเป็นพัฒนาการทางโทรศัพท์ที่ทำให้ผมสตันทึ่ง เล่นได้ไม่มีเบื่อเลย และรอดูพัฒนาการอีก 10 ปีข้างหน้าว่าโทรศัพย์จะมีความสามารถขนาดไหน ปรกติใช้แอนดรอยด์ก็ใช้พวกคีบอร์ดแบบพิมพ์ด้วยเสียง พิมพ์ใช้งานได้ 70% ของคำพูดเราก็คือว่าสุดยอดแล้ว แต่สิริ ของไอโฟนสามารถฟังและตอบโต้ สั่งงานได้ ฟังภาษาคนรู้เรื่อง โดยเฉพาะภาษาไทย ทำให้ความรู้สึกว่าเรากำลังพูดสื่อสารกับคอมพิวเตอร์ หรือหุ่นยนต์

อนาคตหากสามารถทำให้สิริ สามารถสร้างโลจิกวิเคราะห์อารมณ์ ความรู้สึกเข้าใจ ผมว่ามันคงใกล้เคียงคนมากๆ เพียงแต่ไม่มีแขนไม่มีขาเท่านั้น


เลยอยากจะทราบครับว่าการทำงานของสิริ เค้าใช้อะไรพัฒนาในการแยกแยะวิเคราะห์ เสียงและการเลือกบทสนทนาในการโต้ตอบ พวกนี้มีการเตี้ยมหรือการใส่ประโยคสำเร็จรูปมาก่อนหรือเปล่า หรือเป็นโปรแกรมเรียบเรียงคำพูดเอง(อันนี้ก็เก่งเกิ๊น)


คลิกเพื่อดูคลิปวิดีโอ


คลิกเพื่อดูคลิปวิดีโอ
คลิปตัวอย่างจากอินเตอร์เน็ตครับ พอดีเสียงผมไม่ค่อยดี
คำตอบที่ได้รับเลือกจากเจ้าของกระทู้
ความคิดเห็นที่ 9
แอนดรอยด์มี Google Now ซึ่งเหมือนเคยเห็นกูเกิลออกมาบอกว่าตั้งใจทำให้มันทื่อๆ แบบนั้นเอง - -
ฝั่ง Microsoft มี Cortana เคยเห็นเดโม่ของมันทีนึงแล้วชอบมาก (ตอนงาน Windows 10 มั๊ง) มีกวนตีนเจ้าของเล่นด้วยการทำเสียงโยดาด้วยก็ได้

ผมไม่แน่ใจว่าโปรแกรมพวกนี้ทำงานยังไง  แต่ถ้าให้เดา  น่าจะเป็นการถอดเสียงออกมาเป็นคำก่อน  แล้วจับคีย์เวิร์ดในประโยคไปประมวลผลว่าผู้ใช้ต้องการอะไรครับ (ผมไม่เชื่อว่า AI จะประมวลผลและเข้าใจคำทุกคำได้ 100%) ซึ่งบางคำที่ออกเสียงเหมือนกัน  เค้าก็น่าจะมีฐานข้อมูลและอัลกอริธึมสำหรับดูบริบทและหาคำที่ถูกต้องอีกนั่นแหละ

อ้อ เรื่องการประมวลผลคำพูดออกมาให้คอมเข้าใจ  รู้สึกเค้าจะเรียกว่า natural language processing ครับ  ของ Siri ใช้เอ็นจินของ Nuance ซึ่งขึ้นชื่อเรื่อง NLP มานานแล้ว
แสดงความคิดเห็น
โปรดศึกษาและยอมรับนโยบายข้อมูลส่วนบุคคลก่อนเริ่มใช้งาน อ่านเพิ่มเติมได้ที่นี่