Apple เปิดตัวฟีเจอร์การช่วยเหลือผู้พิการใหม่ ล้ำหน้าด้วยการควบคุมด้วยสายตา

Apple เปิดตัวฟีเจอร์การช่วยเหลือผู้พิการใหม่ ล้ำหน้าด้วยการควบคุมด้วยสายตา

Apple ประกาศเปิดตัวฟีเจอร์การช่วยเหลือผู้พิการ (accessibility features) ชุดใหม่  ซึ่งไฮไลท์สำคัญคือ การควบคุม iPhone หรือ iPad ด้วยสายตา

ฟีเจอร์ติดตามการเคลื่อนไหวของดวงตา (Eye Tracking) จะเป็นส่วนหนึ่งของระบบปฏิบัติการ iOS 18 และ iPadOS 18 ที่มีกำหนดเปิดตัวปลายปีนี้  โดยอาศัยเทคโนโลยีปัญญาประดิษฐ์ (AI) ช่วยให้ผู้ที่มีข้อจำกัดทางร่างกายสามารถใช้งานสมาร์ทโฟนหรือแท็บเล็ตได้อย่างสะดวกยิ่งขึ้น

ตามที่ระบุในเอกสารประชาสัมพันธ์  Apple กล่าวว่า "Eye Tracking ใช้กล้องหน้าเพื่อตั้งค่าและปรับเทียบภายในวินาที  โดยอาศัยการเรียนรู้ของเครื่องจักรบนตัวเครื่อง (on-device machine learning)  ข้อมูลทั้งหมดที่ใช้ในการตั้งค่าและควบคุมฟีเจอร์นี้จะถูกเก็บไว้บนเครื่องอย่างปลอดภัย  และไม่ถูกแชร์กับ Apple"  ผู้ใช้ไม่จำเป็นต้องมีฮาร์ดแวร์หรืออุปกรณ์เสริมเพิ่มเติม  Eye Tracking ช่วยให้ผู้ใช้สามารถ "ควบคุมการใช้งาน  เลือกเมนู  และฟังก์ชั่นต่างๆ ภายในแอปพลิเคชันด้วยสายตา  รวมไปถึงการเลียนแบบการกดปุ่ม  การปัดหน้าจอ  และการใช้งานท่าทางอื่นๆ ด้วยสายตาเท่านั้น"

อีกหนึ่งฟีเจอร์ที่น่าสนใจคือ Music Haptics  ออกแบบมาสำหรับผู้ใช้ที่สูญเสียการได้ยินทั้งหมดหรือบางส่วน  เพื่อให้ผู้ใช้สามารถสัมผัสประสบการณ์ทางดนตรีบน iPhone  โดยเมื่อเปิดใช้งานฟีเจอร์นี้ "Taptic Engine ใน iPhone จะสั่นตามจังหวะ  เนื้อหา  และรายละเอียดของเสียงเพลง" Music Haptics รองรับเพลงหลายล้านเพลงในคลัง Apple Music  นอกจากนี้  นักพัฒนาแอปพลิเคชันยังสามารถใช้ Music Haptics API เพื่อปรับแต่งแอปพลิเคชันของตนให้รองรับการใช้งานของผู้พิการได้อีกด้วย

ฟีเจอร์ Vocal Shortcuts ช่วยให้ผู้ใช้ iPhone และ iPad สามารถตั้งค่าคำสั่งเสียงแบบกำหนดเอง  เพื่อสั่งงาน Siri ให้ทำงานต่างๆ ได้ง่ายขึ้น  นอกจากนี้ยังมีฟีเจอร์ Listen for Atypical Speech  ซึ่งช่วยให้ผู้ใช้ที่มีปัญหาในการพูด  เช่น ผู้ป่วยโรคซีพี  โรค ALS  หรือผู้ป่วยหลังจากโรค stroke  สามารถใช้งานระบบการแปลเสียงพูดได้อีกด้วย

ที่มา: Hypebeast

เว็บไซต์ ZumRoad ใช้คุกกี้ (Cookies) เพื่อพัฒนาประสบการณ์การใช้งานบนเว็บไซต์ของคุณให้ดียิ่งขึ้น สามารถอ่านรายละเอียดเพิ่มเติมได้ที่ นโยบายความเป็นส่วนตัว