Apple ประกาศเปิดตัวฟีเจอร์การช่วยเหลือผู้พิการ (accessibility features) ชุดใหม่ ซึ่งไฮไลท์สำคัญคือ การควบคุม iPhone หรือ iPad ด้วยสายตา
ฟีเจอร์ติดตามการเคลื่อนไหวของดวงตา (Eye Tracking) จะเป็นส่วนหนึ่งของระบบปฏิบัติการ iOS 18 และ iPadOS 18 ที่มีกำหนดเปิดตัวปลายปีนี้ โดยอาศัยเทคโนโลยีปัญญาประดิษฐ์ (AI) ช่วยให้ผู้ที่มีข้อจำกัดทางร่างกายสามารถใช้งานสมาร์ทโฟนหรือแท็บเล็ตได้อย่างสะดวกยิ่งขึ้น
ตามที่ระบุในเอกสารประชาสัมพันธ์ Apple กล่าวว่า "Eye Tracking ใช้กล้องหน้าเพื่อตั้งค่าและปรับเทียบภายในวินาที โดยอาศัยการเรียนรู้ของเครื่องจักรบนตัวเครื่อง (on-device machine learning) ข้อมูลทั้งหมดที่ใช้ในการตั้งค่าและควบคุมฟีเจอร์นี้จะถูกเก็บไว้บนเครื่องอย่างปลอดภัย และไม่ถูกแชร์กับ Apple" ผู้ใช้ไม่จำเป็นต้องมีฮาร์ดแวร์หรืออุปกรณ์เสริมเพิ่มเติม Eye Tracking ช่วยให้ผู้ใช้สามารถ "ควบคุมการใช้งาน เลือกเมนู และฟังก์ชั่นต่างๆ ภายในแอปพลิเคชันด้วยสายตา รวมไปถึงการเลียนแบบการกดปุ่ม การปัดหน้าจอ และการใช้งานท่าทางอื่นๆ ด้วยสายตาเท่านั้น"
อีกหนึ่งฟีเจอร์ที่น่าสนใจคือ Music Haptics ออกแบบมาสำหรับผู้ใช้ที่สูญเสียการได้ยินทั้งหมดหรือบางส่วน เพื่อให้ผู้ใช้สามารถสัมผัสประสบการณ์ทางดนตรีบน iPhone โดยเมื่อเปิดใช้งานฟีเจอร์นี้ "Taptic Engine ใน iPhone จะสั่นตามจังหวะ เนื้อหา และรายละเอียดของเสียงเพลง" Music Haptics รองรับเพลงหลายล้านเพลงในคลัง Apple Music นอกจากนี้ นักพัฒนาแอปพลิเคชันยังสามารถใช้ Music Haptics API เพื่อปรับแต่งแอปพลิเคชันของตนให้รองรับการใช้งานของผู้พิการได้อีกด้วย
ฟีเจอร์ Vocal Shortcuts ช่วยให้ผู้ใช้ iPhone และ iPad สามารถตั้งค่าคำสั่งเสียงแบบกำหนดเอง เพื่อสั่งงาน Siri ให้ทำงานต่างๆ ได้ง่ายขึ้น นอกจากนี้ยังมีฟีเจอร์ Listen for Atypical Speech ซึ่งช่วยให้ผู้ใช้ที่มีปัญหาในการพูด เช่น ผู้ป่วยโรคซีพี โรค ALS หรือผู้ป่วยหลังจากโรค stroke สามารถใช้งานระบบการแปลเสียงพูดได้อีกด้วย
ที่มา: Hypebeast