Apple e l’Università dell’Illinois si uniscono a Google, Meta e altre aziende tecnologiche per collaborare a un progetto chiamato Speech Accessibility Project.
L’obiettivo dell’iniziativa è studiare il modo in cui gli algoritmi di intelligenza artificiale possono essere messi a punto per migliorare il riconoscimento vocale degli utenti affetti da malattie che influenzano il linguaggio, tra cui la SLA e la sindrome di Down.
Engadget è il primo sito a riferire dello Speech Accessibility Project, che al momento non è ancora stato messo online. Secondo il report, le aziende tecnologiche che collaborano con l’Università dell’Illinois includono Amazon, Apple, Google, Meta e Microsoft. Anche le organizzazioni non profit Team Gleason, che fornisce assistenza alle persone affette da SLA, e Davis Phinney Foundation for Parkinson stanno lavorando allo Speech Accessibility Project.
Negli ultimi dieci anni Apple e altre aziende tecnologiche hanno innovato nel settore degli assistenti vocali con strumenti come Siri, Amazon Alexa, Google Assistant e altri. Apple ha anche investito in tecnologie come VoiceOver e Voice Control che sono le migliori della categoria per gli utenti ipovedenti o con problemi di mobilità.
Tuttavia, le funzioni vocali sono valide quanto gli algoritmi che le alimentano, e questo è fondamentale per raggiungere gli utenti affetti dal morbo di Lou Gehrig, dalla paralisi cerebrale e da altre patologie che compromettono il linguaggio.