Apple collabora con Meta e Google per lo Speech Accessibility Project

Anche Apple entra a far parte dello Speech Accessibility Project.

Apple e l’Università dell’Illinois si uniscono a Google, Meta e altre aziende tecnologiche per collaborare a un progetto chiamato Speech Accessibility Project.

accessibilità iOS 14

L’obiettivo dell’iniziativa è studiare il modo in cui gli algoritmi di intelligenza artificiale possono essere messi a punto per migliorare il riconoscimento vocale degli utenti affetti da malattie che influenzano il linguaggio, tra cui la SLA e la sindrome di Down.

Engadget è il primo sito a riferire dello Speech Accessibility Project, che al momento non è ancora stato messo online. Secondo il report, le aziende tecnologiche che collaborano con l’Università dell’Illinois includono Amazon, Apple, Google, Meta e Microsoft. Anche le organizzazioni non profit Team Gleason, che fornisce assistenza alle persone affette da SLA, e Davis Phinney Foundation for Parkinson stanno lavorando allo Speech Accessibility Project.

Negli ultimi dieci anni Apple e altre aziende tecnologiche hanno innovato nel settore degli assistenti vocali con strumenti come Siri, Amazon Alexa, Google Assistant e altri. Apple ha anche investito in tecnologie come VoiceOver e Voice Control che sono le migliori della categoria per gli utenti ipovedenti o con problemi di mobilità.

Tuttavia, le funzioni vocali sono valide quanto gli algoritmi che le alimentano, e questo è fondamentale per raggiungere gli utenti affetti dal morbo di Lou Gehrig, dalla paralisi cerebrale e da altre patologie che compromettono il linguaggio.

HotAcquista iPhone 15 su Amazon!
News