
Apple ha appena annunciato una valanga di nuove funzioni di accessibilità che arriveranno entro la fine del 2025 su iPhone, iPad, Mac, Apple Watch e persino su Apple Vision Pro. Non si tratta solo di piccoli aggiustamenti, ma di un vero salto in avanti pensato per rendere l’intero ecosistema Apple più inclusivo, sfruttando le potenzialità del machine learning on-device e dei chip Apple Silicon.
Dalle etichette accessibilità su App Store a un nuovo lettore dedicato alla dislessia, passando per Live Captions su Apple Watch, comandi vocali per sviluppatori e persino il supporto a interfacce neurali per utenti con disabilità gravi: il pacchetto è ampio e tocca quasi ogni aspetto dell’esperienza d’uso. E lo fa con un livello di integrazione che solo Apple, nel bene o nel male, riesce a ottenere.
Etichette di accessibilità e nuove app su Mac
La prima novità che salta all’occhio è l’arrivo delle Accessibility Nutrition Labels sull’App Store. Si tratta di una nuova sezione nelle schede delle app che indica quali funzioni di accessibilità sono supportate, come VoiceOver, Controllo vocale, Contrasto elevato, Riduzione del movimento o Testo ingrandito.
Queste etichette permettono di capire subito se un’app è compatibile con le proprie esigenze prima ancora di scaricarla. È un passo importante non solo per gli utenti, ma anche per gli sviluppatori, che ora hanno un modo ufficiale per comunicare il proprio impegno sull’accessibilità.
Un’altra novità importante è l’arrivo della nuova app Magnifier su Mac, già nota su iPhone. Collegando la fotocamera del Mac, o sfruttando la Continuity Camera da iPhone, possiamo ingrandire testi, oggetti o documenti cartacei, regolare contrasto, colori e persino la prospettiva. Pensate ad una lezione universitaria dove le slide del professore vengono replicate ad alta risoluzione sul vostro schermo, oppure la trascrizione di un libro poggiato sulla vostra scrivania. I contenuti si possono salvare e raggruppare per essere consultati in un secondo momento.
La funzione è integrata con il nuovo Accessibility Reader, un sistema pensato per aiutare nella lettura testi, anche in presenza di disturbi visivi o dislessia. Può essere avviato da qualsiasi app, ed è pienamente compatibile con l’intero ecosistema Apple.
Braille, comandi vocali e nuovi strumenti per sviluppatori
Tra le novità più interessanti c’è Braille Access, una nuova app che trasforma iPhone, iPad, Mac e Apple Vision Pro in notetaker braille completi, compatibili con Braille Screen Input e dispositivi esterni. Si possono aprire file BRF, prendere appunti o fare calcoli usando il codice braille Nemeth, molto diffuso nei contesti scolastici.
La trascrizione in tempo reale dei dialoghi è disponibile direttamente sui display braille, grazie a una forma integrata di Live Captions. Tutto questo rende il sistema molto più indipendente e immediato per chi utilizza il Braille nella vita di tutti i giorni.
Apple ha pensato anche agli sviluppatori con mobilità ridotta, introducendo una modalità di programmazione con Voice Control in Xcode. Basta la voce per scrivere codice, con il vantaggio di poter sincronizzare il vocabolario personalizzato tra tutti i dispositivi.
Per chi ha difficoltà motorie gravi, arrivano nuove opzioni di controllo tramite movimenti oculari o della testa, oltre al supporto a un nuovo protocollo per le interfacce neurali (BCI). Questo apre la porta a un futuro in cui sarà possibile usare un iPhone o un iPad senza muovere nemmeno un dito.
Audio, movimento e personalizzazione: Apple migliora l’esperienza in ogni dettaglio
Apple ha ampliato e perfezionato molte delle funzioni già presenti, con aggiornamenti che migliorano la fruibilità del suono, la gestione del movimento e la personalizzazione dell’esperienza.
Su Apple Watch, ad esempio, arrivano i Live Captions in tempo reale: se l’iPhone cattura una conversazione con Live Listen attivo, i sottotitoli appaiono direttamente sull’orologio. È possibile controllare la sessione da remoto, senza dover toccare l’iPhone, utile in situazioni come lezioni o riunioni.
La funzione Personal Voice, pensata per chi rischia di perdere la capacità di parlare, ora è più veloce e realistica. Bastano 10 frasi registrate per creare una voce personale sintetizzata che suona molto più naturale rispetto al passato.
Apple ha migliorato anche le Music Haptics su iPhone, che permettono di sentire la musica con vibrazioni personalizzabili, utili per utenti non udenti. Si può scegliere se sentire solo la voce, l’intera canzone, e modificare l’intensità degli impulsi.
Altre novità includono:
Background Sounds con nuovi preset e automatismi via Comandi Rapidi
Vehicle Motion Cues per ridurre il mal d’auto anche su Mac
Name Recognition per sapere se qualcuno ci sta chiamando, utile per chi è sordo o ipoudente
CarPlay con testo ingrandito e riconoscimento sonoro di clacson, sirene o pianti di neonati
Infine, è ora possibile condividere temporaneamente le impostazioni di accessibilità tra due dispositivi Apple. Utile per usare un iPhone in prestito o un terminale pubblico, mantenendo le proprie preferenze attive per il tempo necessario.
L’articolo iPhone vi assisterà durante le lezioni universitarie e nel caso perdiate la voce sembra essere il primo su Smartworld.