Questa nuova funzionalità per iPhone può creare una voce che ti assomiglia in soli 15 minuti | Notizie di scienza e tecnologia

La funzione è tra una serie di nuovi strumenti volti ad aiutare le persone con disabilità a ottenere di più dal proprio iPhone o iPad.


Mer 17 maggio 2023 04:05, Regno Unito

Apple ha svelato una nuova funzionalità che consentirà a iPhone e iPad di creare copie digitali della voce di un utente.

La funzione Personal Voice, prevista come parte di iOS 17, funzionerà con la funzione Live Speech per consentire agli utenti di registrare la propria voce e comunicare con gli altri tramite chiamate vocali o piattaforme come FaceTime.

Gli utenti possono creare un audio personale leggendo insieme a una selezione casuale di messaggi di testo per registrare 15 minuti di audio su un iPhone o iPad.

Live Speech consente quindi agli utenti di digitare messaggi sul dispositivo da leggere ad alta voce.

Se usano molto certe frasi, possono essere salvate come scorciatoie.

Se creano un modello vocale personale, possono riprodurre le frasi con la propria voce, altrimenti verranno lette dall’assistente digitale del dispositivo, Siri.

È rivolto a persone con determinate condizioni, come la SLA (sclerosi laterale amiotrofica) che potrebbero comportare la perdita della capacità di parlare in futuro.

Philip Green, membro del consiglio e sostenitore della SLA per il Team Gleason di beneficenza, ha visto cambiamenti significativi nella sua voce da quando gli è stata diagnosticata la SLA nel 2018.

Ha detto: “Alla fine della giornata, la cosa più importante è riuscire a connettersi con amici e familiari.

“Se riesci a dire loro che li ami, con una voce che suona come te, fa tutta la differenza del mondo – ed essere in grado di creare la tua voce artificiale sul tuo iPhone in soli 15 minuti è straordinario.”

READ  Apple sta lavorando per risolvere il problema dell'allarme dell'iPhone mela

La funzione è tra una serie di nuovi strumenti in arrivo sui dispositivi Apple entro la fine dell’anno, anche se la società non sarebbe più specifica sui tempi.

Un altro, chiamato Point And Speak, consentirebbe agli utenti di puntare il dito su un oggetto davanti alla telecamera e l’app leggerebbe il testo sopra o vicino ad esso, ad esempio qualcuno che lo usa per leggere il testo sui pulsanti del microonde.

Questa funzione funzionerà solo su dispositivi Apple con un sensore LIDAR integrato, tra i modelli di iPhone e iPad più costosi del gigante tecnologico.

Questa notizia arriva prima della Worldwide Developers Conference del 5 giugno, dove Apple dovrebbe anche svelare il suo primo visore per realtà virtuale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *