In un post di qualche giorno fa vi abbiamo parlato della possibile trattativa in corso tra Apple e Nuance affinché l’azienda di Cupertino possa utilizzare la tecnologia avanzata per il riconoscimento vocale messa a punto dall’azienda di Burlington, MA, USA.
TechCrunch torna a parlare di questo argomento molto delicato per il futuro di iOS dopo aver indagato un po’ più a fondo sulla vicenda e aver scoperto che Apple potrebbe già utilizzare la tecnologia di Nuance all’interno del mastodontico Datacenter (pronto ma non ancora inaugurato ufficialmente) situato a Maiden, North Carolina. La partnership tra le due aziende potrebbe essere annunciata fra meno di un mese durante la WWDC (questo aspetto farebbe pensare che per gli sviluppatori potrebbero arrivare nuove API per sfruttare il sistema di riconoscimento vocale in qualunque app).
Il motivo di questa collaborazione sarebbe da ricondurre essenzialmente a tre motivi: in primo luogo per questioni di performance, in secondo luogo per evitare che i dati siano conservati presso server di terze parti e in ultima analisi per consentire ai tecnici Apple di ottimizzare tutto lo stack di supporto per la realizzazione di eventuali soluzioni personalizzate.
Un affare di queste dimensioni richiederebbe sicuramente l’accordo con Nuance, che dovrebbe essere quindi formalizzato a breve. La questione che fa subito capolino è: perché Apple non realizza un sistema di riconoscimento vocale in casa? Apple avrebbe anche la possibilità di condurre lo sviluppo internamente (viste anche alcune posizioni di lavoro apparse sull’apposito sito), certo, ma per arrivare a certi livelli avrebbe bisogno di molto tempo e quando c’è una concorrenza spietata con un rivale del calibro di Google, il tempo è una risorsa preziosa. Nuance, inoltre, possiede un numero considerevole di brevetti nel settore e si guarda bene dal farli rispettare. Detto in poche parole, attualmente gli esperti del settore lavorano o presso Nuance o presso Google. Inutile aprire una nuova guerra, che sarebbe anche molto costosa visto che il valore di Nuance è stimato per circa sei miliardi di dollari; non proprio una startup.
La trattativa potrebbe rientrare in un piano strategico più vasto che coinvolge tutti i progetti che l’azienda sta portando avanti nell’ambito del cloud computing. Chiudiamo il post con una piccola curiosità: sembrerebbe che Microsoft abbia più volte proposto ad Apple, invano, di utilizzare il suo sistema di speech recognition in iOS.
[via]
sinceramente io non ho capito cosa c’entra un datacenter con la funzione di speech recognition…
@ Della:
right =)
Della
a far funzionare le cose meglio e più velocemente tenendo i dati sotto il proprio controllo :)
anche dall’articolo si evince questo, ma per come la vedo io lo speech recognition e´ qualcosa che lavora in locale, non connettendosi ad un server… a me dragon dictation, per dire, non ha mai chiesto una connessione