rete neurale , Google translate

Una rete neurale per migliorare Google translate

Una nuova tecnologia chiamata Transformer metterà a confronto ogni parola con le altre, in modo da comprenderne il significato sulla base del rapporto che ha con gli altri componenti della frase

tratto da Google Research Blog: launch of Google Translate

Dieci anni fa abbiamo annunciato il lancio di Google Translate, insieme all’uso della Phrase-Based Machine Translation come l’algoritmo chiave dietro questo servizio. Da allora, i rapidi progressi nell’intelligenza della macchina hanno migliorato le nostre capacità di riconoscimento vocale e di riconoscimento delle immagini, ma migliorare la traduzione automatica rimane un obiettivo impegnativo.

Oggi annunciamo il sistema Google Neural Machine Translation (GNMT), che utilizza tecniche di addestramento all’avanguardia per ottenere i migliori miglioramenti fino ad oggi per la qualità della traduzione automatica. I nostri risultati di ricerca completi sono descritti in un nuovo rapporto tecnico che stiamo rilasciando oggi:“Google’s Neural Machine Translation System: Bridging the Gap between Human and Machine Translation”.

Così, Google ha sviluppato Transformer: una nuova modalità di funzionamento dell’intelligenza artificiale, in grado di mettere a confronto ogni parola con le altre, in modo da comprendere il suo significato sulla base del rapporto che ha con gli altri componenti.

Alcuni anni fa abbiamo iniziato a utilizzare RNNs ricorrenti per imparare direttamente la mappatura tra una sequenza di input (ad esempio una frase in una lingua) a una sequenza di output (quella stessa frase in un’altra lingua). La funzione Frase-Based traduzione automatica (PBMT) speza la frase in ingresso in parole e frasi da tradurre in modo autonomo, Neural traduzione automatica (NMT) considera l’intera frase di input come un’unità per Google translation. Il vantaggio di questo approccio è che richiede meno scelte di progettazione ingegneristica rispetto ai precedenti sistemi di traduzione basati su frasi. Quando è uscito per la prima volta, NMT ha mostrato un’equivalenza con i tradizionali sistemi di traduzione basati su frasi su set di dati pubblici di riferimento di dimensioni modesta.

Da allora, i ricercatori hanno proposto molte tecniche per migliorare NMT, compreso il lavoro di manipolazione di parole rare imitando un modello di allineamento esterno, utilizzando l’attenzione per allineare le parole d’ingresso e le parole d’uscita  e rompere le parole in unità più piccole per far fronte a rare parole. Nonostante questi miglioramenti, NMT non era veloce o preciso da utilizzare in un sistema di produzione, come ad esempio Google Translate. Il nostro nuovo articolo descrive come abbiamo superato le numerose sfide per rendere il lavoro di NMT su set di dati molto grandi e costruito un sistema abbastanza veloce e preciso per fornire traduzioni migliori per gli utenti ei servizi di Google.

Dati di valutazione side-by-side, in cui i percorsi umani confrontano la qualità delle traduzioni per una determinata frase di origine. I punteggi vanno da 0 a 6, con 0 che significa “completamente nonsense translation”, e 6 significa “traduzione perfetta”.
La seguente visualizzazione mostra la progressione di GNMT in quanto traduce una frase cinese in inglese. Innanzitutto, la rete codifica le parole cinesi come un elenco di vettori, in cui ogni vettore rappresenta il significato di tutte le parole finora lette (“Encoder”). Una volta letto l’intera frase, inizia il decodificatore, generando la frase inglese una parola alla volta (“Decoder”). Per generare la parola tradotta ad ogni passo, il decodificatore pone l’attenzione su una distribuzione ponderata sui vettori cinesi codificati più rilevanti per generare la parola inglese (“Attenzione”, la trasparenza del collegamento blu rappresenta quanto il decoder presti attenzione a una parola codificata) .

 

Acknowledgements:
We thank members of the Google Brain team and the Google Translate team for the help with the project. We thank Nikhil Thorat and the Big Picture team for the visualization.

(Visited 20 times, 1 visits today)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *