Sunt la Google Zurich la un eveniment dedicat Inteligenței Artificiale și îmbunătățirilor aduse pentru Translate, Lens, Assistant si alte servicii Google.

La acest moment Google lucrează la Massive Multi-Language translation, tehnologie neurală exlicată mai bine pe blog. Sistemul de traducere offline a fost îmbunătățit constant și poate fi folosit pe telefon. Utilizează Google Search pentru a găsi exemple de traducere pe care AI le poate învăța și folosi pe viitor, spune Macduff Hughes, engineering director Google.


Dimitri Kanevsky prezintă aplicația dezvoltată pentru persoanele cu dizabilități. Live Transcribe poate înțelege limbajul natural chiar dacă persoana are dizabilități de pronunție/vorbire și înțelege și transcrie ceea ce spui în timp real. Este făcută pentru cei care nu aud, să poată înțelege ce li se spune. Dar poate avea și alte utilizări.

Problema Google era că AI era antrenat să recunoască doar limbajul normal, curat, fără distorsiuni. Au lucrat ani de zile pentru a înțelege și persoanele care nu pronunță corect sau au dizabilități.

Proiect de cercetare Parrotron, care permite redarea corecta a limbajului persoanelor cu dizabilități. Sound Understanding, soluție tactilă pentru că oamenii cu probleme de auz să simtă sunetele. În același mod, o aplicație machine learning, Lookout, sugerează persoanelor cu probleme de vedere ce apare în imaginile vizionate de ei. Poate fi folosită când merg pe stradă.