Technology

Die AR-Übersetzungsbrille von Google ist immer noch nur Vaporware

Am Ende seiner I/O-Präsentation am Mittwoch holte Google eine „one more thing“-artige Überraschung hervor. In ein kurzes VideoGoogle zeigte eine Augmented-Reality-Brille die nur einen Zweck haben – hörbare Sprachübersetzungen direkt vor Ihren Augen anzuzeigen. In dem Video nannte Google-Produktmanager Max Spear die Fähigkeiten dieses Prototyps „Untertitel für die Welt“, und wir sehen zum ersten Mal, wie Familienmitglieder miteinander kommunizieren.

Jetzt warte nur eine Sekunde. Wie viele Leute haben wir Google Translate schon einmal verwendet und halten es größtenteils für ein sehr beeindruckendes Tool, das viele peinliche Fehlzündungen verursacht. Während wir darauf vertrauen, dass es uns den Weg zum Bus zeigt, ist das bei weitem nicht dasselbe, als darauf zu vertrauen, dass es die Kindheitsgeschichten unserer Eltern richtig interpretiert und weitergibt. Und hat Google nicht schon einmal gesagt, dass es endlich die Sprachbarriere überwindet?

Im Jahr 2017 vermarktete Google die Echtzeitübersetzung als Funktion seiner ursprünglichen Pixel Buds. Unser ehemaliger Kollege Sean O’Kane beschrieb das Erlebnis als „eine lobenswerte Idee mit einer beklagenswerten Ausführung“ und berichtete, dass einige der Leute, mit denen er es versuchte, sagten, es klang, als wäre er ein Fünfjähriger. Das ist nicht ganz das, was Google in seinem Video gezeigt hat.

Wir wollen auch nicht darüber hinwegsehen, dass Google verspricht, dass diese Übersetzung stattfinden wird in einer AR-Brille. Um keinen wunden Punkt zu treffen, aber die Realität von Augmented Reality hat nicht einmal die von Google wirklich eingeholt Konzeptvideo von vor einem Jahrzehnt. Weißt du, derjenige, der als Vorgänger des viel geschmähten und fungierte peinlich zu tragen Google Brille?

Um fair zu sein, die AR-Übersetzungsbrille von Google scheint viel fokussierter zu sein als das, was Glass erreichen wollte. Nach dem, was Google gezeigt hat, sollen sie eines tun – übersetzten Text anzeigen – und nicht als Ambient-Computing-Erlebnis fungieren, das ein Smartphone ersetzen könnte. Aber selbst dann ist die Herstellung einer AR-Brille nicht einfach. Selbst eine mäßige Menge an Umgebungslicht kann das Betrachten von Text auf durchsichtigen Bildschirmen erschweren sehr schwierig. Es ist schwierig genug, Untertitel auf einem Fernseher zu lesen, wenn die Sonne durch ein Fenster blendet. Stellen Sie sich jetzt diese Erfahrung vor, aber an Ihr Gesicht geschnallt (und mit dem zusätzlichen Druck, sich auf ein Gespräch mit jemandem einzulassen, den Sie alleine nicht verstehen können).

Aber hey, die Technologie entwickelt sich schnell – Google kann diese Hürde vielleicht überwinden seine Konkurrenten ausgebremst. Das würde nichts an der Tatsache ändern, dass Google Translate kein Wundermittel für sprachübergreifende Konversationen ist. Wenn Sie jemals versucht haben, ein echtes Gespräch über eine Übersetzungs-App zu führen, dann wissen Sie wahrscheinlich, dass Sie langsam sprechen müssen. Und methodisch. Und klar. Es sei denn, Sie wollen eine verstümmelte Übersetzung riskieren. Ein Versprecher, und vielleicht sind Sie fertig.

Menschen unterhalten sich nicht in einem Vakuum oder wie es Maschinen tun. Genauso wie wir den Code wechseln, wenn wir mit Sprachassistenten wie Alexa, Siri oder Google Assistant sprechen, wissen wir, dass wir viel einfachere Sätze verwenden müssen, wenn wir es mit maschineller Übersetzung zu tun haben. Und selbst wenn wir richtig sprechen, kann die Übersetzung immer noch unangenehm und missverstanden werden. Einige unserer Rand Kollegen, die fließend Koreanisch sprechen, wiesen darauf hin Googles eigener Preroll-Countdown für I/O zeigte eine ehrenvolle Version von „Willkommen“ auf Koreanisch, die eigentlich niemand verwendet.

Dieser leicht peinliche Flub verblasst im Vergleich zu der Tatsache, dass laut Tweets von Rami Ismail und Sam Ettingerzeigte Google über ein halbes Dutzend verkehrte, fehlerhafte oder anderweitig falsche Skripte auf einer Folie während seiner Translate-Präsentation. (Android-Polizei Anmerkungen dass ein Google-Mitarbeiter den Fehler eingeräumt hat und dass er in der YouTube-Version der Keynote korrigiert wurde.) Um es klar zu sagen, es ist nicht so, dass wir Perfektion erwarten – aber Google versucht uns zu sagen, dass es nahe daran ist, Echtzeit-Übersetzungen zu knacken, und solche Fehler lassen das unglaublich unwahrscheinlich erscheinen.

Google versucht, eine zu lösen immens kompliziertes Problem. Wörter zu übersetzen ist einfach; Grammatik zu verstehen ist schwierig, aber möglich. Aber Sprache und Kommunikation sind viel komplexer als nur diese beiden Dinge. Als relativ einfaches Beispiel spricht Antonios Mutter drei Sprachen (Italienisch, Spanisch und Englisch). Manchmal leiht sie sich mitten im Satz Wörter von Sprache zu Sprache aus – einschließlich ihres regionalen italienischen Dialekts (der wie eine vierte Sprache ist). So etwas ist für einen Menschen relativ einfach zu analysieren, aber könnte Googles Prototyp-Brille damit umgehen? Kümmern Sie sich nicht um die chaotischen Teile der Konversation wie unklare Referenzen, unvollständige Gedanken oder Anspielungen.

Es ist nicht so, dass Googles Ziel nicht bewundernswert wäre. Wir wollen unbedingt in einer Welt leben, in der jeder erleben kann, was die Forschungsteilnehmer im Video tun, und mit großen Augen staunend starren, wenn sie die Worte ihrer Lieben vor sich erscheinen sehen. Sprachbarrieren abzubauen und einander auf eine Weise zu verstehen, die wir vorher nicht konnten, ist etwas, wovon die Welt viel mehr braucht; Es ist nur so, dass es noch ein langer Weg ist, bis wir diese Zukunft erreichen. Die maschinelle Übersetzung ist da und das schon seit langer Zeit. Aber trotz der Fülle an Sprachen, die es verarbeiten kann, spricht es noch kein Mensch.


Verwandt:

About the author

admin

Leave a Comment