Warum neuronale maschinelle Übersetzung ein riesiger Fortschritt ist

by Chris Healy
4 Minute Read

 

Zwar gibt es maschinelle Übersetzung schon seit Jahrzehnten, aber das Meiste, was man dazu liest, ist die wahrgenommene Nähe zum mythischen Babelfisch, einem sofort einsatzbereiten persönlichen Übersetzungsgerät, das jeden menschlichen Übersetzer ersetzen kann. Was dabei ausgelassen wird ist die Beziehung zwischen maschineller Übersetzung und menschlichen Übersetzern. Lange Zeit war diese Beziehung nicht komplexer als das Post-Editing schlecht übersetzter Texte, ein Prozess, den die meisten Übersetzer als mühselige Arbeit auffassen. Mit dem Aufkommen der neuronalen maschinellen Übersetzung ist maschinelle Übersetzung aber nicht nur etwas, das Übersetzern besonders nervige Arbeit verschafft. Sie ist jetzt ein Partner für sie, mit dem sie schneller arbeiten können und ihr Output präziser wird.

 

Wozu also das ganze Tamtam?

Bevor wir uns mit dern neuen Welt der Übersetzung der Zukunft beschäftigen wollen, sollten wir die Technologie in den richtigen Kontext stellen. Vor der neuronalen maschinellen Übersetzung gab zwei Hauptparadigmen in der Entwicklung dieses Bereichs. Erstens regelbasierte maschinelle Übersetzung (Rule-Based Machine Translation, RBMT) und zweitens, bis vor Kurzem recht dominant, die phrasenbasierte statistische maschinelle Übersetzung (Statistical Machine Translation, SMT).

Bei der Entwicklung von regelbasierten maschinellen Übersetzungssystemen taten sich Linguisten und Computerwissenschaftler zusammen, um Tausende von Regeln für die Übersetzung von Text aus einer Sprache in eine andere zu erstellen. Das reichte für einsprachige Reviewer aus, um eine allgemeine Vorstellung wichtiger Dokumente in einem sonst unüberschaubaren Korpus von Inhalten in einer Sprache zu erhalten, die sie nicht sprechen. Für den Zweck, wirklich gute Übersetzungen zu schaffen, hat dieser Ansatz aber offensichtliche Mängel: Er ist zeitaufwendig und führt naturgemäß zu einer niedrigen Übersetzungsqualität.

Phasenbasierte SMT andererseits betrachtet einen riesigen Korpus zweisprachiger Texte und erstellt ein statistisches Modell wahrscheinlicher Übersetzungen. Das Problem bei SMT ist, dass sie sich ganz auf Systeme stützt. Sie kann beispielsweise keine Synonyme oder Ableitungen eines einzelnen Worts zuordnen, weshalb ein ergänzendes System erforderlich ist, das für die Morphologie zuständig ist. Sie erfordert auch ein Sprachmodell, um den Fluss der Sprache zu gewährleisten, aber dies ist auf die unmittelbare Umgebung eines bestimmten Wortes beschränkt. SMT ist daher anfällig für Grammatikfehler und relativ unflexibel, wenn sie Phrasen begegnet, die sich von den in den Trainingsdaten enthaltenen unterscheiden.

Schließlich kommen wir hier an, am Anfang der neuronalen maschinellen Übersetzung. Praktisch alle NMT-Systeme verwenden die sogenannte „Attentional Encoder-Decoder“-Architektur. Das System weist zwei neuronale Hauptnetzwerke auf, eines, das einen Satz erhält (der Encoder) und in eine Reihe von Koordinaten oder „Vektoren“ umwandelt. Ein neuronales Decoder-Netzwerk wandelt diese Vektoren dann wieder in Text in einer anderen Sprache um, wobei ein Aufmerksamkeitsmechanismus dazwischengeschaltet ist, der dem Decoder-Netzwerk hilft, sich auf die wichtigen Teile des Encoder-Outputs zu konzentrieren.

Der Effekt dieser Verschlüsselung ist, dass ein NMT-System die Ähnlichkeit zwischen Wörtern und Phrasen lernt, sie zusammen im Raum gruppiert, während ein SMT-System nur einen Haufen unzusammenhängender Wörter erkennt, die in einer Übersetzung mit mehr oder weniger hoher Wahrscheinlichkeit vorkommen.

Interessanterweise ist diese Architektur, was „Zero-Shot Translation“ von Google möglich macht. Ein gut trainiertes mehrsprachiges NMT-System kann den gleichen verschlüsselten Vektor in verschiedene Sprachen decodieren, die es kennt, und zwar unabhängig davon, ob diese bestimmte Quell-/Zielsprachen-Kombination beim Training verwendet wurde oder nicht.

Der Decoder arbeitet sich durch die Übersetzung und prognostiziert Wörter basierend auf dem gesamten Satz bis zu diesem Punkt. Das bedeutet, dass er ganze, zusammenhängende Sätze erzeugt (im Gegensatz zu SMT). Leider bedeutet dies auch, dass alle Fehler, die früh im Satz auftauchen, tendenziell per Schneeballeffekt immer schwerwiegender werden und die Qualität des Ergebnisses beeinträchtigen. Manche NMT-Modelle haben auch Probleme mit Wörtern, die sie nicht kennen, z. B. sind das oft seltene Wörter oder Eigennamen.

Trotz ihrer Mängel stellt NMT eine enorme Verbesserung der MT-Qualität dar und die Fehler, die damit verbunden sind, stellen auch Chancen dar.

 

Übersetzer und maschinelle Übersetzung: endlich zusammen

Während MT-Verbesserungen in der Regel Verbesserungen ihrer üblichen Anwendungen bedeuten, (z. B. Post-Editing, automatische Übersetzung), sind die echten Gewinner der NMT die Übersetzer. Dies gilt besonders dann, wenn ein Übersetzer sie in Echtzeit während des Übersetzens einsetzen kann, im Gegensatz zum Post-Editing von MT-Outputs. Wenn Übersetzer aktiv mit einer NMT-Engine zusammenarbeiten, um eine Übersetzung zu erstellen, können sie aufeinander aufbauen und voneinander lernen. Die Maschine bietet dem Menschen eine Übersetzung an, auf die dieser möglicherweise nicht gekommen wäre, und der Mensch fungiert als Moderator und dadurch Lehrer der Maschine.

Während des Übersetzungsprozesses korrigiert der Übersetzer beispielsweise den Anfang eines Satzes und verbessert dadurch die Chancen des Systems, dass der Rest der Übersetzung richtig ist. Oft ist nur ein leichter Anstoß am Satzbeginn nötig, um den Rest zu korrigieren, und der Schneeballeffekt der Fehler wird aufgehoben.

Gleichzeitig bedeuten die charakteristischen Verbesserungen der Grammatik und Kohärenz durch NMT, dass der Übersetzer nach Erstellen einer korrekten Übersetzung weniger Zeit mit der Grammatik- oder Rechtschreibkorrektur verbringt, und der Output ist besser als bei herkömmlicher MT und es ist überhaupt kein Post-Editing erforderlich. Wenn sie die Möglichkeit haben, zusammenzuarbeiten, beenden Übersetzer und ihre NMT-Engines buchstäblich gegenseitig die Sätze. Neben der Beschleunigung des Prozesses (und hier spreche ich als Übersetzer) ist es ehrlich gesagt eine lohnenswerte Erfahrung, die Spaß macht.

 

Wohin gehen wir jetzt?

Zukunftsvorhersagen sind immer riskant. Wenn die Qualität und die Zugänglichkeit von NMT sich jedoch weiter verbessern werden, wird daraus zunehmend ein unverzichtbarer Teil der Toolbox jedes Übersetzers werden, genauso wie es bereits CAT-Tools und Translation Memories bereits sind.

Viel aktuelle Forschung dreht sich darum, bessere Daten zu erhalten und Systeme aufzubauen, die weniger Daten benötigen. Beide dieser Bereiche werden die MT-Qualität weiter verbessern und deren Nutzen für Übersetzer beschleunigen. Hoffentlich wird dieser Nutzen auch mehr Sprachen erreichen, insbesondere diejenigen mit weniger fürs Training zur Verfügung stehenden Daten. Wenn dies geschieht, könnten Übersetzer dieser Sprachen mehr und mehr Text abarbeiten und die Verfügbarkeit von qualitativ hochwertigen Texten sowohl für die Öffentlichkeit als auch für das weitere MT-Training verbessern, wodurch diese Übersetzer, die das Fundament gelegt haben, sich jetzt größeren Herausforderungen stellen können.

Wird NMT richtig gemacht hat sie das Potenzial, nicht nur die Arbeit von Übersetzern zu verbessern, sondern die gesamte Übersetzungsbranche näher an ihr Ziel zu bewegen, der Babelfisch der Menschheit zu sein. Nicht in einer App oder in einem Earbud zu finden, aber in Netzwerken zwischen Menschen.