Lilt Labs

Hier erhalten Sie weitere Informationen über alles, was Sie über die globale Erfahrung wissen müssen

Was wir lesen: Learning to Decode for Future Success (Decodieren lernen für den zukünftigen Erfolg)

1

Wenn Sie Beam-Suchen in Sequenz-Sequenz-Modellen durchführen, werden die nächsten Wörter in der Reihenfolge ihrer Wahrscheinlichkeit untersucht. Beim Decodieren können für uns jedoch andere Einschränkungen gelten oder es kann Ziele geben, die wir maximieren möchten. Beispiele sind Sequenzlänge, BLEU-Score oder gegenseitige Informationen zwischen Ziel- und Quellsätzen. Um diesen zusätzlich erwünschten Punkten gerecht zu werden, für die Autoren einen weiteren Begriff Q für die Wahrscheinlichkeit der Erfassung des angemessenen Kriteriums hinzu und wählen Wörter dann basierend auf diesem kombinierten Ziel.

BEFREIT DIE ÜBERSETZER! Wie adaptive MT Post-Editing-Reinigungspersonal zu Kulturberatern macht

4

Ursprünglich auf LinkedIn von Greg Rosner veröffentlicht. Mir begegnete der Ausdruck „sprachliche Reinigungsarbeit“ in diesem Deloitte Whitepaper mit dem Titel „AI-augmented government, using cognitive technologies to redesign public sector work“, in dem die Plagerei der Übersetzungsarbeit beschrieben wird, die viele Übersetzer beim Post-Editing von maschinellen Übersetzungen heute leisten müssen. Und dann fiel mir auf, was wirklich im Gange ist. Die traurige Realität der letzten Jahre ist: Viele Sprachprofis mit jahrzehntelanger Branchenerfahrung, Erfahrung im professionellen Übersetzungsbereich und mit Abschlüssen in angewandter Sprachwissenschaft oder kreativem Schreiben, wurden auf die Bereinigung von Übersetzungen Satz für Satz reduziert, die aus Google Translate oder anderen maschinellen Übersetzungssystemen (MT) strömen.

The Augmented Translator: How Their Jobs are Changing and What They Think About It

3

Von Kelly Messori Die Vorstellung, dass Roboter menschliche Arbeitsplätze übernehmen, ist nichts Neues. Im Laufe des letzten Jahrhunderts wurde mithilfe der Automatisierung Landwirten das Leben leichter gemacht, und Kassenangestellte wurden durch Selbstbedienungskioske ersetzt. In jüngerer Zeit hat sich die Diskussion mit der Entwicklung immer intelligenterer Maschinen verlagert und es geht jetzt darum, ob Roboter Positionen mit umfassenderem Kompetenzbereich übernehmen können, z. B. die von Übersetzern. Eine einfache Suche auf der Frage-und-Antwort-Website Quora ergibt Dutzende von Fragen zu genau diesem Thema. Eine jüngste Umfrage zeigt, dass KI-Experten voraussagen, dass Roboter das Übersetzen von Sprachen bis 2024 übernehmen werden. Alle wollen wissen, ob sie durch eine Maschine ersetzt werden und, was noch wichtiger ist, wann das geschehen wird.

Was wir lesen: Single-Queue-Decoding für neuronale maschinelle Übersetzung

1

Die beliebteste Methode, eine Übersetzung für einen Ausgangssatz mithilfe eines neuronalen Sequenz-für-Sequenz-Modells zu finden, ist eine einfache Strahlsuche. Der Zielsatz wird Wort für Wort vorhergesagt und nach jeder Vorhersage wird eine feste Anzahl von Möglichkeiten (in der Regel zwischen 4 und 10) für die weitere Exploration beibehalten. Diese Strategie kann suboptimal sein, da diese lokal harten Entscheidungen den Rest der Übersetzung nicht berücksichtigen und später nicht rückgängig gemacht werden können.

Was wir lesen: Neuronale maschinelle Übersetzung mit Rekonstruktion

1

Neuronale MT-Systeme generieren Übersetzungen Wort für Wort. Sie können trotzdem flüssige Übersetzungen generieren, weil sie jedes Wort basierend auf allen bisher generierten Wörtern auswählen. In der Regel werden diese Systeme nur trainiert, das nächste Wort korrekt zu generieren, und zwar basierend auf allen vorherigen Wörtern. Ein systemisches Problem bei diesem Wort-für-Wort-Ansatz für Training und Übersetzung ist, dass Übersetzungen oft zu kurz sind und wichtige Inhalte auslassen. In der Publikation Neural Machine Translation with Reconstruction (Neuronale maschinelle Übersetzung with Rekonstruktion) beschreiben die Autoren eine intelligente neue Training- und Übersetzungsmethode. Beim Training wird ihr System nicht nur dazu ermutigt, jedes nächste Wort korrekt zu generieren, sondern auch, den Originalausgangssatz basierend auf der generierten Übersetzung korrekt zu generieren. Auf diese Weise wird das Modell für die Generierung einer Übersetzung belohnt, die ausreicht, um den gesamten Inhalt des Originals zu beschreiben.

Technologie für interaktive MT

2

In diesem Artikel wird die Technologie beschrieben, die den interaktiven Übersetzungsvorschlägen von Lilt zugrunde liegt. Die Details wurden erstmals in einer akademischen Konferenzpublikation veröffentlicht unter dem Titel Models and Inference for Prefix-Constrained Machine Translation. Maschinelle Übersetzungssysteme können ganze Sätze oder Dokumente übersetzen, sie können aber dazu verwendet werden, Übersetzungen fertigzustellen, die von einem Menschen begonnen worden, also eine Art automatische Vervollständigung auf Satzebene. In der Computerlinguistik-Literatur wird die Vorhersage des Rests eines Satzes als präfixbeschränkte maschinelle Übersetzung bezeichnet. Das Präfix eines Satzes ist der Teil, der von einem Übersetzer verfasst wird. Ein Suffix wird von der Maschine vorgeschlagen, um die Übersetzung fertigzustellen. Diese Vorschläge werden Übersetzern interaktiv nach jedem von ihnen eingegebenen Wort angezeigt. Übersetzer können das gesamte oder einen Teil des vorgeschlagenen Suffixes mit einer einzigen Tastenbetätigung übernehmen. Durch die Automatisierung der am besten vorhersehbaren Teile des Übersetzungsprozesses kann dadurch Zeit gespart werden.

Fallstudie: SDL Trados

1

Zusammenfassung: Wir vergleichen die menschliche Übersetzungsleistung in Lilt mit SDL Trados, einem weit verbreiteten computergestützten Übersetzungstool. Lilt generiert Vorschläge über ein adaptives maschinelles Übersetzungssystem, während SDL Trados sich hauptsächlich auf Translation-Memory-Technologie stützt. Fünf interne Englisch-Französisch-Übersetzer arbeiteten eine Stunde lang mit jedem Tool. Es wurden Kundendaten aus zwei Fachgebieten übersetzt. Für Benutzerschnittstellendaten übersetzten Personen in Lilt 21,9 % schneller. Der Top-Durchsatz in Lilt lag um 39,5 % über dem Höchstsatz in Trados. Diese Person erzielte auch den höchsten Durchsatz im Experiment: 1.367 Quellwörter pro Stunde. Für den Datensatz einer Hotelkette waren die Personen in Lilt durchschnittlich 13,6 % schneller. Die endgültige Übersetzungsqualität ist in beiden Tools vergleichbar.

Qualitätsbeurteilungs-Anhang zur maschinellen Übersetzung 2017

14

Dieser Beitrag ist ein Anhang zum ursprünglichen Beitrag vom 10.1.2017 mit dem Titel 2017 Machine Translation Quality Evaluation. Experimentelles Design Wir werten alle maschinellen Übersetzungssysteme für Englisch-Französisch und Englisch-Deutsch aus. Wir melden BLEU-4 ohne Groß-Kleinschreibungsberücksichtigung [2], berechnet vom Scoring-Skript mteval aus dem Open-Source-Toolkit Phrasal der Universität Stanford. NIST-Tokenisierung wurde auf beide Systemoutputs und die Referenzübersetzungen angewendet.

Morphing ins verheißene Land

5

Gastbeitrag von Jost Zetzsche, ursprünglich in Ausgabe 16–12–268 von The Tool Box Journal veröffentlicht. Manche von Ihnen wissen, dass ich sehr an Morphologie interessiert bin. Oder vielleicht sollte ich es anders sagen: Ich bin sehr frustriert, weil die Translation Environment Tools, die wir verwenden, keine Morphologie anbieten. Es gibt einige Ausnahmen, wie SmartCat, Star Transit, Across und OmegaT, die eine gewissen Morphologie-Unterstützung bieten. Alle von ihnen sind aber auf eine kleine Zahl von Sprachen beschränkt, und jede Anstrengung, diese auszuweiten, wäre sehr aufwendig und mit viel manueller Programmierung verbunden. Andere Tools, wie beispielsweise memoQ, haben sich entschieden, mit der Erkennung von Fuzzy Matches besser zu fahren als mit spezifischen morphologischen Sprachregeln, aber auch das ist sicher nicht die bestmögliche Antwort. Was ist also das Problem? Und worum geht es bei Morphologie in Übersetzungsumgebungs-Tools überhaupt?