Lilt Labs

Hier erhalten Sie weitere Informationen über alles, was Sie über die globale Erfahrung wissen müssen

Wir stellen vor: Ascend 2020, die Jahreskonferenz von Lilt für die Lokalisierung

3

Lokalisierungsskalierung mithilfe künstlicher Intelligenz und Automatisierung

3

Vor einigen Wochen veranstalteten unsere Freunde bei GALA ein Webinar mit unserem CEO Spence Green unter dem Namen „Scaling Localization With Artificial Intelligence and Automation“ (Lokalisierungsskalierung mithilfe von KI und Automatisierung).

Lilt fügt 40. Sprache hinzu!

3

Lilt freut sich, heute die Erweiterung unserer Plattform um Bulgarisch und Slowenisch bekanntgeben zu können. Damit unterstützt Lilt offiziell 40 Sprachen oder 50 Sprachvarianten wie europäisches bzw. lateinamerikanisches Spanisch.

Finanzierungsserie A von Lilt bekannt gegeben

9

Ich freue mich, heute mitteilen zu können, dass wir 9,5 Mio. US-$ an neuen Finanzmitteln erhalten haben. Führend bei der Finanzierungsrunde ist Sequoia Capital. Bill Coughran, Partner bei Sequoia, wird unserem Direktorium beitreten. Unsere bestehenden Investoren, Redpoint Ventures, Zetta Venture Partners und XSeed Capital nahmen ebenfalls an der Runde teil. Die Finanzierungsserie A bedeutet zwei Meilensteine in der Entwicklung eines Unternehmens: starke Umsätze und Dynamik und ein überzeugender Plan für den Einsatz des neuen Kapitals. Außerdem markiert dies den Beginn einer neuen Partnerschaft, in diesem Fall zwischen uns, Bill und Sequoia. Wir freuen uns sehr, weil Bill eine einzigartige Führungskraft ist, die wichtige Beiträge zur Wissenschaft geleistet hat, großen technischen Teams vorstand und Unternehmen führte. Sequoia finanzierte auch die Unternehmen, die wir am meisten bewundern, darunter Google, Apple und Stripe. In diesem Beitrag werde ich beschreiben, was wir erreicht haben, was wir zu tun planen und warum wir sicher sind, dass Bill der richtige Partner ist, um uns dabei zu unterstützen. Wie hier hierher gekommen sind

Was wir lesen: Domain Attention with an Ensemble of Experts (Berücksichtigung der Domäne mit einem Expertenensemble)

1

Ein großes Problem beim effektiven Einsatz von maschinellen Lernsystemen in der Praxis ist die Domänenanpassung. Angesichts eines großen, unterstützenden und beaufsichtigten Datensatzes und eines kleineren Datensatzes von Interesse bedeutet das die Verwendung des unterstützenden Datensatzes, um die Leistung für den kleineren Datensatz zu erhöhen. In diesem Aufsatz wird ein Fall besprochen, bei dem K Datensätze aus einzelnen Domänen schnell an einen neuen Datensatz angepasst werden müssen. Das System lernt K separate Modelle zu jedem der K Datensätze und behandelt jedes als Experten. Angesichts einer neuen Domäne erstellt es dann ein weiteres Modell für diese Domäne, zusätzlich berechnet es aber die Aufmerksamkeit der Experten. Es berechnet die Aufmerksamkeit mittels eines Dot-Produkts, das die Ähnlichkeit der verborgenen Darstellung der neuen Domäne mit den Darstellungen der anderen K Domänen berechnet.

Was wir lesen: Learning to Decode for Future Success (Decodieren lernen für den zukünftigen Erfolg)

1

Wenn Sie Beam-Suchen in Sequenz-Sequenz-Modellen durchführen, werden die nächsten Wörter in der Reihenfolge ihrer Wahrscheinlichkeit untersucht. Beim Decodieren können für uns jedoch andere Einschränkungen gelten oder es kann Ziele geben, die wir maximieren möchten. Beispiele sind Sequenzlänge, BLEU-Score oder gegenseitige Informationen zwischen Ziel- und Quellsätzen. Um diesen zusätzlich erwünschten Punkten gerecht zu werden, für die Autoren einen weiteren Begriff Q für die Wahrscheinlichkeit der Erfassung des angemessenen Kriteriums hinzu und wählen Wörter dann basierend auf diesem kombinierten Ziel.

Was wir lesen: Single-Queue-Decoding für neuronale maschinelle Übersetzung

1

Die beliebteste Methode, eine Übersetzung für einen Ausgangssatz mithilfe eines neuronalen Sequenz-für-Sequenz-Modells zu finden, ist eine einfache Strahlsuche. Der Zielsatz wird Wort für Wort vorhergesagt und nach jeder Vorhersage wird eine feste Anzahl von Möglichkeiten (in der Regel zwischen 4 und 10) für die weitere Exploration beibehalten. Diese Strategie kann suboptimal sein, da diese lokal harten Entscheidungen den Rest der Übersetzung nicht berücksichtigen und später nicht rückgängig gemacht werden können.

Was wir lesen: Neuronale maschinelle Übersetzung mit Rekonstruktion

1

Neuronale MT-Systeme generieren Übersetzungen Wort für Wort. Sie können trotzdem flüssige Übersetzungen generieren, weil sie jedes Wort basierend auf allen bisher generierten Wörtern auswählen. In der Regel werden diese Systeme nur trainiert, das nächste Wort korrekt zu generieren, und zwar basierend auf allen vorherigen Wörtern. Ein systemisches Problem bei diesem Wort-für-Wort-Ansatz für Training und Übersetzung ist, dass Übersetzungen oft zu kurz sind und wichtige Inhalte auslassen. In der Publikation Neural Machine Translation with Reconstruction (Neuronale maschinelle Übersetzung with Rekonstruktion) beschreiben die Autoren eine intelligente neue Training- und Übersetzungsmethode. Beim Training wird ihr System nicht nur dazu ermutigt, jedes nächste Wort korrekt zu generieren, sondern auch, den Originalausgangssatz basierend auf der generierten Übersetzung korrekt zu generieren. Auf diese Weise wird das Modell für die Generierung einer Übersetzung belohnt, die ausreicht, um den gesamten Inhalt des Originals zu beschreiben.

Technologie für interaktive MT

2

In diesem Artikel wird die Technologie beschrieben, die den interaktiven Übersetzungsvorschlägen von Lilt zugrunde liegt. Die Details wurden erstmals in einer akademischen Konferenzpublikation veröffentlicht unter dem Titel Models and Inference for Prefix-Constrained Machine Translation. Maschinelle Übersetzungssysteme können ganze Sätze oder Dokumente übersetzen, sie können aber dazu verwendet werden, Übersetzungen fertigzustellen, die von einem Menschen begonnen worden, also eine Art automatische Vervollständigung auf Satzebene. In der Computerlinguistik-Literatur wird die Vorhersage des Rests eines Satzes als präfixbeschränkte maschinelle Übersetzung bezeichnet. Das Präfix eines Satzes ist der Teil, der von einem Übersetzer verfasst wird. Ein Suffix wird von der Maschine vorgeschlagen, um die Übersetzung fertigzustellen. Diese Vorschläge werden Übersetzern interaktiv nach jedem von ihnen eingegebenen Wort angezeigt. Übersetzer können das gesamte oder einen Teil des vorgeschlagenen Suffixes mit einer einzigen Tastenbetätigung übernehmen. Durch die Automatisierung der am besten vorhersehbaren Teile des Übersetzungsprozesses kann dadurch Zeit gespart werden.