Mission > GX En temps ordinaire, l'annonce d'un événement marquant pour une entreprise commence par une proclamation de progrès et de réussite. Mais nous vivons une époque extraordinaire et, en tant qu'entreprise, nous sommes confrontés à une série de défis sans précédent : les effets durables d'une pandémie mondiale, une guerre terrestre en Europe, une inflation croissante, des pénuries de main-d'œuvre et d'énergie, et des politiques hargneuses dans la plupart des pays du monde. L'apaisement de cette tourmente sociétale et économique est très important et doit être notre priorité. Lilt a un rôle à jouer pour relever certains de ces défis.
Chez Lilt, nous sommes attristés par les événements qui se déroulent en Ukraine depuis ces dernières semaines, et nous condamnons sans équivoque les actes d'agression de la Russie. À nos collègues ukrainiens, à notre communauté de traducteurs ukrainiens et à tous ceux qui ont des liens avec ce pays, nous vous apportons un soutien inconditionnel.
Les langues apprises enfant influenceront presque chaque aspect de notre vie : la communauté, l'accès à l'information et même les perspectives de carrière. Je m'en suis réellement rendu compte en vivant au Moyen-Orient, où j'ai rencontré des personnes brillantes et ambitieuses à qui on ne proposait pas de travail intellectuel parce qu'elles ne parlaient pas l'anglais. Bien que la capacité de la langue soit partagée par l'humanité et l'un des aspects les plus fascinants de l'intelligence humaine, les différences linguistiques peuvent nous diviser sur le plan social et économique.
Il y a quelques semaines, nos amis de GALA ont organisé conjointement un webinaire avec notre PDG Spence Green intitulé « Adapter la localisation grâce à l'intelligence artificielle et l'automatisation ».
Lilt est heureux d'annoncer aujourd'hui l'ajout du bulgare et du slovène à notre plateforme. Avec cet ajout, Lilt prend officiellement en charge 40 langues, ou 50 variations de langues telles que le castillan et l'espagnol latino-américain.
Aujourd'hui, je suis heureux de vous annoncer que nous avons levé 9,5 millions de dollars de nouveaux fonds dirigés par Sequoia Capital. Bill Coughran, associé chez Sequoia, se joindra à notre conseil d'administration. Nos investisseurs existants, Redpoint Ventures, Zetta Venture Partners et XSeed Capital, ont tous participé à cette levée de fonds. La levée de fonds de série A indique deux étapes clés de la vie d'une entreprise : un revenu solide et un momentum, et un plan convaincant pour le déploiement de nouveaux capitaux. Il marque également le début d'un nouveau partenariat car, dans le cas présent, Bill et Sequoia nous rejoignent. Nous en sommes ravis, car Bill est ce leader unique qui a contribué à la science, a géré de grandes équipes techniques et a dirigé des entreprises. Sequoia a également financé les entreprises que nous admirons le plus, notamment Google, Apple et Stripe. Dans cet article, je décrirai ce que nous avons réalisé, ce que nous prévoyons de faire et pourquoi nous sommes certains que Bill est le bon partenaire pour nous aider à le faire. Comment nous en sommes arrivés là
Un problème important dans le déploiement efficace de systèmes d'apprentissage automatique en pratique est l'adaptation de domaine, en raison d'un grand ensemble de données supervisées auxiliaires et d'un plus petit ensemble de données d'intérêt, en utilisant l'ensemble de données auxiliaires pour augmenter les performances sur le plus petit ensemble de données. Cet article examine le cas où nous avons des ensembles de données K de domaines distincts qui s'adaptent rapidement à un nouvel ensemble de données. Il apprend les modèles K distincts de chacun des ensembles de données K et traite chacun comme des experts. Puis selon un nouveau domaine donné, il crée un autre modèle pour ce domaine, mais en plus, il fait attention aux experts. Il calcule l'attention par le biais d'un produit à points qui calcule la similitude de la représentation cachée du nouveau domaine avec les représentations des autres domaines de K.
Lors de la recherche par faisceau en séquence pour les modèles de séquence, on découvre les mots suivants par ordre de probabilité. Cependant, lors du décodage, il peut y avoir d'autres contraintes ou des objectifs que nous souhaitons maximiser. Par exemple, la longueur de la séquence, le score BLEU ou les informations mutuelles entre les phrases cibles et sources. Afin de pouvoir accueillir ces desiderata supplémentaires, les auteurs ajoutent un terme Q supplémentaire à la probabilité de capturer le critère approprié et choisissent ensuite des mots en fonction de cet objectif combiné.