Comment fonctionne DeepL ?

author_by DeepL Team

Nombre de gens se demandent comment DeepL Traducteur arrive‑t‑il à être souvent plus performant que ses concurrents issus des géants de la tech. Il y a plusieurs raisons à cela. Si, comme la plupart des traducteurs automatiques, notre service utilise lui aussi des réseaux neuronaux artificiels alimentés par des millions de traductions, nos chercheurs sont néanmoins parvenus à améliorer de nombreux éléments de la méthodologie générale appliquée à ce type de réseaux, notamment dans quatre domaines.

Architecture réseau

Il est bien connu que la plupart des systèmes de traduction librement accessibles sont directement issus de l’architecture Transformer, dont certaines parties sont bien évidemment incluses dans la structure des réseaux neuronaux de DeepL ; à l’instar de nos mécanismes d’attention, par exemple. La topologie de nos réseaux présente toutefois des différences de taille, qui améliorent significativement la qualité des traductions en comparaison des dernières recherches publiques en la matière. Ces différences de structure se manifestent d’autant plus clairement lorsque nous utilisons les mêmes données pour entraîner nos architectures et les comparer aux architectures Transformer les plus connues.

Données d’entraînement

La plupart de nos concurrents sont des géants de la technologie qui développent des collecteurs web depuis des années. La quantité de données d’entraînement dont ils disposent est donc largement supérieure à la nôtre. En ce qui nous concerne, nous prenons soin de cibler des données d’entraînement bien précises et susceptibles d’améliorer la qualité des traductions produites par nos réseaux. Nous avons donc mis au point, entre autres, des collecteurs spéciaux capables non seulement de dénicher automatiquement des traductions accessibles en ligne, mais aussi d’en évaluer la qualité.

Méthode d’entraînement

Lorsqu’il s’agit d’entraîner des réseaux, le milieu de la recherche publique utilise généralement une méthode dite d’« apprentissage supervisé ». Dans cette approche, le réseau est inlassablement confronté à divers exemples. Il compare ensuite ses propres traductions à celles des données d’entraînement avant d’être pondéré en fonction des divergences constatées. Nous utilisons également d’autres techniques d’apprentissage automatique lorsque nous entraînons nos réseaux, ce qui nous permet de les améliorer encore bien davantage.

Taille des réseaux

Tout comme ses principaux concurrents, DeepL utilise des milliards de paramètres pour entraîner ses réseaux neuronaux ; ceux‑ci sont d’ailleurs si volumineux qu’ils ne peuvent être entraînés que de façon répartie sur de vastes groupements de serveurs. Cette multitude de paramètres ne nous empêche cependant pas de les utiliser le plus efficacement possible au cours de nos recherches. Nous sommes ainsi en mesure de produire une qualité de traduction constante, même avec nos petits réseaux les plus rapides, et donc d’offrir un service de pointe y compris dans la version gratuite de DeepL.

Bien entendu, nous sommes sans cesse à la recherche de mathématiciens et d’informaticiens de talent susceptibles de se joindre à nous pour accompagner notre développement, améliorer notre outil et nous aider à abolir les barrières linguistiques dans le monde entier. Si vous avez de l’expérience dans le domaine des mathématiques et des réseaux neuronaux, et que vous aimeriez travailler sur un produit gratuit utilisé partout dans le monde, n’hésitez pas à nous contacter !

shareMenu_headline