Hoe werkt de DeepL Translator?
Regelmatig krijgen wij de vraag hoe het komt dat de DeepL Translator vaak zo veel beter vertaalt dan de vertaalsystemen van de gerenommeerde techbedrijven waarmee wij concurreren. Dat is natuurlijk niet zomaar het geval. Net zoals de meeste vertaalsystemen maakt de DeepL Translator voor het vertalen van teksten gebruik van kunstmatige neurale netwerken die worden getraind met behulp van vele miljoenen vertaalde teksten. Wat ons echter van de concurrentie onderscheidt, is het feit dat ons onderzoeksteam erin is geslaagd om de algehele methodologie op het gebied van zulke netwerken in verschillende opzichten te verbeteren, wat zich voornamelijk uit in de volgende vier punten.
Netwerkarchitectuur
Het is algemeen bekend dat de meeste vrij toegankelijke vertaalsystemen directe adaptaties zijn van de zogenaamde Transformer-architectuur. Dit geldt ook voor de DeepL Translator, want bepaalde delen van deze architectuur, zoals de attention-mechanismes, kunnen nog altijd in onze neurale netwerken worden aangetroffen. Op bepaalde punten zijn er in de topologie van de netwerken echter ook duidelijke verschillen te zien, en juist deze verschillen zijn ervoor verantwoordelijk dat de kwaliteit van onze vertalingen zo baanbrekend is. Hoe groot de verschillen in de kwaliteit van de netwerkarchitectuur precies zijn, wordt vooral duidelijk wanneer wij onze architecturen intern trainen en vervolgens met de meest bekende Transformer-architecturen vergelijken op basis van dezelfde data.
Trainingsdata
De concurrentie van DeepL bestaat voornamelijk uit befaamde techbedrijven die in de loop der jaren veel ervaring hebben opgedaan met het ontwikkelen van zogenaamde webcrawlers. Vergeleken met ons beschikken zij daarom dan ook over veel meer data waarmee zij hun systemen kunnen trainen. Om die reden verzamelen wij doelgericht speciale trainingsdata die ons netwerk in staat stellen om een nog betere vertaalkwaliteit te behalen. Hiervoor hebben wij onder andere speciale webcrawlers ontwikkeld die volledig automatisch vertalingen op het internet kunnen vinden en de vertaalkwaliteit ervan kunnen beoordelen.
Trainingsmethodologie
In het algemeen worden trainingsnetwerken getraind met behulp van een methode die "supervised learning" wordt genoemd. Deze methode houdt in dat het netwerk steeds weer andere voorbeelden te zien krijgt en dat het zijn eigen vertalingen voortdurend met de vertalingen uit de trainingsdata vergelijkt. Als er daarbij afwijkingen worden waargenomen, worden de gewichten van het netwerk automatisch aangepast. Daarnaast maken wij natuurlijk ook gebruik van andere technieken op het gebied van machine learning om onze neurale netwerken te trainen. Al deze methodes en technieken samen stellen ons in staat om de DeepL Translator voortdurend te verbeteren.
Netwerkgrootte
Net zoals onze grootste concurrenten trainen wij onze vertaalnetwerken inmiddels aan de hand van vele miljarden parameters. Deze netwerken zijn zo groot dat zij slechts verspreid over verschillende reusachtige rekenclusters kunnen worden getraind. Daarom hechten wij er in ons onderzoek ook zo veel waarde aan dat de parameters van het netwerk zo efficiënt mogelijk worden gebruikt. Op die manier is het ons gelukt om zelfs met onze kleinere en snellere netwerken een even goede vertaalkwaliteit te behalen als met onze grote netwerken. Dit is tevens de reden waarom wij kwalitatief hoogwaardige vertalingen kunnen aanbieden aan de gebruikers van onze gratis vertaaldienst.
Uiteraard zijn wij altijd op zoek naar bekwame wiskundigen en computerdeskundigen om ons onderzoeksteam te versterken, de DeepL Translator te verbeteren en taalbarrières wereldwijd te doorbreken. Als je dus ervaring hebt met wiskunde en met het trainen van neurale netwerken en je daarnaast graag zou willen meewerken aan een gratis product dat wereldwijd wordt gebruikt, ben je dus van harte welkom om bij DeepL te solliciteren!