Maschinelle Übersetzung

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Maschinelle Übersetzung (MÜ oder MT für engl. machine translation) bezeichnet die automatische Übersetzung von Texten aus einer Sprache in eine andere Sprache durch ein Computerprogramm. Während die menschliche Übersetzung Gegenstand der angewandten Sprachwissenschaft ist, wird die maschinelle Übersetzung als Teilbereich der künstlichen Intelligenz in der Computerlinguistik erforscht.

MÜ hat den Vorteil, dass es geringes Fachwissen erfordert und konzeptionell einfach ist. Ein Modell liest alle Quellwörter durch, bis das Symbol am Ende des eingegebenen Satzes erreicht ist. Es beginnt dann, jeweils ein Zielwort auszugeben. MÜ verwendet oft ein großes neuronales Netzwerk, das ist end-to-End-Weise ausgebildet und hat die Fähigkeit, gut auf sehr lange Wortsequenzen zu verallgemeinern. Dies bedeutet, dass das Modell nicht explizit große Satz-Tabellen und Sprachmodelle speichern muss, wie im Fall herkömmlicher MÜ. Daher hat dieses Modell einen geringen Speicheraufwand. Schließlich ist die Implementierung der Dekodierer im Gegensatz zu den hoch komplizierten Dekodierern von herkömmlicher MÜ einfach.

Außerdem hat das Konzept der „Aufmerksamkeit“ an 2017 an Popularität gewonnen und es den Modellen ermöglicht, Ausrichtungen zwischen verschiedenen Modalitäten zu lernen, zum Beispiel zwischen Bildobjekten, zwischen Sprachrahmen und Text oder zwischen visuellen Merkmalen eines Bildes und seiner Textbeschreibung.[1]

Mathematische Zusammenhänge

[Bearbeiten | Quelltext bearbeiten]

Ein Netzwerk für neuronale MÜ (Neural Machine Translation, NMT) modelliert die bedingte Wahrscheinlichkeit , dass ein Quellsatz in einen Zielsatz übersetzt wird. Die Grundform der NMT besteht aus einem Kodierer, der eine Darstellung für jeden Quellsatz berechnet und einem Dekodierer, der jeweils ein Zielwort generiert und die bedingte Wahrscheinlichkeit wie folgt zerlegt:

Man kann die Wahrscheinlichkeit der Dekodierung (Rückübersetzung) jedes Wortes mithilfe der Softmax-Funktion als parametrisieren, wobei die Transformationsfunktion ist, die einen Vektor ausgibt und ist die verborgene Einheit des rekurrenten neuronalen Netzes, abstrakt berechnet als , wobei die Funktion den aktuellen verborgenen Zustand aus dem vorherigen verborgenen Zustand berechnet.

Modelle mit Aufmerksamkeitsmechanismus leiten einen Kontextvektor ab, der die Vorhersage des aktuellen Zielworts unterstützt. Diese Modelle unterscheiden sich zwar in der Art und Weise, wie der Kontextvektor abgeleitet wird, haben jedoch dieselben Folgeschritte. Die Informationen aus dem Kontextvektor und dem versteckten Zielvektors werden kombiniert und erzeugen wie folgt einen verborgenen Aufmerksamkeitsvektor:

Der Aufmerksamkeitsvektor wird dann durch die Schicht mit der Softmax-Funktion geleitet, um die prädiktive Verteilung wie folgt zu erzeugen:[1]

Das Verstehen einer Sprache, ohne sie gelernt zu haben, ist ein alter Menschheitstraum (Turmbau zu Babel, J. Bechers numerische Interlingua, Timerio, Babelfisch, Pfingstwunder, Science-Fiction-Geschichten). Die Erfindung der Computer in Kombination mit der Beschäftigung mit dem Phänomen Sprache als wissenschaftliche Disziplin (Sprachwissenschaft) hat zum ersten Mal einen konkreten Weg zur Erfüllung dieses Traums geöffnet.

Bis zum heutigen Tag hat das militärische Interesse den Weg der MÜ entscheidend geprägt. Eines der frühesten Projekte war ein Russisch-Englisch-Übersetzungsprogramm für das US-Militär. Trotz seiner anekdotenhaft schlechten Qualität genoss das Programm hohe Popularität unter US-Militärs, die sich zum ersten Mal ohne den Umweg über Dritte (Dolmetscher und Übersetzer) selbst zumindest einen Eindruck vom Inhalt russischer Dokumente verschaffen konnten.

Der 1966 für das Verteidigungsministerium der Vereinigten Staaten erstellte ALPAC-Bericht[2] bescheinigte der MÜ grundsätzliche Unrealisierbarkeit und brachte mit einem Schlag die Forschung für fast 20 Jahre praktisch ganz zum Erliegen. Erst in den 1980er Jahren begannen Elektrokonzerne wie die Siemens AG (Metal-Projekt) erneut mit der Forschung. Zu diesen Vorhaben zählt auch die Forschungsarbeit im Sonderforschungsbereich „Elektronische Sprachforschung“ an der Universität des Saarlandes. Hier wurde das System „SUSY“ entwickelt, das in der Lage war, aus dem Deutschen und ins Deutsche zu übersetzen.[3] Ein weiteres System des Sonderforschungsbereichs war ASCOF, in dem neben morpho-syntaktischen auch semantische Informationen für die Übersetzung herangezogen wurden.[4] In der gleichen Zeit initiierte die japanische Regierung das Fünfte-Generation-Projekt, bei dem MÜ vom Englischen ins Japanische zunächst auf der Basis der Programmiersprache Prolog implementiert wurde. Die enge Zusammenarbeit zwischen Universitäten, Elektrokonzernen und Regierung führte zu den weltweit ersten kommerziellen MÜ-Programmen für PCs und hat Japan in die Führungsposition der MÜ-Forschung weltweit gebracht. In den 1990er Jahren lief in Deutschland das BMBF-Leitprojekt Verbmobil, dessen Ziel es war, deutsche, englische und japanische gesprochene Dialogsprache zu dolmetschen. Das Verbmobil-System sollte gesprochene Spontansprache erkennen, die Eingabe analysieren, übersetzen, einen Satz erzeugen und ihn aussprechen.[5] In den 2000er Jahren kamen vermehrt statistische Verfahren zum Einsatz. So bietet Google seit 2006 ein statistisches Übersetzungssystem an.[6] Auch regelbasierte Ansätze wurden weiterentwickelt. Eines der bekanntesten Forschungsprojekte dieser Art ist Apertium, eine freie Software die von der spanischen Regierung und der Regierung von Katalonien finanziert und an der Universität Alicante weiterentwickelt wird.

Der Stand der MÜ im Jahr 2010 wurde von vielen Menschen als unbefriedigend bewertet. Grundsätzlich versteht die Wissenschaft menschliche Sprache aber noch unzureichend. Die meisten Sprachwissenschaftler gingen gar davon aus, dass maschineller Übersetzung ohne über das reine Sprachverständnis weit hinausgehende Kompetenzen automatischer Systeme grundsätzliche Grenzen gesetzt sind, da viele Übersetzungen zudem große Mengen an konzeptuellem Wissen, Metawissen sowie Kenntnisse über die Konstitution menschlicher Umwelt allgemein und über die Konventionen sozialer Interaktion erfordern.

Seit dem Jahr 2016 werden für Übersetzungsprogramme zunehmend künstliche neuronale Netze, d. h. künstliche Intelligenzen eingesetzt, wodurch der Fortschritt rasant zunahm. Beispiele sind DeepL, Google Übersetzer, Yandex.Translate sowie der Bing Translator, die fortan deutlich bessere Ergebnisse erzielten.[7] Im März 2018 teilte Microsoft mit, durch eine KI Chinesisch-Englisch-Übersetzungen mit der Qualität eines professionellen menschlichen Übersetzers zu erreichen. Das sei ein Durchbruch bei der maschinellen Übersetzung, den Microsoft nicht so früh erwartet habe.[8][9]

Der Bedarf an MÜ-Anwendungen steigt weiter:

  • Viele Texte sind heute digital verfügbar (also leicht für den Computer zu verarbeiten).
  • Die Globalisierung erfordert die Übertragung von immer mehr Texten in immer mehr Sprachen (der Markt für Übersetzung verdoppelt sich alle vier Jahre), während die Popularität des Berufs des Übersetzers/Dolmetschers stagniert.
  • Gerade von nur wenigen Westeuropäern/Amerikanern gesprochene beziehungsweise für diese schwierig zu erlernende Sprachen aus Regionen, deren Bewohner ihrerseits kaum westliche Sprachen sprechen, werden immer wichtiger:
    • kommerziell wichtig: die ostasiatischen Sprachen Chinesisch, Koreanisch und Japanisch; sowie Thai.
    • militärisch wichtig: Sprachen der internationalen Konfliktregionen, vor allem mit Beteiligung des US-Militärs. 2003 haben gleich mehrere US-Software-Unternehmen Übersetzungsprogramme für Arabisch und Paschtu (eine der Sprachen in Afghanistan und Grenzregionen Pakistans) herausgebracht. Ebenfalls 2003 hat die DARPA einen Blind-Wettbewerb für eine unbekannte Ausgangssprache durchgeführt. 2011 wurde das BOLT-Programm gestartet, das zum Ziel hat, die Erforschung der Übersetzung chinesischer und arabischer Texte ins Englische zu fördern.[10][11]

Übersetzungs-Methoden

[Bearbeiten | Quelltext bearbeiten]

Regelbasierte Methoden

[Bearbeiten | Quelltext bearbeiten]

Direkte Maschinenübersetzung

[Bearbeiten | Quelltext bearbeiten]

Die Wörter des Quelltextes werden mit dem Wörterbuch Wort für Wort und in der gleichen Reihenfolge in die Zielsprache übertragen. Anschließend werden Satzstellung und Flexion nach den Regeln der Zielsprache angepasst. Dies ist die älteste und einfachste MÜ-Methode, die beispielsweise auch obigem Russisch-Englisch-System zugrunde lag.

Transfer-Methode

[Bearbeiten | Quelltext bearbeiten]

Die Transfer-Methode ist die klassische MÜ-Methode mit drei Schritten: Analyse, Transfer, Generierung. Der zweite Schritt hat der ganzen Methode den Namen gegeben. Zunächst wird die grammatische Struktur des Quelltextes analysiert, oft in einer Baumstruktur. Abhängig von der gewählten Transfermethode wird daraus oft eine semantische Struktur abgeleitet. Danach werden die Strukturen in die Zielsprache übertragen (=transferiert). Schließlich werden in der Zielsprache aus den Strukturen mit grammatischen Regeln wiederum Sätze erzeugt und so der Zieltext erzeugt (=generiert).

Interlingua-Methode

[Bearbeiten | Quelltext bearbeiten]

Die Interlingua-Methode analysiert zunächst die grammatische Information des Quelltextes und transferiert diesen, nach vordefinierten Regeln, in eine „Zwischensprache“ (= Interlingua). Die grammatische Information in der Zielsprache wird aus dieser Zwischensprache erzeugt. Die Interlingua-Methode ist hilfreich bei mehrdeutigen Ausdrücken. So kann man deutsch umgangssprachlich „Wenn ich arbeiten würde, würde ich mir ein Auto kaufen.“ (hochsprachlich mit Konjunktiv: „Wenn ich arbeitete, kaufte ich mir ein Auto“) nicht mit einer Transfer-Regel würdewould übersetzen („If I would work, I would buy a car.“), weil auf Englisch if-Sätze would nicht erlauben. In der Interlingua würde die würde-Information abstrakt als „Irreales Konditional“ weitergegeben und im Englischen je nach dem Satzkontext mit oder ohne would realisiert.

Beispielbasierte MÜ

[Bearbeiten | Quelltext bearbeiten]

(Example-Based Machine Translation, EBMT)

Das Kernstück eines beispielbasierten MÜ-Systems ist ein Übersetzungsspeicher, in dem häufig wiederkehrende Sätze oder Redewendungen mit ihren jeweiligen Übersetzungen gespeichert werden. Statistisch wird (mit Information-Retrieval-Methoden) berechnet, wie ähnlich alle Einträge des Übersetzungsspeichers jeweils einem Satz des Quelltextes sind. Aus der Kombination der Übersetzung der ähnlichsten Sätze wird die Übersetzung generiert.

Statistische MÜ

[Bearbeiten | Quelltext bearbeiten]

(Statistics-Based Machine Translation, SBMT)

Vor der eigentlichen Übersetzung analysiert ein Programm ein möglichst großes Textkorpus von zweisprachigen Texten (oft zum Beispiel Parlamentsprotokolle, etwa aus dem kanadischen Hansard-Corpus). Dabei werden Wörter und grammatische Formen in Ausgangs- und Zielsprache aufgrund ihrer Häufigkeit und gegenseitigen Nähe einander zugeordnet und somit ein Wörterbuch sowie Grammatikübertragungsregeln extrahiert. Auf dieser Basis werden die Texte übersetzt. Die statistische MÜ ist sehr populär, weil sie keinerlei Kenntnis der beteiligten Sprachen voraussetzt. Deshalb kann die statistische MÜ durch die Analyse realer Textbestände theoretisch auch solche Regeln erfassen, die sprachwissenschaftlich noch nicht genau erklärt sind.[12]

(Neural Machine Translation, NMT)

Neuronale MÜ basiert wie statistische MÜ auf der Analyse von zweisprachigen Texten. Diese Texte werden von einem künstlichen neuronalen Netz angelernt und dabei die Zusammenhänge zwischen Ausgangs- und Zielsprache erfasst.[13] Es kann bei der Übersetzung allerdings nicht nachvollzogen werden, wie das Ergebnis zustande kam,[14] obwohl neuronale MÜ viele Texte präziser als die Konkurrenz zu übersetzen scheint.[15]

MÜ mit menschlicher Hilfe

[Bearbeiten | Quelltext bearbeiten]

(Human-Aided Machine Translation, HAMT)

Bei der MÜ mit menschlicher Hilfe muss der Benutzer mehrdeutige oder schwierig zu übersetzende Konstruktionen selbst übersetzen oder vermeiden. Dies kann im Voraus geschehen, indem der Benutzer beispielsweise lange Sätze in kurze Sätze unterteilt, oder interaktiv, zum Beispiel indem der Benutzer die richtige Bedeutung eines Wortes auswählt.

Nicht zur maschinellen Übersetzung zählt die computerunterstützte Übersetzung (Machine-Aided Human Translation, MAHT, auch Computer-Aided Translation oder CAT genannt), bei der ein Computerprogramm den menschlichen Übersetzer unterstützt.

Die MÜ-Forschung benutzt die Evaluation, die skalierte Bewertung der Übersetzungsqualität. MÜ-Übersetzungen werden zunächst pro Satz bewertet; die normalisierte Summe der Satzbewertungen ist die Qualität des ganzen Textes. In den meisten Fällen wird die Bewertung per Hand von einem Muttersprachler der Zielsprache durchgeführt und in einer Kennziffer ausgedrückt. In Japan wird oft eine fünfstellige Skala mit 0–4 Punkten verwendet:

  • 4 Punkte: Sehr gut verständlich bis perfekt; kein offensichtlicher Fehler.
  • 3 Punkte: Ein bis zwei falsche Wörter; sonst gut verständlich.
  • 2 Punkte: Mit gutem Willen kann man sich ungefähr denken, was ursprünglich gemeint war.
  • 1 Punkt: Der Satz wird in einem anderen als dem gemeinten Sinn verstanden (wenn überhaupt). Das liegt oft an teilweise falscher, oder ganz falscher Grammatik-Übersetzung (Struktur).
  • 0 Punkte: Der Satz ergibt keinen Sinn; sieht aus wie eine zufällig zusammengewürfelte, chaotische Anordnung von Wörtern.

Für die automatische Bewertung der Übersetzungsqualität verwendet man Algorithmen wie den Bleu-Score, welche die Ähnlichkeit der automatischen Übersetzung mit einer menschlichen Referenzübersetzung messen.[16] Bleu und andere Evaluationmaße wurden kritisiert, weil sie unzuverlässig sind und – vor allem auf Satzebene – nur bedingt zwischen guten und schlechten Übersetzungen unterscheiden.[17] Trotzdem korrelieren automatische Bewertungsmaße relativ gut mit menschlichen Bewertungen, vor allem bei der Bewertung ganzer Textdokumente mit mehreren Tausend Sätzen.[18]

Eine wirksame Bewertungsmethode für die Qualität einer maschinellen Vorübersetzung basiert auf der sogenannten Trefferrate: „Anzahl Terme, bezogen auf alle Terme im Dokument, welche der Übersetzer beim manuellen Nachübersetzen unverändert (ohne manuelle Eingriffe) übernehmen kann (Beugung - Position des Satzglieds im Satz ¦ des Terms im Satzglied)“.

  • Terme stellen Einzelwörter oder fest gefügte Wortgruppen dar.
  • Je nach Qualität lohnt sich die maschinelle Vorübersetzung oder behindert den Übersetzer.

Praktische Probleme

[Bearbeiten | Quelltext bearbeiten]

Dass MÜ-Qualität oft als unbefriedigend empfunden wird, hat auch noch handfestere, teilweise behebbare Ursachen:

Benutzer kennt Zielsprache
Gerade bei Übersetzungen zwischen Indogermanischen Sprachen versteht der Benutzer oft die Zielsprache bis zu einem gewissen Grad selbst und ist so empfindlicher gegenüber Abweichungen als jemand, der ausschließlich auf die Übersetzung angewiesen ist.
Sprachstil
Jeder Sprachstil hat Besonderheiten, die teilweise noch nicht einmal in der Linguistik beschrieben wurden. MÜ-Systeme gehen meist von der geschriebenen Zeitungssprache aus. Besonders schlechte Ergebnisse liefern MÜ-Systeme bei den Textarten, für die sie nicht entwickelt wurden, also meistens bei literarischen Texten, bei gesprochener Sprache oder gelegentlich auch bei technischen Texten.
Zu kleines oder fehlerhaftes Wörterbuch
Mit den Veränderungen in Gesellschaft und Wissenschaft nimmt der Wortschatz einer Sprache jeden Tag rasant zu. Außerdem haben viele Wörter mehrere Bedeutungen (siehe Homonym), die durch Kontext-Analyse disambiguiert werden könnten. Wörterbuch-Mängel wie im Anfangsbeispiel Russisch-Englisch sind zu einem überraschend großen Teil für die schlechte Übersetzungsqualität verantwortlich. Die größten MÜ-Programme haben Wörterbücher mit mehreren Millionen Einträgen und einem Vielfachen an Bedeutungsunterscheidungen.
Mangelnde Transfer-Regeln
Viele grammatische Phänomene unterscheiden sich stark von Sprache zu Sprache bzw. sind nur in bestimmten Sprachen vorhanden. Die Lösung dieser Probleme erfordert oft linguistische Grundlagenforschung; diesen Aufwand suchen MÜ-Unternehmen zu vermeiden.
Computerlinguistische Probleme
Daneben hat die MÜ viele Probleme, die auch bei anderen computerlinguistischen Anwendungen auftreten, zum Beispiel das Verständnis von Weltwissen.

Grammatische Problemgebiete regelbasierter Methoden

[Bearbeiten | Quelltext bearbeiten]

In keinem MÜ-System wird jede grammatische Regel angewendet beziehungsweise analysiert. Vielmehr wird oft darauf vertraut, dass ein nicht analysiertes grammatisches Phänomen zufällig in der anderen Sprache in ähnlicher Form auftritt, sodass nur die Wörter übersetzt werden müssen. Ein Beispiel ist der Artikel der, die, das, der im Englischen fast immer zu the und fast nie zu a übersetzt wird. Auf eine Analyse als „bestimmter Artikel“ kann also verzichtet werden. Dass aber auch zwischen Deutsch und Englisch solche einfachen Übersetzungen scheitern können, zeigt der obige if-Satz mit „würde“. Zwischen weniger nahen und nicht verwandten Sprachen, zum Beispiel Latein und Deutsch bzw. Chinesisch und Deutsch, sind solche direkten Übersetzungen oft nicht einmal auf der Wortebene eine sichere Wahl.

Viele komplexe Grammatik-Phänomene sind von der MÜ noch gar nicht oder nur in Ansätzen erforscht. Dann sind free rides oft die einzige Lösung. Solche Phänomene sind (Auswahl):

Artikel
Die germanischen und romanischen Sprachen haben Artikel, viele andere Sprachen dagegen nicht. Bei Übersetzung aus einer anderen Sprache muss der jeweils richtige Artikel quasi „aus dem Nichts“ generiert werden – aber eben nicht in allen Fällen.
Zusammengesetzte Nomina
In Sprachen wie Deutsch oder Japanisch kann die genaue Beziehung zwischen Nomina untereinander „kaschiert“ werden, indem man sie einfach nebeneinander stellt. In anderen Sprachen muss die Beziehung explizit gemacht werden. Beispiel: Donaudampfschifffahrtsgesellschaftskapitän = „Ein Kapitän, der bei einer Gesellschaft arbeitet, die Dampfschiffe auf der Donau betreibt“.
Zusammengesetzte Satzbestandteile
In der walisischen Sprache kann eine sehr lange Nominalphrase in einem Wort stehen, z. B. Llanfairpwllgwyngyllgogerychwyrndrobwllllantysiliogogogoch = „Marienkirche in einer Mulde weißer Haseln in der Nähe eines schnellen Wirbels und in der Gegend der Thysiliokirche, die bei einer roten Höhle liegt“.
Relativpronomen
Die meisten Sprachen haben gar kein oder nur ein einziges Relativpronomen. Bei Übersetzung ins Deutsche (der, die, das) oder Englische muss aber ausdifferenziert werden.
Tempus/Modalität
Jede Sprache hat ihr eigenes System, um zu sagen, dass ein Satz in der Vergangenheit passiert oder ein Befehl ist. In europäischen Sprachen wird dies oft mit Verb und Adverb realisiert.

Beispiele für maschinelle Übersetzung sind:

  • Douglas Arnold et al.: Machine Translation. An Introductory Guide. Blackwell, Manchester u. a. 1994, ISBN 1-85554-246-3.
  • Kurt Eberle: Integration von regel- und statistikbasierten Methoden in der Maschinellen Übersetzung. In: Uta Seewald-Heeg, Daniel Stein (Hrsg.): Maschinelle Übersetzung – von der Theorie zur Anwendung. JLCL, Heft 3/09, 2009.
  • John W. Hutchins: Machine Translation. Past, Present, Future. Harwood und Wiley, Chichester/New York 1986, ISBN 0-470-20313-7.
  • Uwe Muegge: Lokalisierung und Maschinelle Übersetzungssysteme. In: Jörg Hennig, Marita Tjarks-Sobhani (Hrsg.): Lokalisierung von technischer Dokumentation. Schmidt-Römhild, Lübeck 2002, ISBN 3-7950-0789-5, S. 110–121.
  • Jörg Porsiel (Hrsg.): Maschinelle Übersetzung. Grundlagen für den professionellen Einsatz. BDÜ Weiterbildungs- und Fachverlagsgesellschaft mbH, Berlin 2017, ISBN 978-3-93843-093-4.
  • Jörg Porsiel (Hrsg.): Maschinelle Übersetzung für Übersetzungsprofis. BDÜ-Weiterbildungs- und Fachverlagsgesellschaft mbH, Berlin 2020, ISBN 978-3-946702-09-2.
Commons: Maschinelle Übersetzung – Sammlung von Bildern, Videos und Audiodateien
Wiktionary: maschinelle Übersetzung – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b Minh-Thang Luong, Hieu Pham, Christopher D. Manning, Computer Science Department, Stanford University: Effective Approaches to Attention-based Neural Machine Translation
  2. John R. Pierce, John B. Carroll et al.: Language and Machines – Computers in Translation and Linguistics. ALPAC report, National Academy of Sciences, National Research Council, Washington, DC, 1966.
  3. H.-D. Maas: Das Saarbrücker Übersetzungssystem SUSY. In: Sprache und Datenverarbeitung. 1978 (1).
  4. Axel Biewer et al.: A modular multilevel system for French-German translation. In: Computational Linguistics (Special issue on machine translation). Bd. 11, Nr. 2–3, April–September 1985, S. 137–154.
  5. Verbmobil - Info Phase 2. In: verbmobil.dfki.de. Abgerufen am 16. Juli 2016.
  6. statistical machine translation live. Och, Franz: Google Research Blog. Abgerufen am 21. Juli 2013.
  7. Dieser KI-Forscher weiß, dass smarte Roboter uns bald nachahmen werden - podcast, Minute 13:10. Abgerufen am 16. März 2018.
  8. KI übersetzt so gut wie ein Mensch, golem.de vom 16. März 2018
  9. “Historischer Durchbruch” – KI übersetzt Chinesisch so gut wie ein Mensch (Memento des Originals vom 8. Juni 2018 im Internet Archive)  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/vrodo.de, vrodo.de vom 15. März 2018
  10. Broad Operational Language Translation (BOLT). In: www.darpa.mil. Abgerufen am 16. Juli 2016.
  11. BOLT | Linguistic Data Consortium. In: www.ldc.upenn.edu. Abgerufen am 16. Juli 2016.
  12. Philipp Koehn: Statistical Machine Translation. Hrsg.: Cambridge University Press. ISBN 978-0-521-87415-1.
  13. Dzmitry Bahdanau et al.: Neural Machine Translation by Jointly Learning to Align and Translate. In Proceedings of the International Conference on Learning Representations (ICLR), San Diego, CA, 2015.
  14. DeepL. DeepL GmbH, Köln, abgerufen am 18. September 2017.
  15. Anna Gröhn: Online-Übersetzer im Vergleich: "Ich will den Hals langsam atmen". In: Spiegel Online. 17. September 2017 (spiegel.de [abgerufen am 18. September 2017]).
  16. Kishore Papineni et al.: BLEU: a method for automatic evaluation of machine translation. In ACL-2002: 40th Annual meeting of the Association for Computational Linguistics. 2002, S. 311–318.
  17. Callison-Burch, C., Osborne, M. and Koehn, P. (2006) "Re-evaluating the Role of BLEU in Machine Translation Research" in 11th Conference of the European Chapter of the Association for Computational Linguistics: EACL 2006 pp. 249–256
  18. Chris Callison-Burch et al.: Findings of the 2012 Workshop on Statistical Machine Translation. In Proceedings of the Seventh Workshop on Statistical Machine Translation. 2012, S. 22–23.
  19. Bing Translator von Microsoft, gesichtet am 8. Januar 2018
  20. Diese Übersetzungssoftware gewann 2005 den Europäischen ICT-Preis.