Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Lesedauer 4 Min.

Warum die KI am liebsten Englisch spricht

Ob Sprachsteuerung, Chatbot oder Übersetzungsprogramme: Am besten funktionieren diese Anwendungen auf Englisch. Warum das so ist, ob sich das in Zukunft ändern wird, erklärt der Saarbrücker Computerlinguistik-Professor Dietrich Klakow.
Als deutscher Muttersprachler ist man noch relativ gut dran, sagt Dietrich Klakow, Professor für "Spoken Language Systems" an der Universität des Saarlandes. Denn die meisten IT-Sprachanwendungen funktionierten auch auf Deutsch recht gut. "Aber es stimmt, viele Systeme im Bereich der Sprachverarbeitung arbeiten nach wie vor auf Englisch am besten", bestätigt der Professor, der am Saarland Informatics Campus forscht.Ausschlaggebend dafür seien vor allem zwei Gründe: Zum einen basieren die meisten Anwendungen der computergestützten Sprachverarbeitung auf dem Maschinellen Lernen, einem Teilgebiet der Künstlichen Intelligenz. "Beim Maschinellen Lernen sagt nicht ein Programmierer dem Algorithmus ganz genau, was er zu tun hat, sondern trainiert ihn mit massenhaft Daten, aus denen der Algorithmus selbstständig lernen kann", erklärt Dietrich Klakow. Und genau hier liegt der erste Grund: Englisch ist die meistgesprochene Sprache der Welt, somit sind auch die meisten verfügbaren Trainingsdaten auf Englisch. "Zudem ist das Englische grammatikalisch vergleichsweise einfach gestrickt, weshalb Computer gut damit zurechtkommen", so Klakow.Der zweite Grund seien die Forscher selbst: "Die Wissenschaft ist ein internationales Arbeitsfeld, deshalb ist die Arbeitssprache in der Regel Englisch – auch in der Informatik. Wenn man also etwas Neues erforscht oder entwickelt, so tut man dies auf eine Weise, die für die Kolleginnen und Kollegen gut nachvollziehbar ist. Deshalb arbeiten und publizieren die meisten Forscherinnen und Forscher auf Englisch", sagt Klakow. Dies führe wiederum dazu, dass viele Anwendungen zunächst auf Englisch entwickelt würden – das erste maschinell übersetzte Sprachenpaar war Englisch-Französisch. Die erste synthetisch erzeugte Stimme war eine Software, die englische Zeitungsartikel vorgelesen hat. "Die meisten Anwendungen haben einen mehrjährigen Vorsprung auf Englisch. Und die großen europäischen Sprachen werden in der Regel zuerst nachgezogen", erläutert der Professor.Was aber ist mit kleineren Sprachen, die nur wenige Sprecher haben? "Mit Abstand die meisten Sprachen der Welt werden gar nicht unterstützt. Es gibt rund 7000 Sprachen, von denen wiederum nur rund 400 mehr als eine Million Sprecher haben – und selbst diese 400 sind nicht alle umfassend genug erforscht, um in Anwendungen mit natürlicher Sprache verwendet zu werden", sagt Klakow. Der "Google Übersetzer", der einen guten ersten Einblick in die computerlinguistisch erforschten Sprachen geben kann, unterstützt Stand Februar 2023 insgesamt 133 Sprachen auf verschiedenen Niveaustufen.Ein wesentlich schwerwiegenderes Problem als kleine Sprachen, die nicht ausreichend computerlinguistisch erforscht werden, sind sehr weit verbreitete Sprachen, die kaum oder gar nicht unterstützt werden. Denn hier gehe es ganz schnell um global-gesellschaftlich relevante Fragestellungen der digitalen Teilhabe, sagt Dietrich Klakow. "Viele afrikanische Sprachen zum Beispiel, die ohne weiteres zehn bis 50 Millionen Muttersprachler haben, können kaum oder nur sehr schlecht von Computern verarbeitet werden", sagt der Professor. Gemeinsam mit seinen Doktoranden Jesujoba Oluwadara Alabi, David Ifeoluwa Adelani und Marius Mosbach hat Dietrich Klakow deshalb eine Methode entwickelt, um bereits bestehende Sprachmodelle speichereffizient und möglichst passend auf die 17 am weitest verbreiteten afrikanischen Sprachen einzustellen. Für die Arbeit wurden er und seine Kollegen im vergangenen Oktober mit einem "Best Paper Award" der "International Conference on Computational Linguistics", einer der führenden Fachkonferenzen der Computerlinguistik, ausgezeichnet.Es wird also weiter daran gearbeitet, den Sprachhorizont der Maschinen zu erweitern. Auf die Frage, wie sich diese Sprachfähigkeiten in Zukunft entwickeln könnten, sagt Klakow: "Durch effizientere Machine-Learning-Modelle, die weniger Trainingsdaten benötigen, oder durch bessere Methoden, um Trainingsdaten künstlich erzeugen zu können, werden zukünftig sicherlich noch mehr Sprachen in ihrer maschinellen Verarbeitung auf ein ‚produktreifes‘ Niveau gehoben werden. Ich schätze, in zehn bis 15 Jahren könnten die 400 verbreitetsten Sprachen allesamt dieses Level erreicht haben." Dass jemals alle Sprachen der Welt gleich gut funktionieren werden, hält er hingegen für ausgeschlossen: "Es wird niemals genügend Trainingsdaten geben, um beispielsweise ein ‚Zulu-ChatGPT‘ zu programmieren. In dieser Hinsicht wird das Englische wahrscheinlich immer die Nase vorn haben", resümiert der Professor.Publikation: Jesujoba O. Alabi, David Ifeoluwa Adelani, Marius Mosbach, and Dietrich Klakow. 2022. Adapting Pre-trained Language Models to African Languages via Multilingual Adaptive Fine-Tuning. In Proceedings of the 29th International Conference on Computational Linguistics, pages 4336–4349, Gyeongju, Republic of Korea. International Committee on Computational Linguistics.Lehrstuhl: https://www.lsv.uni-saarland.de
Miscellaneous

Neueste Beiträge

Mehr Leistung für SBCs
Neue Orange-Pi-Varianten von Shenzhen Xunlong liefern höhere Rechenleistung.
12 Minuten
15. Dez 2025
Simple Recipes – User Interface und Plattformanpassungen - Moderne UI-Gestaltung mit der Uno Platform, Teil 5
Fortsetzung des praxisnahen Mini-Projekts: Das Beispiel der Rezepte-App „Simple Recipes“ zeigt, wie Uno ein gemeinsames UI-Design für Desktop, Web und Mobile ermöglicht.
7 Minuten
00:00
AI included: Mit Azure AI Foundry Software entwickeln
Codrina Merigo erklärt im Interview, wo die Vorteile der Azure AI Foundry liegen.
18. Dez 2025

Das könnte Dich auch interessieren

Elektronische Schaltkreise im Browser simulieren - Simulation
Statt mit Steckfeld oder Lötkolben kann man auf dieser Website Schaltungen per Drag and Drop zusammenstellen und deren Verhalten testen.
2 Minuten
26. Jul 2018
Von Text zu Struktur: JSON-Ausgaben aus LLMs zuverlässig nutzen - KI für KMU, Teil 4
Mit JSON-Schema lassen sich LLM-Ausgaben direkt deserialisieren, typsicher verarbeiten und in bestehende Workflows integrieren.
7 Minuten
27. Nov 2025
00:00
AI included: Mit Azure AI Foundry Software entwickeln
Codrina Merigo erklärt im Interview, wo die Vorteile der Azure AI Foundry liegen.
18. Dez 2025
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige