Medienbeitrag vom 22. April 2024
Hannes Ullrich ist stellvertretender Leiter der Abteilung Unternehmen und Märkte im Deutschen Institut für Wirtschaftsforschung (DIW Berlin). Er leitet ein For-schungsprojekt zu künstlicher Intelligenz im Gesundheitsbereich, das durch das Förderprogramm des Europäischen Forschungsrats für Spitzenforschung finanziert wird.
ChatGPT und andere Modelle generativer künstlicher Intelligenz (KI) haben im vergange-nen Jahr eine Welle der Faszination ausgelöst. So können die Algorithmen mühelos plausibel erscheinende Inhalte wie Bilder und Texte erstellen. Ihre öffentliche Bereitstel-lung hat aber auch zahlreiche Skeptiker auf den Plan gerufen. Was in einigen Bereichen bereits ein großer Produktivitätsgewinn ist, birgt für viele Anwendungen dennoch die Ge-fahr hoher Fehlerquoten und schürt die Angst vor Kontrollverlust. Doch statt sich auf Diskussionen über die Chancen und Risiken neuer KI-Modelle zu beschränken, sollte ein weiterer Umstand beachtet werden: Die ohnehin schon wenigen großen Tech-Kon-zerne können mit generativer KI ihre Machtfülle ausnutzen und sogar noch vergrößern. Hier kann und sollte die EU, aber auch nationale Regierungen, effektiv gegensteuern und demokratisch legitimierte Leitplanken für die Entwicklung und Verbreitung innovati-ver KI setzen.
Der Gastbeitrag von Hannes Ullrich erschien am 22.04.2024 bei Table.Media.
Obwohl (generative) KI – angesichts der Fülle komplexer Aufgaben in der heutigen Ar-beitswelt – noch nicht als in der Breite verlässliches Werkzeug angewendet werden kann, erscheint eine breite gesellschaftliche Akzeptanz bereits vorhanden zu sein: In US-Umfragen gaben über 30 Prozent der Befragten an, dass sie generative KI nutzen, um Rat für finanzielle Entscheidungen zu suchen. Dabei leiden diese Systeme nach wie vor unter hohen Fehlerquoten und produzieren mitunter unsinnige oder systematisch ver-zerrte Inhalte. Dies liegt maßgeblich daran, dass die bereitgestellten Sprachmodelle nicht für spezielle Zwecke entwickelt wurden. Daher taugen sie zum Beispiel nicht als Finanzberater oder Ersatz für den Arztbesuch. Für die aktuell bestehenden Sprachmo-delle wurde undifferenziert die größte verfügbare Masse an digitalisierten Daten verwen-det – und erst dann in begrenztem Maße durch menschliche Expertise angepasst und verifiziert. Die zunächst verwendeten Daten sind jedoch weiterhin durchsetzt von Feh-lern und Stereotypen, wie sie sich in der Gesellschaft, die ebendiese Daten in der Ge-schichte der Menschheit generiert hat, manifestieren. Das ist ein Problem, weil sich die sehr viel schwierigere Entwicklung skalierbarer kausaler Methoden, die für robuste und erklärbare Systeme grundlegend sind, noch in einem frühen Stadium befindet.
Für die Inhalte, die generative Modelle wiedergeben, spielt das Design der Entwickler und Unternehmen eine entscheidende Rolle. Insbesondere die Auswahl der Daten, auf deren Basis ein GPT-Modell erstellt wird, bestimmt maßgeblich darüber, wie robust und fair oder wie verzerrend und gefährlich die produzierten Inhalte sind. Da die
vorherrschenden generativen Modelle von einer Handvoll großer Unternehmen wie Alp-habet, Meta und Microsoft entwickelt werden, sind sie keine neutralen Wahrheits- oder Informationsmaschinen, sondern spiegeln interne Entwicklungs- und Marketingent-scheidungen dieser Unternehmen wider.
Ökonomisch betrachtet können die generativen KI Modelle, aber auch andere smarte Geräte wie VR-Brillen, die Dominanz weniger großer Tech-Unternehmen fortsetzen. Auf-grund ihrer bereits etablierten Position in Cloud-Infrastrukturen und Betriebssystemen scheinen Unternehmen wie Alphabet und Microsoft hierbei kaum einholbar zu sein, und auch die anderen drei Tech-Riesen Amazon, Apple und Meta haben in Milliardenhöhe in KI investiert. Dies sollte zum Nachdenken anregen, wenn über die Zukunft generativer KI spekuliert wird. Es verdeutlicht, welchen Anreizen diese entwickelnden Unternehmen folgen. Gleichzeitig werden direktere regulatorische Handlungsmöglichkeiten offenbart. Denn Unternehmen, die KI entwickeln und vermarkten, können entscheiden, wie sie da-tenbasierte Software entwickeln, und als Gesellschaft können wir hierauf durch einen regulatorischen Rahmen Einfluss nehmen. Darüber zu diskutieren ist essentiell und sollte durch Diskussionen, ob GPT-Modelle menschliche Intelligenz übertreffen, ein Selbstbewusstsein erlangen oder außer Kontrolle geraten können, nicht in den Hinter-grund geraten.
Eine entscheidende Rolle spielt hierbei, dass die neuen EU-Verordnungen zu digitalen Diensten und Märkten effektiv umgesetzt werden. Sie zielen darauf ab, die Marktdomi-nanz der großen Digitalkonzerne aufzubrechen und digitale Dienste transparenter und verlässlicher zu machen. Daher können sie auch einen wichtigen Beitrag dazu leisten, Risiken von KI, die sich nicht zuletzt durch die Interessen der machtvollen Tech-Kon-zerne ergeben, einzudämmen. Somit könnten die gesellschaftliche Akzeptanz von (ge-nerativer) KI nachhaltig gefördert und Produktivitätsgewinne durch Innovation ermög-licht werden. Die Europäische Kommission müsste dafür als Regulierungsinstanz stär-ker als bisher geplant in die notwendige technische und wettbewerbsinstitutionelle Ex-pertise investieren. So könnte erreicht werden, dass die Tech-Konzerne trotz ihrer beein-druckenden Ressourcen in den laufenden Stakeholder-Verfahren nicht die implizite Kontrolle über die Umsetzung der Verordnungen übernehmen. Ein weiterer effektiver Weg, mehr Transparenz und ein besseres Verständnis von durch KI beeinflussten Markt-ergebnissen zu erhalten, wäre, im Digital Markets Act – ähnlich wie im Digital Services Act – unabhängigen Wissenschaftlerinnen und Wissenschaftlern den Zugang zu Daten der Gatekeeper zu ermöglichen.
Letztendlich wird es aber auch von der Höhe der Investitionen in Daten- und Recheninf-rastrukturen sowie in die interdisziplinäre Grundlagenforschung abhängen, wenn es um die Qualität künftiger KI geht. Denn es reicht nicht, erfolgreiche und durchaus innovative Konzerne zu regulieren. Es müssen auch Potenziale für neue Innovationssprünge, die auch bestehende Marktkonstellationen überwinden können, gefördert werden.
Themen: Digitalisierung , Unternehmen