Modell eines menschlichen Gehirns
Analyse

Künstliche Intelligenz Verschläft Deutschland die KI-Entwicklung?

Stand: 31.01.2023 13:06 Uhr

Deutschland hinkt bei der Entwicklung von Künstlicher Intelligenz hinterher - und könnte auch hier von den USA abhängig bleiben. Ein Problem: Es fehlt an großen Rechenzentren und Geld. Hat die Ampel eine Strategie?

Eine Analyse von Kirsten Girschick, ARD Berlin

Um ChatGPT, eine Sprachsoftware mit künstlicher Intelligenz (KI), ist gerade ein regelrechter Hype entstanden. Den Chat-Bot kann jeder einfach ausprobieren. Eine Frage eingeben - eine Antwort bekommen, die menschlich klingt. Eine Arbeitsanweisung geben - etwa: schreibe eine Hausarbeit über den Dreißigjährigen Krieg - und einen fertigen Text geliefert bekommen. Im Bildungsbereich ist denn auch eine Diskussion entbrannt über den Umgang mit ChatGPT. Verteufeln oder in Unterricht und Lehre integrieren?

Die Basis des Programms ist GPT3 - das steht für "Generative Pretrained Transformer 3". Von der amerikanischen Firma Open AI konstruiert und mit einer unvorstellbaren Datenmenge trainiert - über 175 Milliarden Parameter verfügt GPT3. All das auf Basis amerikanischer Rechenleistung, aus den USA zugänglicher Daten und amerikanischer (also aus europäischer Sicht oft zu laxer) Regulierung. 

Künstliche Intelligenz könnte Arbeit an Schulen und Universitäten revolutionieren

Claudia Drexel/Daniel Frevel, NDR, tagesschau, tagesschau, 31.01.2023 20:00 Uhr

Wird Deutschland abgehängt?

Momentan werden 73 Prozent der großen KI-Modelle in den USA und 15 Prozent in China entwickelt. Angesichts dieser Entwicklung sorgen sich Digitalexperten, dass die deutsche und europäische Digitalwirtschaft mal wieder abgehängt werden könnte. Denn in Europa gibt es zwar viel Know-how, was Künstliche Intelligenz angeht. Doch die Verfügbarkeit von Rechenleistung setzt der weiteren Entwicklung derzeit Grenzen. 

In den USA plant allein Microsoft, zehn Milliarden Dollar nur in Open AI zu investieren. Bei einem Entwicklerteam von rund 400 Personen werde der größte Teil dieses Geldes in die Rechnerleistung fließen, erklärt Dominik Rehse vom Zentrum für Europäische Wirtschaftsforschung. Dagegen würden die in Deutschland bis 2025 eingeplanten staatlichen drei Milliarden Euro für die KI-Förderung auf viele kleinere Maßnahmen verteilt. Seit der ursprünglichen Konzeption der KI-Strategie im Jahr 2018 - und eines Updates 2020 - sei die Entwicklung von KI so rasant verlaufen, dass Deutschland hinterherhinke, die notwendige Infrastruktur an Rechenleistung aufzubauen. 

Eine Studie im Auftrag des Wirtschaftsministeriums hat nun untersucht, wie Deutschland aufholen könnte: die sogenannte LEAM-Machbarkeitsstudie. LEAM steht dabei für "Large European AI Models", eine Initiative des KI-Bundesverbands. Der argumentiert, wenn Deutschland nicht eigenständig diese Basistechnologie entwickeln und bereitstellen könne, werde die deutsche Industrie auf ausländische Dienste ausweichen müssen. Mit allen Schwierigkeiten, die sich dabei für Datenschutz, Datensicherheit und ethische Nutzung von KI-Modellen ergeben. 

Es fehlt an Rechenkapazität

Die marktbeherrschende Stellung von US-amerikanischen Unternehmen bei Suchmaschinen, Social Media und Cloud-Servern zeigt bereits jetzt, welche Schwierigkeiten bei Datensicherheit und Regulierung auftauchen können. Im Fall von Künstlicher Intelligenz können diese Probleme vervielfacht werden. Denn vor allem kleinere IT-Firmen müssen vorhandene Angebote nutzen, um eigene Anwendungen zu entwickeln. Sie stecken im Dilemma, wenn es keine deutschen oder europäischen KI-Modelle gibt, die bereits europäische Standards von Datenschutz oder Nicht-Diskriminierung erfüllen. Zudem haben sie oft keine eigene Rechenkapazität, um ihre Anwendungen mit großen Datenmengen zu trainieren.

Das Problem: Deutsche Firmen haben keine Giganten wie Microsoft oder Google im Hintergrund, die für milliardenschwere Investitionen in Hardware sorgen können. Speziell für kleine und mittlere Firmen sei daher der Zugang zu einer KI-Recheninfrastruktur ein enormer Hebel für die digitale Souveränität insgesamt, erklärt Oliver Grün vom Bundesverband IT-Mittelstand. Nur so könne der Rückstand zu den USA und China aufgeholt werden. Der betrifft, nach übereinstimmender Schätzung von Experten, derzeit anderthalb Jahre - in der IT-Branche eine Ewigkeit. 

Hochleistungscomputer, der neuronale Netze berechnet

Ein Hochleistungscomputer, mit dem neuronale Netze berechnet werden, steht in einem Höchstleistungsrechenzentrum in Stuttgart.

Rufe nach Großrechnern

Deshalb fordert die LEAM-Initiative, dass in Deutschland eine KI-Supercomputing-Infrastruktur geschaffen wird. Mit rund 400 Millionen Euro könne ein Rechenzentrum aufgebaut werden, das nicht nur für die Entwicklung und das Training von großen KI-Modellen genutzt werden könne, sondern auch kleineren Firmen Rechenzeit zur Verfügung stellen könne. Die Initiative betont, dies müssten nicht ausschließlich staatliche Mittel sein, erhofft sich aber, dass die Bundesregierung hier eine Initiative ergreift. 

Aus dem Wirtschaftsministerium heißt es dazu auf Nachfrage, man halte den Aufbau einer europäischen Infrastruktur, die vertrauenswürdige und transparente Open Source Foundation-Modelle entwickele, für eine geeignete Maßnahme. Deshalb habe man LEAM als Teil der Leuchtturmmaßnahme "KIKStart" in der Digitalstrategie verankert. Wer dort nachliest, erfährt aber nur vage, dass die Bundesregierung KI-Servicezentren für die stärkere Nutzung auch im Mittelstand aufbauen will. Über den Aufbau oder die Förderung eines Großrechenzentrums ist bislang in der Digitalstrategie nichts zu finden. 

Dominik Rehse vom Zentrum für europäische Wirtschaftsforschung hält eine größere Konzentration der finanziellen Mittel für geboten. Es sei notwendig, auch an dieser Stelle einen "Wumms" zu setzen. Man könne sich nicht darauf ausruhen, nur von einer KI mit europäischen Werten zu sprechen, man müsse sie auch technisch ermöglichen. 

"Flunkert munter drauflos", Doris Weßels, Wirtschaftsinformatikerin an der FH Kiel, zu Künstlicher Intelligenz an Universitäten und Schulen

KI-Modelle auf Basis von europäischem Datenschutz

Künstliche Intelligenz muss auf vielen Datensätzen trainiert werden. Der eher restriktive Umgang mit Daten in Deutschland und Europa sei dabei nicht per se ein Nachteil, sagen viele Experten. Denn wenn neue KI-Modelle gezielt auf der Basis von europäischem Datenschutz und europäischer Regulierung entwickelt werden, haben spätere Anwender die Sicherheit, dass sie sich innerhalb eines gesetzlich sicheren Rahmens bewegen. Und ihre Daten fließen nicht in die USA oder andere Staaten ab. Allerdings - so warnt wiederum Digitalminister Volker Wissing - dürfe die Regulierung auf EU-Ebene nicht so restriktiv sein, dass sie Innovationen ausbremse. 

Im Sommer soll die KI-Verordnung auf europäischer Ebene fertig sein. Sie soll sicherstellen, dass die KI-Anwendungen bestimmten Regeln folgen und Missbrauch erschwert wird. So soll etwa "Social Scoring", wie es in China üblich ist, ausgeschlossen sein. Die Algorithmen sollen diskriminierungsfrei agieren und möglichst viele Gefahren für Bürgerrechte ausschließen, zum Beispiel durch ein Verbot von Gesichtserkennung im öffentlichen Raum.

Forderung: Schwerpunkt auf Künstliche Intelligenz legen

Wie streng soll reguliert werden? An dieser Stelle sind die Digitalpolitiker im Bundestag uneins. Ronja Kammer von der CDU etwa argumentiert, die Regulierung dürfe nicht so streng sein, dass sie Innovation abwürge und die Entwicklung neuer KI-Modelle dann nur noch im Ausland stattfinde. Anke Domscheit-Berg von der Linkspartei sorgt sich dagegen, dass die Bundesregierung für eine laxere Regulierung eintreten könne - und dann etwa doch eine Gesichtserkennung im öffentlichen Raum zulässig wäre. 

Die Vorsitzende des Digitalausschusses, Tabea Rößner von den Grünen, plädiert dafür, lieber gründlich vorzugehen, als Grundrechte und Risikobewertung außen vor zu lassen. Zudem schaffe das Rechtssicherheit für die Anbieter. Bei den großen Suchplattformen etwa habe es keine Regulierung der Algorithmen gegeben, deshalb sei es intransparent, wer welche Inhalte zugespielt bekommt. Das habe auch zur heutigen Dominanz der großen US-Unternehmen geführt. Und: Wer Großrechner fordere, solle auch die Nachhaltigkeit im Blick behalten - etwa bei der Energieeffizienz von Rechenzentren. 

In einem sind sich die drei Digitalpolitikerinnen einig: Dieses Jahr müsse ein Jahr der Umsetzung werden. Die Bundesregierung müsse der Digitalisierung wieder mehr Aufmerksamkeit widmen und dabei einen Schwerpunkt auf Künstliche Intelligenz legen.

ChatGPT

Die Entwicklung von großen KI-Modellen ist zuletzt rasant fortgeschritten. Das aktuell bekannteste Beispiel ist wahrscheinlich GPT3, ein großes Sprachmodell des amerikanischen KI-Labors Open AI. Chat GPT ist die Variante, die man derzeit (noch) kostenlos testen kann. Das Sprachmodell gibt sehr schnell Antworten auch auf komplexe Fragen und erstellt Texte, die den von Menschen geschriebenen sehr nahe kommt.

GPT3 ist mit großen Mengen von Daten trainiert worden - und bietet als sogenanntes Foundation-Modell die Möglichkeit, die KI mit relativ geringem weiteren Aufwand für unterschiedliche Anwendungen und Aufgabenstellungen zu nutzen. So kann zum Beispiel ein Sprachmodell mit relativ wenig Aufwand etwa für einen Chatbot für eine Versicherung genutzt werden, indem dieser nur noch mit den versicherungsspezifischen Anforderungen trainiert werden muss.  

Im Gegensatz dazu waren bisherige neuronale KI-Modelle immer auf eine bestimmte Anwendung ausgerichtet und trainiert. Modelle wie GPT3 - "Generative Pretrained Transformer 3" bieten dagegen zukünftig die Möglichkeit, viele verschiedene KI-Anwendungen praktisch im industriellen Maßstab zu nutzen.

Foundation-Modelle sind also ein großer Entwicklungssprung der Künstlichen Intelligenz. Wissenschaftler erwarten, dass die Modelle in relativ kurzer Zeit Fähigkeiten aufweisen werden, die bis vor Kurzem nicht vorstellbar waren und den Menschen bei vielen Aufgaben - etwa der Auswertung von Geschäftsdaten -  übertreffen könnten. Doch zur Entwicklung solcher Modelle sind viele Tainingsdaten und viel Rechenleistung nötig. GPT3 hat 175 Milliarden Parameter, der Nachfolger GPT4 soll ein Vielfaches davon haben.

Dieses Thema im Programm: Über dieses Thema berichtete am 31. Januar 2023 das Erste um 06:07 Uhr im ARD-Morgenmagazin und tagesschau24 um 09:00 Uhr.