Protokoll der Sitzung vom 08.11.2023

Es geht gar nicht so sehr um die Datenanalyse und darüber, was die eigentliche Aufgabe der KI ist, sondern um die Art der Datenerhebung: quasi voll automatisch und im Vorbeigehen. Big Data und KI gehören zwar zusammen; sie sollten aber nicht die Rechtfertigung dafür sein, alles zuzulassen.

Das hat auch nichts mit der Auswertung von offiziell verfügbaren Daten zu tun. Ein Forschungsinstitut, welches bereits medizinische Daten erfasst, kann diese auch gegen die Einwilligung der Betroffenen auswerten. Das geht so oder so schon, auch mittels KI.

Wenn man die medizinische Diagnose-KI und Siri auf eine Stufe stellt, dann versucht man im Nebel der KI, die ganzen semi-legalen Spielzeuge der Datenkrakerei zu legitimieren und noch neue Quellen für Personendaten zu schaffen. Das ist ein Unterschied. Die KI ist keine Rechtfertigung, den Datenschutz abzuschaffen und alles zu durchleuchten und zu speichern. Das ist ein gesellschaftspolitischer Ansatz und hat nichts mit der KI und den dafür notwendigen Voraussetzungen zu tun.

Meine sehr geehrten Damen und Herren! In der KI-Strategie des Freistaates ist neben einer zentralen Säule auch von ethischer Verantwortung die Rede. Der Minister hat dazu nicht viel gesagt, nur, dass im kommenden Jahr die Pläne, einen diesbezüglichen Beirat einzurichten, vorgestellt werden sollen. Die Frage ist folgende: Was soll der Beirat beraten und entscheiden? Meistens geht es um Extremsituationen wie zum Beispiel: Wen soll die KI zuerst retten? Die drei Senioren oder zwei Kinder?

Im Grunde geht es um Antworten, bei denen wir uns auch jenseits der KI schwertun, richtige Antworten zu finden. Zwar ist es nicht falsch, sich über solche Fragen Gedanken zu machen. Die KI aber wird uns keine Antwort auf moralische Fragen geben, die wir selbst nicht klären können.

Viel wichtiger wäre es, die Zuverlässigkeit und Objektivität der der künstlichen Intelligenz zugrundeliegenden Daten und Algorithmen zu hinterfragen. Schöpft die KI aufgrund einer objektiven Wissensbasis eine objektiv wahre Antwort, oder haben wir lediglich ein mit hoher Wahrscheinlichkeit treffendes und in seiner Tendenz sogar schon vorher festgelegtes Ereignis? Das ist bei Leibe nicht das Gleiche. Es geht nicht darum, dass die KI ethisch vertretbare Werte erzeugt, sondern darum, wie verlässlich und objektiv dieses Ergebnis ist.

Eine gute Frage wäre in diesem Zusammenhang folgende: Kann es gelingen, die Hersteller von solchen Algorithmen und KI nach ähnlichen Maßstäben, wie es bei der IT zum Beispiel in der Luftfahrt üblich ist, zu Beweis- und Dokumentationspflichten zu bewegen? Ich sage das gerade vor dem Hintergrund, nicht vor einer undurchschaubaren KIBlackbox zu stehen.

Sehr geehrter Herr Staatsminister! Die Ausführungen von mir sind bisher alle sehr allgemein gehalten. Das hat seinen Grund. Wenn wir über den Freistaat reden, dann stellt sich natürlich auch die Frage, wie sich das auf den Freistaat und seine Verwaltung niederschlägt. Sie haben das Thema angerissen und auch auf die Kooperation mit dem Land Baden-Württemberg verwiesen. Wirklich konkret geworden sind Sie leider nicht. Sie haben mehr über die Uni Breslau gesprochen als über die Rolle der KI in der Landesverwaltung. Dazu hätte man sich schon genauere Ausführungen gewünscht. Wenn Sachsen vorn mitspielen möchte, dann muss das natürlich auch für den Staat selbst gelten.

Man hat fast den Eindruck, als sei es wie mit dem Onlinezugangsgesetz. Beides hat zwar nicht zwangsläufig miteinander zu tun. Bei beiden klaffen Anspruch und Wirklichkeit aber etwas auseinander.

Herr Staatsminister, Sie sprachen von einem möglichen künftigen Pilotprojekt. Das vertröstet doch sehr auf morgen, vielleicht sogar auf übermorgen. Dabei haben wir so viele Baustellen vor uns, bei denen KI zwar kein Allheilmittel ist, mit dem alles besser wird, aber wo sie sicherlich einen Beitrag leisten kann.

Es ist noch gar nicht so lange her, da haben wir hier über die Bürokratie gesprochen. Fragen des Personals stehen auch immer wieder im Raum. Wie viel Personal brauche ich für welche Aufgaben? Wo können einfache Verwaltungsabläufe und technische Assistenzsysteme – nichts anderes ist die KI – zu einem Umbau der Verwaltung führen? Ich hoffe, dass wir dazu beim nächsten Mal mehr hören. Das liegt letztendlich im direkten Zuständigkeitsbereich der Staatsregierung, im Bereich dessen, was Sie tatsächlich machen können.

Zum Schluss bleibt noch die Hoffnung des Staatsministers, dass uns das Ganze klüger macht. Das muss sich noch erweisen. Wenn wir glauben, dass die KI unsere Probleme löst, indem sie für uns objektiv richtige Entscheidungen trifft oder gar metaphysische Wahrheiten generiert, dann wird das mit Sicherheit nicht passieren. Wenn wir dem jedoch offen und kritisch hinterfragend gegenüberstehen, die KI als Werkzeug verstehen und in den Alltag implementieren, dann wird sie auch den von vielen erhofften Nutzen stiften, und zwar ohne dass man Angst vor irrationalen Weltuntergangszenarien haben muss.

In diesem Sinne vielen Dank!

(Beifall bei den LINKEN)

Herr Kollege Brünler sprach für die Fraktion DIE LINKE. Nun spricht

Herr Kollege Dr. Gerber für die Fraktion BÜNDNISGRÜNE. Bitte schön, Herr Kollege.

Herr Präsident! Sehr geehrter Herr Schenk! Sehr geehrte Kolleginnen und Kollegen! Ich würde gern mit der Antwort von 738 KIWissenschaftlern auf eine Frage beginnen, die das AI Impact Survey im Oktober 2022 gestellt hat. Die Frage lautete wie folgt: Für wie wahrscheinlich halten Sie es, dass die menschliche Unfähigkeit, zukünftige fortgeschrittene KISysteme zu kontrollieren, zum Aussterben der Menschheit oder ähnlich dauerhafter und schwerwiegender Entmachtung der menschlichen Spezies führt? – Wohlgemerkt, in dieser Frage steht keine Jahreszahl, also kein Zieldatum. Die Hälfte der KI-Forscher geht davon aus, dass es eine 10prozentige oder höhere Wahrscheinlichkeit gibt, dass dies eintrifft. Sie können sich folgende Frage einmal stellen: Würden Sie in ein Flugzeug steigen, von dem die Hälfte der Ingenieurinnen und Ingenieure sagt, dass Sie bei jedem zehnten Flug abstürzen?

Ich persönlich kann die Frage aus den Survey nicht mit Sicherheit beantworten. Es gibt aber viele gute Gründe, die dagegensprechen. Ich glaube, dass es eine deutlich drängendere Frage gibt, mit der wir alle uns viel eher beschäftigen müssen; aber dazu später mehr.

Wenn wir also die künstliche Intelligenz in Zukunft in vielen Bereichen des öffentlichen und privaten Lebens vermehrt einsetzen möchten – ich halte das für sinnvoll –, dann sollten wir uns gut überlegen, wie wir das tun. Dass wir alle bereits seit langer Zeit mit den Auswirkungen der KI konfrontiert sind und teilweise die Chance verpasst wurde, mit Regulierung ungünstigen Effekten entgegenzusteuern, sieht man in einem verwandten Beispiel: den sozialen Netzwerken. Dort wurde am Anfang auch mit Nützlichkeit der künstlichen Intelligenz geworben, zum Beispiel, dass jeder eine Stimme bekommt, Gleichgesinnte einfacher findet oder Produkte einfacher platziert werden.

Was passiert jedoch in der Realität? Meiner Meinung nach wird zu wenig über die Auswirkungen dieser auf Engagement optimierten KI-Algorithmen gesprochen. Apps werden absichtlich so produziert, dass Menschen immer weiter scrollen. Das führt zu Abhängigkeiten, schlechter mentaler Gesundheit, verkürzten Aufmerksamkeitsspannen, Polarisation in der Gesellschaft oder Desinformation. Das hat natürlich Auswirkungen auf die Politik, auf Wahlen, das Aufwachsen, Journalismus usw. Wenn wir KI in der Zukunft verstärkt einsetzen wollen, dann müssen wir die richtigen Rahmenbedingungen setzen, und diese müssen klar und sicher sein.

Vielleicht lohnt es sich, einen Schritt zurückzutreten und zu klären, worüber wir hier eigentlich reden. Der Unterschied zwischen diesen KI-Algorithmen und dem normalen oder regelbasierten Programmieren ist der: Während bisher die Eingabe und die Regeln zur Verarbeitung der Eingabe bekannt waren und die Ausgabe gesucht wurde, verläuft das bei KI-Systemen komplett anders. Hier sind die Eingabe und die Ausgabe bekannt; aber die Regeln zur Verarbeitung werden gesucht. Das ist ein fundamentaler

Unterschied in der Herangehensweise, der es auch so schwermacht, genau nachzuvollziehen, warum eine Entscheidung wie getroffen wurde. Auf diese Weise konnte man zum Beispiel 1997 den weltbesten Schachspieler Kasparow, 2011 die besten Jeopardy-Spieler und 2016 auch den besten Go-Spieler der Welt schlagen. Warum blieb damals die öffentliche Diskussion über KI aus? Weil es Programme waren, die speziell auf einen Anwendungsfall trainiert und angepasst waren. Diese Generative PreTrained Transformer – oder auch GPTs genannt, mit übrigens nur wenigen 100 Zeilen Code und bekannt durch ChatGPT – haben diese Technologie einem extrem breiten Publikum für quasi beliebige Zwecke zugänglich gemacht.

Die Idee, die dahintersteckt, ist die, dass alles als eine Art Sprache behandelt wird. Es ist also völlig egal, ob ich Text, Bild, Musik, Video, MRT-Aufnahmen oder DNA bearbeite. Damit wird alles in alles übersetzbar. Fortschritte in einem Gebiet werden plötzlich anwendbar in einem anderen. Damit steigt massiv die Geschwindigkeit, mit der geforscht wird.

Die Anwendungsfälle sind genauso unbegrenzt wie abgefahren. Es ist zum Beispiel möglich, mittels MRT-Aufnahmen die Gehirnströme einer Testperson zu analysieren und daraus zu rekonstruieren, auf welches Bild die Person in dem Experiment geschaut hat. Ich kann das mündlich extrem schlecht wiedergeben. Aber in dem dazugehörigen Paper kann man eindeutig die Vorher-/Nachherbilder sehen. Da sieht man eindeutig, dass die Menschen auf eine Giraffe, eine Feuerwehr oder einen Baseballspieler geschaut haben. Man kann damit in Richtung einer Traumanalyse gehen.

Es gibt weitere Beispiele: Forschende untersuchen über handelsübliche WLAN-Router und KI-gesteuerte Algorithmen anhand von Wifi-Signalen, mit welchen unterschiedlichen Haltungen Menschen in Räumen auftreten. Es werden maßgeschneiderte metallorganische Gerüste aus einem nicht durch Menschen durchsuchbaren Lösungsraum auf ihre Wirksamkeit hin untersucht, um beispielsweise durch direkte Luftabscheidungen CO2 aus der Atmosphäre zu entfernen.

Es wird künftig häufiger Deepfakes inklusive der passenden Stimme geben. Das ist ganz besonders relevant für alle Menschen, die in diesem Raum sitzen, weil von Ihnen allen genügend Video- und Audiomaterial zur Verfügung steht, um diese Algorithmen dafür zu trainieren.

Wenn wir über KI sprechen, dann müssen wir auch über den zunehmenden Energieverbrauch und den Ausstoß von CO2-Äquivalenten sprechen. Prof. Herbrich hat das in seiner Keynote auf der 2. KI-Konferenz sehr eindrücklich ausgeführt. KI kann einerseits dazu beitragen, die Steuerung von Batterien – und davon sind mit steigender Tendenz inzwischen wahrscheinlich schon Milliarden im Einsatz – energieeffizienter zu gestalten. Das ist ein Forschungsthema, das man auch von Sachsen aus unbedingt besetzen sollte. Andererseits führt die Integration von KISchnittstellen zwangsläufig zu einem höheren Energieverbrauch. Nach Prof. Herbrich kommen heute 4 bis 8 % des

weltweiten Stromverbrauchs bereits aus der IT. Aktuell existieren gerade zu den großen kommerziellen Modellen keine Daten; diese werden einfach nicht veröffentlicht. Ich gehe davon aus, dass die Energiekosten des laufenden Betriebs viel höher als die in der Trainingsphase sind. Die Untersuchungen, von denen ich sprach, liefern näherungsweise Ergebnisse. Beispielsweise wird für ChatGPT geschätzt, dass 3 600 Server und 30 000 Grafikkarten im Einsatz sind, und zwar mit einem Stromverbrauch an einem Tag, den 280 Haushalte in einem Jahr benötigen. Selbstverständlich sind hier die Produktionskosten von Chips, Transport und weitere Faktoren noch nicht eingerechnet. Würde man KI zukünftig für jede Google-Suche einsetzen, dann stiege der Bedarf auf 500 000 Server und 4 Millionen Prozessoren sowie 77 Gigawattstunden Strombedarf. Das ist für Microsoft sicher ein verlockender, wenn auch extrem teurer Weg, hier wertvolle Prozente im Markt der Internetsuche zurückzugewinnen.

Das alles sind keine Ausschlusskriterien, aber wir müssen es in Zukunft mit bedenken. Es muss sichergestellt sein, dass genügend erneuerbarer Strom für die Rechenzentren verfügbar ist und dass möglichst nur für die Gesamtgesellschaft hilfreiche Modelle gefördert, entwickelt und eingesetzt werden.

Ich bin davon überzeugt, dass die Welt der Software in Zukunft eine offene sein wird. Kollaboration ist das Mittel der Wahl, egal, ob bei der KI oder beim OZG-Verfahren zur Hundesteuer. Die Losung „Es ist schon alles programmiert, aber noch nicht von jedem“ kann es nicht sein. Zur Wahrheit gehört, dass die meisten OZG-Verfahren sicherlich ohne KI umgesetzt werden können.

Jetzt komme ich zu dem anfangs erwähnten drängenderem Problem. Wenn es unser Ziel ist – das ich teile; ich zitiere hier den Ministerpräsidenten –, dass Sachsen zu einem der führenden Forschungs- und Innovationsstandorte für künstliche Intelligenz werden soll, dann müssen wir aufpassen, dass wir handlungsfähig bleiben.

Nach der ersten KI-Welle im vergangenen Jahr haben sich einige wenige Player am Markt durchgesetzt. Das sehe ich ein wenig anders als Herr Schenk an dieser Stelle. Dazu gehören OpenAI, die übrigens alles andere als offen sind, Google, Microsoft usw. Diese Firmen lobbyieren gerade für eine extrem strenge Regulierung von KI. Damit würden sie sich in Zukunft allein den Markt aufteilen und Innovationen ersticken. Das sehe nicht nur ich so, sondern auch Yann LeCun, einer der 100 einflussreichsten Menschen auf dem Gebiet der AI laut einer Liste des „Time Magazine“, Turing-Award-Preisträger, manchmal auch „Godfather of AI“ genannt. Er sagt: „In einer Zukunft, in der KI-Systeme dazu bestimmt sind, das Sammelbecken für das gesamte menschliche Wissen und die menschliche Kultur zu bilden, müssen die Plattformen Open Source sein und frei zur Verfügung stehen, damit jeder zu ihnen beitragen kann. Offenheit ist der einzige Weg, um KI-Plattformen das gesamte menschliche Wissen und Kultur widerspiegeln zu lassen.“

Welchen Einfluss eine derartige Monopolstellung auf unsere Demokratie, auf unsere Kultur und unsere Vielfalt

hätte, möchte ich mir wirklich nicht vorstellen. Im Übrigen gehen viele Wissenschaftlerinnen und Wissenschaftler davon aus, dass Open-Source-KI-Modelle unschlagbar werden; denn die Open-Source-Community ist weltweit deutlich größer, als es jede einzelne Firma sein kann. Das ist auch ein Punkt, den der französische Premier Macron anscheinend verstanden hat, als er in seiner Rede bei Frankreichs Top-Tech-Konferenz sagte: „Wir glauben an Open Source.“

Es geht aber bei offener KI nicht nur um Algorithmen, sondern noch um mindestens drei weitere Flaschenhälse, die bedacht werden müssen. Das sind Daten, Fachkräfte und die Rechenkapazität, um diese Modelle überhaupt trainieren zu können. Die Daten – so viel sollte offensichtlich sein – müssen offen und vorurteilsfrei sein und für jeden frei zur Verfügung stehen. Wir brauchen mehr Daten, aber bitte nicht im PDF-Format. Wir brauchen klare Wege, dass Content Creator, egal ob Programmiererin oder Maler, eine Chance haben, nicht ausgebeutet zu werden und eine finanzielle Beteiligung zu erhalten. Macht man das nicht, dann erzeugt man den gegenteiligen Effekt und erhält weniger Daten, da Menschen aufhören, ihre Werke öffentlich zu teilen. Diese Entwicklung ist jetzt schon beobachtbar.

Beim Thema Fachkräfte ist die sächsische Forschungslandschaft bei der KI-Grundlagenforschung sowohl inhaltlich als auch räumlich breit aufgestellt. Es gibt 23 außeruniversitäre Einrichtungen, 24 Hochschulfakultäten und Institute, die an KI-Methoden forschen, egal ob es das Institut für angewandte Informatik ist, das KI-Labor des Umweltbundesamtes, das ScaDS.AI. Ich habe gestern noch einmal nachgezählt: 155 Publikationen zu diesem Thema allein 2023.

Die Kompetenzstelle für KI des Freistaates, die Fraunhofer-Gesellschaft, das Helmholtz-Zentrum, die LeibnizGemeinschaft, die Max-Planck-Gesellschaft – alle forschen und arbeiten an unglaublich spannenden Projekten, die ich mir teilweise schon anschauen durfte. Da wäre zum einen eine Analyse im SARDINE-Projekt zur Wiedernutzbarmachung von Braunkohletagebauen – eine im Hinblick auf den demografischen Wandel und den damit eintretenden Verlust an Kenntnis des analogen Sachstands in der Verwaltung enorm sinnvolle Arbeit.

Es gibt zum anderen KI-Verfahren im CoyPu-Projekt zur Verbesserung des Krisenmanagements der deutschen Wirtschaft. Dabei werden mithilfe von Daten aus wirtschaftlichen Wertschöpfungsnetzwerken qualitative und

tagesaktuelle Erkenntnisse über Fakten und Trends abgeleitet.

Ich bekomme in den Gesprächen auch mit, dass leider immer häufiger rassistische Ressentiments gegen Mitarbeitende und Studierende vorkommen. Das ist ein Trend, der nicht anhalten darf und sich in Zukunft ändern muss.

Besonders sinnvoll ist auch, dass Kinder und Jugendliche möglichst frühzeitig mit Technologien in Kontakt kommen. Mit Projekten, die es in die KI-Strategie des Freistaates geschafft haben – beispielsweise dem Fabmobil, Jugend hackt, Initiative Digitale Schule oder Meet the Robots –,

gibt es viele verschiedene Angebote. Ich gehe nicht davon aus, dass das reicht. Meiner Meinung nach müssen alle Menschen wissen, was KI kann, was sie nicht kann, was „Prompts“ sind und was ich tun kann, wenn ich eine Nachricht mit dem Trump-Snapchat-Filter bekomme und wie ich mich gegen Fake News wehren kann. Wir brauchen digital mündige Bürgerinnen und Bürger in einer zunehmend digitalen Welt.

Es bleibt noch der dritte Flaschenhals: Die Rechenkapazität. Aktuell ist der Zugang dazu extrem beschränkt und teuer. Außerdem gibt es mit NVIDIA nur einen großen Anbieter mit einem Marktanteil von 90 %. Es findet also wieder eine Konzentration in den Händen einiger weniger Konzerne statt, die wiederum davon profitieren, die Einzigen zu sein, diese Modelle zu trainieren und den Zugriff dazu zu vermarkten.

Somit können wir in Sachsen die klügsten Leute der Welt forschen lassen. Wenn wir dann auf den Segen der internationalen Cloud-Providern angewiesen sind, um diese Modelle laufen zu lassen, haben wir im Prinzip nichts gekonnt. Von daher begrüße ich es sehr, dass die Uni Leipzig hier ein eigenes KI-Rechenzentrum in Sachsen plant und damit in Zukunft einen wichtigen Beitrag zur Verfügbarkeit von genügend Rechenkapazität für KI-Anwendungen leistet.

Um im Wettkampf der Großmächte nicht zerrieben zu werden, muss in Zukunft die EU einen größeren Beitrag leisten. Diesbezüglich stimme ich Herrn Schenk zu. Der Deutsche Verband Large-scale Artificial Intelligence Open Network schlägt zum Beispiel eine öffentlich finanzierte und demokratisch verwaltete Forschungseinrichtung vor, die in der Lage ist, KI-Modelle im großen Maßstab zu entwickeln. Die Idee einer vertrauenswürdigen interoperablen und für alle offenen digitalen Infrastruktur wird übrigens auch von Präsident Macron und Ursula von der Leyen unterstützt.

Zum Schluss möchte ich noch meinen herzlichen Dank an Frau Prof. Lauber-Rönsberg und Frau Prof. Platow von der TU Dresden bzw. vom ScaDS.AI aussprechen, die auf dem zweiten Sächsischen KI-Kongress die Vorteile eines sächsischen KI-Beirats vorgestellt haben.

Ein unabhängiger Beirat, losgelöst von politischen Einflüssen, kann maßgeblich dazu beitragen, das öffentliche Vertrauen in KI zu stärken. Von daher freue ich mich über die Ankündigung von Herrn Schenk zur Vorstellung des Rates – ich hoffe bei der nächsten KI-Konferenz im April – durch die Aufbereitung und Einordnung technischer Entwicklungen usw. Noch ein Zitat von Frau Prof. Rönsberg.

Herr Dr. Gerber, die Zeit ist abgelaufen.

Ja, ich höre sofort auf. – Um mit den Worten der Ministerin für Wissenschaft und Technologie des UK beim AI Summit letzte Woche zu schließen: Wenn wir das Vertrauen in der Bevölkerung nicht nachhaltig aufbauen, dann werden wir die Potenziale von KI in unserem Gesundheitssystem, der

Verkehrswende und der Bekämpfung der Klimakrise nicht nutzen können. Das wäre doch die größte Tragödie, die wir uns vorstellen können.

Vielen Dank.