Aufruf zum Handeln
Gründung einer deutschen Sektion der Gesellschaft für sichere und ethische KI sowie eines deutschen Instituts für KI-Sicherheit
Sehr geehrte Kolleginnen und Kollegen,
Sehr geehrte Entscheidungsträgerinnen und Entscheidungsträger,
Liebe Branchenführende, Vertreterinnen und Vertreter der Zivilgesellschaft sowie
alle, denen eine sichere und ethische Künstliche Intelligenz am Herzen liegt,
im Vorfeld des AI Action Summits in Paris hatten wir das Privileg, an der Gründungskonferenz der
Internationalen Gesellschaft für sichere und ethische Künstliche Intelligenz
(International Association for Safe and Ethical AI, IASEAI) teilzunehmen.
Dieses historische, globale Treffen widmete sich den kurz-, mittel- und langfristigen Herausforderungen
fortschrittlicher KI sowie der dringenden Notwendigkeit, robuste Sicherheits- und Ethikstandards zu entwickeln.
Der dort formulierte internationale Aufruf zum Handeln hat uns tief bewegt, inspiriert und motiviert.
Obwohl diese Herausforderungen und Chancen globaler Natur sind, erfordern sie zugleich entschlossene, lokal getriebene Initiativen.
Heute möchten wir daher Stuart Russells Aufruf zum Abschluss der Konferenz aufgreifen und zur
Gründung einer deutschen Sektion der IASEAI aufrufen. Deutschland steht an einem
kritischen Scheideweg: Da sich die KI-Technologie rasant weiterentwickelt, ist es unerlässlich, dass wir gemeinsam proaktiv eine Zukunft gestalten, in der KI der Menschheit sicher und ethisch vertretbar dient – unabhängig davon, ob wir aus Wissenschaft, Industrie, Regierung oder Zivilgesellschaft kommen.
Wir fordern die deutschen Interessengruppen insbesondere dazu auf, die folgende Prioritäten in den Blick zu nehmen:
Zentrale Forderung: Erhöhung öffentlicher Investitionen und Einrichtung eines nationalen Instituts für sichere KI
Auch wenn derzeit Wahlkampf tobt – und gerade deshalb: Wir fordern die künftige deutsche Regierung bereits jetzt auf, erhebliche öffentliche Investitionen in Forschung und Infrastruktur für sichere und ethische KI bereitzustellen.
Insbesondere sollte ein deutsches Institut für KI-Sicherheit gegründet werden, das bestehende Expertise und Initiativen bündelt, eine kohärente Strategie für sichere, vertrauenswürdige und ethische KI entwickelt und interdisziplinäre Forschung fördert.
Begründung:
In der öffentlichen Diskussion liegt derzeit ein starker Fokus auf der
Entwicklung eigener fortschrittlicher Sprachmodelle – ein verständlicher Ansatz angesichts des
technologischen Rückstands und der daraus resultierenden Abhängigkeit
Deutschlands von den USA (und bald wohl auch von China). Doch mindestens ebenso dringlich ist es, eine
sichere und nachhaltige Integration bereits existierender KI-Systeme in unsere Gesellschaft zu ermöglichen.
Die Notwendigkeit eigener KI-Modelle darf nicht davon ablenken, dass gleichzeitig
robuste Methoden und Standards für vertrauenswürdige, sichere und ethisch akzeptable KI entwickelt
werden müssen – sowohl für die Entwicklung, den Einsatz als auch die fortlaufende Kontrolle dieser Systeme,
unabhängig von ihrer Herkunft.
Deutschland fehlt bislang eine nachhaltige und koordinierte Strategie in diesem Bereich, obwohl es
vielversprechende, aber weitgehend unkoordinierte Einzelinitiativen gibt.
Vor diesem Hintergrund ist es bezeichnend, dass Frankreich und Indien beim
AI Action Summit bereits die zweite Welle nationaler AI Safety Institute gestartet haben.
Deutschland sollte diesem Beispiel folgen. Bestehende Initiativen sollten gebündelt und weiterentwickelt
werden, mit dem Ziel, ein gemeinsames und koordiniertes Vorgehen in Deutschland zu etablieren, das in der Gründung eines nationalen Safety Instituts mündet.
Um effektive Kontrollmechanismen und fortschrittliche Sicherheitsmethoden zu etablieren,
sind allerdings erhebliche öffentliche Investitionen in Forschung und Infrastruktur unerlässlich.
Dies ist nicht nur eine Frage der Sicherheit, sondern auch eine technologische Notwendigkeit,
um Deutschland als Innovationsstandort zu stärken. Ohne entschlossene Maßnahmen droht Deutschland erneut,
den Anschluss an die Weltspitze in diesem essenziellen Bereich zu verlieren – und damit eine
historische Chance zu verpassen, nicht nur durch Regulierung, sondern auch durch strategische
technologische Weichenstellungen eine europäische Vorreiterrolle in sicherer und ethischer KI einzunehmen.
Die Rolle einer deutschen IASEAI-Sektion
Ein deutsches Institut für KI-Sicherheit muss auf mehreren Säulen stehen.
Es sollte nicht nur als Schnittstelle für internationale Zusammenarbeit mit anderen AI Safety Institutes fungieren, sondern jedenfalls auch:
- die Entwicklung von Sicherheitsstandards koordinieren,
- unabhängige Infrastruktur und Dienstleistungen bereitstellen,
- Policies und Richtlinien erarbeiten,
- die relevante Forschung in Deutschland bündeln, vertiefen und ausweiten.
Dabei reicht es nicht aus, sich ausschließlich auf die
Exzellenz der deutschen Informatik zu verlassen. Vielmehr muss interdisziplinäre Forschung gefördert werden –
insbesondere durch eine gezielte Einbindung von Ethik, Sozialwissenschaften und Politikwissenschaften in die
KI-Sicherheitsforschung. Andere Länder, insbesondere angelsächsische Staaten und Kanada, sind in diesem Bereich
bereits wesentlich weiter.
Eine deutsche Sektion der IASEAI könnte hier eine zentrale Rolle spielen:
Sie könnte als Plattform dienen, um umfassende Konzepte zu entwickeln, internationale Erkenntnisse und
Best Practices zur sicheren und ethischen KI zu adaptieren und in
praktische, lokal zugeschnittene Lösungen zu überführen.
Durch die Gründung einer deutschen Sektion der IASEAI können wir die globale Vision einer
sicheren und ethischen KI in konkrete nationale Maßnahmen übersetzen.
Diese Sektion sollte als gemeinsames Forum für Wissenschaft, Industrie, Politik und Zivilgesellschaft dienen,
um die Herausforderungen der KI gemeinsam anzugehen und sicherzustellen,
dass ihre Entwicklung im Einklang mit dem Gemeinwohl steht.
Wir rufen akademische Institutionen, in Deutschland tätige Wissenschaftlerinnen und Wissenschaftler,
deutsche Unternehmen sowie zivilgesellschaftliche Akteure auf, sich dieser Initiative anzuschließen.
Lassen Sie uns Hoffnung und Ansprüche in konkretes Handeln umwandeln – für eine Zukunft, in der KI-Technologien einen positiven Beitrag für unsere Gesellschaft leisten und dem Gemeinwohl dienen, statt es zu gefährden.
Erstunterzeichner
Dr. Kevin Baum, Deutsches Forschungszentrum für Künstliche Intelligenz
Prof. Dr. Kristian Kersting, Technische Universität Darmstadt
Dr. Patrick Schramowski, Deutsches Forschungszentrum für Künstliche Intelligenz
Prof. Dr. Sebastian Vollmer, Deutsches Forschungszentrum für Künstliche Intelligenz
Prof. Dr. Ingmar Weber, Universität des Saarlandes
Prof. Dr. Verena Wolf, Deutsches Forschungszentrum für Künstliche Intelligenz
Unterstützer
Dr. Rasmus Adler, Fraunhofer IESE
Tanja Bäumel, Deutsches Forschungszentrum für Künstliche Intelligenz
Felix Friedrich, Technische Universität Darmstadt
Timo P. Gros, Deutsches Forschungszentrum für Künstliche Intelligenz
Torsten Helfer, CISPA Helmholtz Center for Information Security
JProf. Maximilian Kiener, Technische Universität Hamburg
Prof. Dr. Markus Langer, Universität Freiburg
Prof. Dr. Gerard de Melo, Hasso-Plattner-Institut / Universität Potsdam
Dr. André Meyer-Vitali, Deutsches Forschungszentrum für Künstliche Intelligenz
Dr. Christian Müller, Deutsches Forschungszentrum für Künstliche Intelligenz
Dr. Christopher Nehring, Cyberintelligence Institute
Dr. Simon Ostermann, Deutsches Forschungszentrum für Künstliche Intelligenz
Kanak Raj, Thomson Reuters
Nadine Schlicker, Institut für KI in der Medizin, Philipps-Universität Marburg
Dr. Vera Schmitt, Technische Universität Berlin
Manuela Schuler, Deutsches Forschungszentrum für Künstliche Intelligenz
Jayanth Siddamsetty, Deutsches Forschungszentrum für Künstliche Intelligenz
Andrea Sipka, Deutsches Forschungszentrum für Künstliche Intelligenz
Prof. Dr. Philipp Slusallek, Deutsches Forschungszentrum für Künstliche Intelligenz
Yoana Tsoneva, Technische Universität Berlin
Dr. Jonas Wahl, Deutsches Forschungszentrum für Künstliche Intelligenz