Safe & Ethical AI

Die Gewährleistung einer sicheren und ethischen künstlichen Intelligenz ist eine globale Herausforderung.

Auch Deutschland muss handeln, um sie zu bewältigen.

Darum rufen wir zur Gründung eines deutsches Chapters der IASEAI auf.

"The development of highly capable AI is likely to be the biggest event in human history. The world must act decisively to ensure it is not the last event in human history. This conference, and the cooperative spirit of the AI Summit series, give me hope; but we must turn hope into action, soon, if there is to be a future we would want our children to live in."

– Professor Stuart Russell, IASEAI President and Distinguished Professor of Computer Science at the University of California

Kontakt aufnehmen

Arbeiten Sie an sicherer und ethischer KI in Deutschland oder sind Sie daran interessiert, einen Beitrag dazu zu leisten? Sind Sie ein Forscher oder Vertreter einer akademischen Einrichtung oder der Industrie, eines Startups oder KMUs, einer NGO oder politischen Organisation oder einer staatlichen Einrichtung?

Möchten Sie den Aufruf zum Handeln unterstützen und als Unterzeichner:in aufgeführt werden? Dann tragen Sie sich bitte in unser Unterzeichnungsformular ein.

Für direkte Anfragen oder weitere Informationen können Sie uns auch per E-Mail erreichen: 📩 join@iaseai.de

Aufruf zum Handeln
Gründung einer deutschen Sektion der Gesellschaft für sichere und ethische KI sowie eines deutschen Instituts für KI-Sicherheit

Sehr geehrte Kolleginnen und Kollegen,
Sehr geehrte Entscheidungsträgerinnen und Entscheidungsträger,
Liebe Branchenführende, Vertreterinnen und Vertreter der Zivilgesellschaft sowie
alle, denen eine sichere und ethische Künstliche Intelligenz am Herzen liegt,

im Vorfeld des AI Action Summits in Paris hatten wir das Privileg, an der Gründungskonferenz der Internationalen Gesellschaft für sichere und ethische Künstliche Intelligenz (International Association for Safe and Ethical AI, IASEAI) teilzunehmen. Dieses historische, globale Treffen widmete sich den kurz-, mittel- und langfristigen Herausforderungen fortschrittlicher KI sowie der dringenden Notwendigkeit, robuste Sicherheits- und Ethikstandards zu entwickeln. Der dort formulierte internationale Aufruf zum Handeln hat uns tief bewegt, inspiriert und motiviert.

Obwohl diese Herausforderungen und Chancen globaler Natur sind, erfordern sie zugleich entschlossene, lokal getriebene Initiativen.

Heute möchten wir daher Stuart Russells Aufruf zum Abschluss der Konferenz aufgreifen und zur Gründung einer deutschen Sektion der IASEAI aufrufen. Deutschland steht an einem kritischen Scheideweg: Da sich die KI-Technologie rasant weiterentwickelt, ist es unerlässlich, dass wir gemeinsam proaktiv eine Zukunft gestalten, in der KI der Menschheit sicher und ethisch vertretbar dient – unabhängig davon, ob wir aus Wissenschaft, Industrie, Regierung oder Zivilgesellschaft kommen.

Wir fordern die deutschen Interessengruppen insbesondere dazu auf, die folgende Prioritäten in den Blick zu nehmen:

Zentrale Forderung: Erhöhung öffentlicher Investitionen und Einrichtung eines nationalen Instituts für sichere KI

Auch wenn derzeit Wahlkampf tobt – und gerade deshalb: Wir fordern die künftige deutsche Regierung bereits jetzt auf, erhebliche öffentliche Investitionen in Forschung und Infrastruktur für sichere und ethische KI bereitzustellen. Insbesondere sollte ein deutsches Institut für KI-Sicherheit gegründet werden, das bestehende Expertise und Initiativen bündelt, eine kohärente Strategie für sichere, vertrauenswürdige und ethische KI entwickelt und interdisziplinäre Forschung fördert.

Begründung:

In der öffentlichen Diskussion liegt derzeit ein starker Fokus auf der Entwicklung eigener fortschrittlicher Sprachmodelle – ein verständlicher Ansatz angesichts des technologischen Rückstands und der daraus resultierenden Abhängigkeit Deutschlands von den USA (und bald wohl auch von China). Doch mindestens ebenso dringlich ist es, eine sichere und nachhaltige Integration bereits existierender KI-Systeme in unsere Gesellschaft zu ermöglichen.

Die Notwendigkeit eigener KI-Modelle darf nicht davon ablenken, dass gleichzeitig robuste Methoden und Standards für vertrauenswürdige, sichere und ethisch akzeptable KI entwickelt werden müssen – sowohl für die Entwicklung, den Einsatz als auch die fortlaufende Kontrolle dieser Systeme, unabhängig von ihrer Herkunft. Deutschland fehlt bislang eine nachhaltige und koordinierte Strategie in diesem Bereich, obwohl es vielversprechende, aber weitgehend unkoordinierte Einzelinitiativen gibt.

Vor diesem Hintergrund ist es bezeichnend, dass Frankreich und Indien beim AI Action Summit bereits die zweite Welle nationaler AI Safety Institute gestartet haben. Deutschland sollte diesem Beispiel folgen. Bestehende Initiativen sollten gebündelt und weiterentwickelt werden, mit dem Ziel, ein gemeinsames und koordiniertes Vorgehen in Deutschland zu etablieren, das in der Gründung eines nationalen Safety Instituts mündet.

Um effektive Kontrollmechanismen und fortschrittliche Sicherheitsmethoden zu etablieren, sind allerdings erhebliche öffentliche Investitionen in Forschung und Infrastruktur unerlässlich. Dies ist nicht nur eine Frage der Sicherheit, sondern auch eine technologische Notwendigkeit, um Deutschland als Innovationsstandort zu stärken. Ohne entschlossene Maßnahmen droht Deutschland erneut, den Anschluss an die Weltspitze in diesem essenziellen Bereich zu verlieren – und damit eine historische Chance zu verpassen, nicht nur durch Regulierung, sondern auch durch strategische technologische Weichenstellungen eine europäische Vorreiterrolle in sicherer und ethischer KI einzunehmen.

Die Rolle einer deutschen IASEAI-Sektion

Ein deutsches Institut für KI-Sicherheit muss auf mehreren Säulen stehen. Es sollte nicht nur als Schnittstelle für internationale Zusammenarbeit mit anderen AI Safety Institutes fungieren, sondern jedenfalls auch:

Dabei reicht es nicht aus, sich ausschließlich auf die Exzellenz der deutschen Informatik zu verlassen. Vielmehr muss interdisziplinäre Forschung gefördert werden – insbesondere durch eine gezielte Einbindung von Ethik, Sozialwissenschaften und Politikwissenschaften in die KI-Sicherheitsforschung. Andere Länder, insbesondere angelsächsische Staaten und Kanada, sind in diesem Bereich bereits wesentlich weiter.

Eine deutsche Sektion der IASEAI könnte hier eine zentrale Rolle spielen: Sie könnte als Plattform dienen, um umfassende Konzepte zu entwickeln, internationale Erkenntnisse und Best Practices zur sicheren und ethischen KI zu adaptieren und in praktische, lokal zugeschnittene Lösungen zu überführen.

Durch die Gründung einer deutschen Sektion der IASEAI können wir die globale Vision einer sicheren und ethischen KI in konkrete nationale Maßnahmen übersetzen. Diese Sektion sollte als gemeinsames Forum für Wissenschaft, Industrie, Politik und Zivilgesellschaft dienen, um die Herausforderungen der KI gemeinsam anzugehen und sicherzustellen, dass ihre Entwicklung im Einklang mit dem Gemeinwohl steht.

Wir rufen akademische Institutionen, in Deutschland tätige Wissenschaftlerinnen und Wissenschaftler, deutsche Unternehmen sowie zivilgesellschaftliche Akteure auf, sich dieser Initiative anzuschließen.

Lassen Sie uns Hoffnung und Ansprüche in konkretes Handeln umwandeln – für eine Zukunft, in der KI-Technologien einen positiven Beitrag für unsere Gesellschaft leisten und dem Gemeinwohl dienen, statt es zu gefährden.

Erstunterzeichner

Dr. Kevin Baum, Deutsches Forschungszentrum für Künstliche Intelligenz

Prof. Dr. Kristian Kersting, Technische Universität Darmstadt

Dr. Patrick Schramowski, Deutsches Forschungszentrum für Künstliche Intelligenz

Prof. Dr. Sebastian Vollmer, Deutsches Forschungszentrum für Künstliche Intelligenz

Prof. Dr. Ingmar Weber, Universität des Saarlandes

Prof. Dr. Verena Wolf, Deutsches Forschungszentrum für Künstliche Intelligenz

Unterstützer

Dr. Rasmus Adler, Fraunhofer IESE

Tanja Bäumel, Deutsches Forschungszentrum für Künstliche Intelligenz

Felix Friedrich, Technische Universität Darmstadt

Timo P. Gros, Deutsches Forschungszentrum für Künstliche Intelligenz

Torsten Helfer, CISPA Helmholtz Center for Information Security

JProf. Maximilian Kiener, Technische Universität Hamburg

Prof. Dr. Markus Langer, Universität Freiburg

Prof. Dr. Gerard de Melo, Hasso-Plattner-Institut / Universität Potsdam

Dr. André Meyer-Vitali, Deutsches Forschungszentrum für Künstliche Intelligenz

Dr. Christian Müller, Deutsches Forschungszentrum für Künstliche Intelligenz

Dr. Christopher Nehring, Cyberintelligence Institute

Dr. Simon Ostermann, Deutsches Forschungszentrum für Künstliche Intelligenz

Kanak Raj, Thomson Reuters

Nadine Schlicker, Institut für KI in der Medizin, Philipps-Universität Marburg

Dr. Vera Schmitt, Technische Universität Berlin

Manuela Schuler, Deutsches Forschungszentrum für Künstliche Intelligenz

Jayanth Siddamsetty, Deutsches Forschungszentrum für Künstliche Intelligenz

Andrea Sipka, Deutsches Forschungszentrum für Künstliche Intelligenz

Prof. Dr. Philipp Slusallek, Deutsches Forschungszentrum für Künstliche Intelligenz

Yoana Tsoneva, Technische Universität Berlin

Dr. Jonas Wahl, Deutsches Forschungszentrum für Künstliche Intelligenz

Call to Action
Establishment of a German Chapter of the Association for Safe and Ethical AI and a German Institute for AI Safety

Dear colleagues,
Dear decision-makers,
Dear industry leaders, representatives of civil society,
and everyone committed to safe and ethical artificial intelligence,

Ahead of the AI Action Summit in Paris, we had the privilege of participating in the Inaugural Conference of the International Association for Safe and Ethical AI (IASEAI). This historic, global gathering was dedicated to addressing the short-, medium-, and long-term challenges of advanced AI, as well as the urgent need to develop robust safety and ethics standards. The international call to action formulated at this event deeply moved, inspired, and motivated us.

Although these challenges and opportunities are global in nature, they require decisive, locally driven initiatives.

In response to Stuart Russell’s call at the conclusion of the conference, we propose the establishment of a German chapter of the IASEAI. Germany stands at a critical crossroads: As AI technology rapidly advances, it is essential that we proactively shape a future in which AI serves humanity safely and ethically—whether we come from academia, industry, government, or civil society.

Key Demand: Increased Public Investment and the Establishment of a National Institute for AI Safety

Even in the midst of the ongoing election campaign—and perhaps especially because of it—we urge the next German government to allocate substantial public investments in research and infrastructure for safe and ethical AI.

Most importantly, a German Institute for AI Safety should be established to consolidate existing expertise and initiatives, develop a coherent strategy for safe, trustworthy, and ethical AI, and foster interdisciplinary research.

Rationale

Public discourse in Germany currently places strong emphasis on developing domestic advanced language models—a reasonable approach given Germany’s technological lag and resulting dependence on the United States (and soon, likely China). However, just as urgent is the need to establish mechanisms for the safe and sustainable integration of already existing AI systems into our society.

The necessity of developing our own AI models must not distract from the simultaneous need to establish robust methods and standards for trustworthy, safe, and ethically acceptable AI—covering development, deployment, and continuous oversight, regardless of their origin.

The Role of a German IASEAI Chapter

A German Institute for AI Safety must rest on multiple pillars. In addition to serving as an interface for international collaboration with other AI Safety Institutes, it should also:

It is not enough to rely solely on Germany’s strength in computer science. Instead, interdisciplinary research must be promoted, particularly through the systematic inclusion of ethics, social sciences, and political science in AI safety research. Other countries—especially Anglo-Saxon nations and Canada—have already made significant progress in this regard.

A German chapter of the IASEAI could play a pivotal role in this effort: serving as a platform for developing comprehensive concepts, adapting international insights and best practices on safe and ethical AI, and transforming them into practical, locally tailored solutions.

By establishing a German chapter of the IASEAI, we can translate the global vision of safe and ethical AI into concrete national action. This chapter should serve as a forum for academia, industry, policymakers, and civil society to address AI challenges collectively and ensure its development aligns with the common good.

We call upon German academic institutions, researchers, companies, and civil society organizations to join this initiative.

Let us turn hope and ambition into concrete action—shaping a future where AI technologies contribute positively to society and serve the common good, rather than threatening it.

Initial Signatories

Dr. Kevin Baum, German Research Center for Artificial Intelligence

Prof. Kristian Kersting, Technical University of Darmstadt

Dr. Patrick Schramowski, German Research Center for Artificial Intelligence

Prof. Sebastian Vollmer, German Research Center for Artificial Intelligence

Prof. Ingmar Weber, Saarland University

Prof. Verena Wolf, German Research Center for Artificial Intelligence

Supporters

Dr. Rasmus Adler, Fraunhofer IESE

Tanja Bäumel, German Research Center for Artificial Intelligence

Felix Friedrich, Technical University of Darmstadt

Timo P. Gros, German Research Center for Artificial Intelligence

Torsten Helfer, CISPA Helmholtz Center for Information Security

JProf. Maximilian Kiener, Hamburg University of Technology

Prof. Markus Langer, University of Freiburg

Prof. Dr. Gerard de Melo, Hasso Plattner Institute / University of Potsdam

Dr. André Meyer-Vitali, German Research Center for Artificial Intelligence

Dr. Christian Müller, German Research Center for Artificial Intelligence

Dr. Christopher Nehring, Cyberintelligence Institute

Dr. Simon Ostermann, German Research Center for Artificial Intelligence

Kanak Raj, Thomson Reuters

Nadine Schlicker, Institute for AI in Medicine, Philipps University Marburg

Dr. Vera Schmitt, Technische Universität Berlin

Manuela Schuler, German Research Center for Artificial Intelligence

Jayanth Siddamsetty , German Research Center for Artificial Intelligence

Andrea Sipka, German Research Center for Artificial Intelligence

Prof. Philipp Slusallek, German Research Center for Artificial Intelligence

Yoana Tsoneva, Technische Universität Berlin

Dr. Jonas Wahl, German Research Center for Artificial Intelligence

Mehr Informationen über IASEAI

Besuchen Sie die offizielle Website der IASEAI, um mehr über die internationale Organisation für sichere und ethische KI zu erfahren.

Lesen Sie das jüngste Statement zur globalen Verantwortung in der KI-Entwicklung.