Zu sehen sind Hände mit verschiedener Hautfarbe - futuristisch.

Bild: Google DeepMind / Unsplash

10.11.2025 | Meena Stavesand

KI ist Teamsport: Warum wir alle mitspielen sollten

„Education is key“ – aber reicht Aufklärung allein? Bildungsexperte Max Landefeld vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS erklärt, warum KI ohne diverse Teams unvollständig bleibt und wichtige Perspektiven übersieht, was der EU AI Act bringen soll und weshalb KI-Kompetenz schon in der Schule beginnen muss. Das Interview ist ein Plädoyer für KI als Teamsport statt Tech-Monopol.

Mit der HAW Hamburg hat das Fraunhofer IAIS das Lernangebot „KI und Diversität“ erstellt. Warum das wichtig ist? Künstliche Intelligenz reproduziert unsere Vorurteile und genau daran müssen wir auf Entwicklungs- und Nutzungsebene arbeiten. Wie das aussehen kann, verrät Max Landefeld im Gespräch.

Das Kursbild zum Lernangebot: KI und Diversität

KI und Diversität

Um mit KI verantwortungsvoll umgehen zu können, bietet euch dieser Kurs ein Verständnis für KI-Konzepte, Biases, ethische Fragestellungen und Standards vertrauenswürdiger KI. 

Zum Lernangebot

Wenn Sie Künstliche Intelligenz und Diversität hören, welche drei Begriffe kommen Ihnen in den Sinn und warum?

Max Landefeld: Mir kommt zuerst der Begriff „Spiegel“ in den Kopf – das mag etwas pathetisch klingen, aber KI zeigt uns relativ schnell, was in unseren Daten und damit auch in unseren Denkmustern steckt. Als Reflexionsinstrument sehe ich diese Technologie als sehr wertvoll an.

Der zweite Begriff, der direkt an das Thema Daten anknüpft, ist „Fairness“ beziehungsweise „Unfairness“. Viele Daten weisen Selection Bias auf – diskriminierende Muster finden sich in den Daten wieder und werden dann häufig unbewusst durch die Algorithmen reproduziert. Die Algorithmen selbst haben erst einmal keinen eigenen Wertemechanismus, was dann häufig zu unfairen Ergebnissen führt.

Als dritten Begriff denke ich an „Vertrauenswürdigkeit“ oder „Trustworthiness“. Dieser Bereich der Forschung setzt sich kritisch mit KI auseinander und fasst Initiativen und Ansätze zusammen – seien es technologische oder regulatorische Ansätze. Sie beschäftigt sich mit der Entwicklung und dem Einsatz von KI, die insbesondere zuverlässig, ethisch und sicher sein soll. Das sind die ersten Buzzwords, die mir in den Kopf kommen.

Information image

Bias (engl. für Verzerrung oder Voreingenommenheit) bezeichnet systematische Fehler oder Unausgewogenheiten in Daten und Algorithmen, die zu unfairen oder diskriminierenden Ergebnissen führen. Diese entstehen, wenn KI-Systeme mit historischen Daten mit gesellschaftlichen Ungleichheiten trainieren.<br><br>Beispiele: Recruiting-Software bevorzugte männliche Bewerber, Gesichtserkennungssysteme funktionieren bei hellhäutigen Personen zuverlässiger als bei People of Color, Kreditvergabe-Algorithmen benachteiligen Menschen aus bestimmten Wohngebieten.<br><br>Gegensteuern lässt sich durch vielfältige Entwicklungsteams, repräsentative Trainingsdaten und kontinuierliche Überprüfung der Ergebnisse.

Sie beschäftigen sich mit KI und Diversität. Gab es einen Schlüsselmoment, der Ihr Interesse oder Bewusstsein für verantwortungsbewusste und vielfältige KI besonders geweckt hat?

Landefeld: Ich arbeite seit mehreren Jahren im Bildungsbereich, und wenn ich ehrlich bin, sind es die Diskussionen mit Schülerinnen und Schülern, die mich besonders prägen. Sie berichten ungefiltert von ihren Ängsten, Vorbehalten und negativen wie positiven Erfahrungen mit KI. Ich kann also keinen genauen Termin nennen, aber die Debatten, die mich über die vergangenen Jahre begleiteten, haben mein Interesse und mein eigenes Bewusstsein für das Thema stark gefördert und gestärkt.

Was sind die Ängste der Schüler:innen?

Landefeld: Häufig befürchten sie, dass KI wie in einem Science-Fiction-Film – Stichwort Terminator – autonom die Weltherrschaft übernimmt. Das sind die extremen Gedanken. Einfachere Beispiele kennen sie von Instagram, TikTok oder aus Zeitungen: Systeme, die bestimmte Gruppen ausschließen, beispielsweise bei Bewerbungen für Jobs. Oder Chatbots, die regelmäßig schädlichen Input geben, aber auch Feedback, das irreführend ist und die Schülerinnen und Schüler verunsichert.

Hat sich das in den vergangenen Jahren verstärkt? Als ChatGPT rauskam, wurde KI quasi gesellschaftsfähig. Vorher war sie eher ein Thema für Fachleute. Haben sich die Gespräche verändert?

Landefeld: Die Besonderheit ist: Wir nutzen KI schon seit vielen Jahren, teils Jahrzehnten – häufig wissen wir das aber nicht. Es fängt bei den Empfehlungsalgorithmen von Social Media an, geht über Googles Page-Ranking-Algorithmus bis hin zur Face-ID am Smartphone oder Google Maps. Überall stecken Machine Learning und Deep-Learning-Algorithmen drin.

Mit ChatGPT hatten wir jetzt einen Game Changer: Mit einem Aha-Effekt bekommt man generischen Output und allen wird klar: Okay, das scheint ein KI-System zu sein. Die größte Herausforderung dabei ist das Thema Aufklärung. Wir sagen immer „Education is key“ – und da ist etwas dran. Wir sollten versuchen, KI-Kompetenzen zu schulen und im besten Fall in der Schule damit anfangen, wirklich aufzuklären. Das bedeutet nicht, dass jede:r Data Scientist:in werden muss – das sind die Fachleute, die sich mit der Algorithmik und der Konzeptionierung von KI-Systemen beschäftigen. Aber zumindest jede:r sollte ein grundlegendes Verständnis haben:

  • Wie funktioniert so ein Algorithmus?
  • Warum sind Daten wichtig?

Nur so können wir potenziell gefährliche Outputs wie Bias erkennen, reflektieren und einschätzen.

Neben der Aufklärung ist die Transparenz wichtig. Insbesondere wenn wir KI nutzen, wissen wir im Regelfall nicht, welche Daten ins Modelltraining geflossen sind. Da braucht es Transparenz – auch auf der Anbieterseite.

Gelingt das aktuell?

Landefeld: Aktuell gelingt es wenig bis kaum. Wir haben den EU AI Act, der derzeit sukzessive in nationales Recht überführt wird. Diese europäische KI-Regelung soll Abhilfe schaffen und insbesondere die Anbieter dazu verpflichten, ihre Systeme kritisch aufzubauen und zu prüfen. Auch hier spielt das Stichwort Vertrauenswürdigkeit eine große Rolle.

Wir in Europa haben große Hoffnungen, dass diese KI-Entwicklung auf europäischer Ebene zu unseren Gunsten beeinflusst wird und wir uns kritischer und selbstreflektierter damit auseinandersetzen. Wobei wir einschränken müssen: Es handelt sich um europäisches, nicht um internationales bzw. globales Recht.

Information image

Der AI Act (KI-Verordnung) ist ein umfassendes Gesetz zur Regulierung Künstlicher Intelligenz, das die Europäische Union (EU) 2024 verabschiedet hat. Die Verordnung wird derzeit schrittweise in nationales Recht überführt und soll 2026 vollständig in Kraft treten.<br><br>Das Gesetz teilt KI-Systeme nach ihrem Risiko ein: Anwendungen mit unannehmbarem Risiko wie biometrische Massenüberwachung werden verboten. Hochrisiko-KI in sensiblen Bereichen wie Bewerbungsverfahren, Kreditvergabe oder Strafverfolgung unterliegt strengen Auflagen. KI mit geringem Risiko wie Chatbots muss als solche gekennzeichnet werden. Für KI-Anbieter bedeutet das: Sie müssen offenlegen, welche Daten sie zum Training verwendet haben, Risiken dokumentieren und ihre Systeme auf Diskriminierung prüfen. Bei Verstößen drohen hohe Strafen. <br><br>Der AI Act gilt als wichtiger Schritt für vertrauenswürdige KI, betrifft aber nur den europäischen Markt – internationale Standards fehlen weiterhin.

Wie kann Diversität dazu beitragen, KI fairer und besser zu machen?

Landefeld: Diversität ist ein elementarer Schlüssel, weil sie Blickwinkel erweitert. Auf der einen Ebene bei der Entwicklung – das geht von der Datenauswahl bis hin zur Interpretation der Ergebnisse. Unterschiedliche Erfahrungen, kulturelle Hintergründe und Denkweisen können dabei helfen, Wissenslücken zu erkennen , Perspektivenvielfalt zu ermöglichen und damit gerechtere, vertrauenswürdige Systeme zu gestalten. Das ist die Entwicklungsseite, wo wir noch viel Potenzial haben.

Gleichzeitig müssen sich aber auch die Nutzenden damit auseinandersetzen – also diejenigen, die diese Systeme nicht selbst entwickeln, sondern sie tagtäglich anwenden. Auch sie müssen sich damit beschäftigen und beispielsweise den Output ihrer Chatbot-Anfragen kritisch prüfen.

Warum ist es wichtig, dass möglichst viele Menschen – nicht nur Fachleute – ein Verständnis für KI und Vielfalt entwickeln?

Landefeld: Weil KI so allumfassend ist und alle Gesellschaften, alle Industrien berührt. Das betrifft insbesondere die private Nutzung zu Hause mit den sozialen Medien, aber auch die ganze Joblandschaft. Es wird keine Industrie geben, die langfristig nicht bedeutend von KI berührt wird und sich dadurch verändert.

Deshalb ist es ganz wichtig, dass wir uns alle kritisch damit auseinandersetzen. Ein Kollege von mir sagt immer: „KI ist Teamsport.“ Das fasst es gut zusammen. Es ist eben nicht dieses „nerdige“ Informatik-Thema, mit dem sich nur die Data Scientists befassen sollen.

Denn selbst Data Scientists mit einem multikulturellen, diversen Hintergrund sind nicht zwingend repräsentativ für Gesellschaften. Es sind häufig doch die Akademiker:innen mit mathematisch-statistischem Hintergrund. Deswegen muss man sich – wieder diese Differenzierung – auf der Entwicklungsebene kritisch damit auseinandersetzen und ein grobes Verständnis auch für diese algorithmische Voreingenommenheit und Biases in KI-Systemen entwickeln, aber eben auch auf der Nutzungsebene.

Sie haben mit der HAW Hamburg am Fraunhofer IAIS ein Lernangebot zu KI und Diversität entwickelt: Was kann ich da lernen?

Landefeld: Wir befassen uns auf der einen Seite mit den Grundlagen: Was ist KI überhaupt? Woher kommt sie? Es gibt verschiedene Begriffe und Grundtechnologien, die in fast allen Systemen vorkommen – die erklären wir. Des Weiteren erklären wir das Thema Biases und welchen Bezug das zur Diversität hat. Wir zeigen auf, warum diverse Ansätze so wichtig sind. Dann schauen wir uns an, was auf regulatorischer Ebene passiert und was die europäischen Institutionen vorgeben – an Leitlinien, aber auch an Gesetzen wie dem EU AI Act. Zum Abschluss üben wir den kritischen und reflektierten Umgang mit solchen Tools, mit den Chatbots, die gerade sehr präsent in unserem Alltag sind.

Das Kursbild zum Lernangebot: KI und Diversität

KI und Diversität

Um mit KI verantwortungsvoll umgehen zu können, bietet euch dieser Kurs ein Verständnis für KI-Konzepte, Biases, ethische Fragestellungen und Standards vertrauenswürdiger KI. 

Zum Lernangebot

An welche Altersgruppe richtet sich das Angebot?

Landefeld: Das E-Learning richtet sich an Menschen ab 16 Jahren aufwärts – insbesondere an Schülerinnen und Schüler, aber auch an Studierende der Hochschulen. Es ist ansonsten offen für alle. Wir freuen uns, wenn Menschen mit einem anderen Hintergrund, beispielsweise im Kontext der beruflichen Weiterbildung, sich damit auseinandersetzen. Demnach ist es auch kostenlos und frei verfügbar für alle. Sie bekommen dort einen schnellen Einstieg, wenn Sie sich mit dem Thema befassen wollen.

Wenn Sie in die Zukunft blicken: Was wünschen Sie sich für den gesellschaftlichen Umgang mit KI in einer pluralistischen Welt?

Landefeld: Ich fände es schön, wenn KI von diesem reinen Informatik-Thema weg kommt und als gemeinsames Gestaltungsprojekt verstanden und interpretiert wird. Denn es ist kein rein technisches Thema – es ist so bedeutsam und hat so viel Einfluss auf verschiedene Bereiche bei uns privat, aber auch auf der Arbeit. Im Zuge dessen – und das ist vielleicht sogar ein Appell, den ich formulieren möchte – ist es wichtig, dass wir KI-Kompetenzen aufbauen und dass dies strukturell gefördert wird. Das geht meines Erachtens schon in der Schule los, und zwar nicht nur im Informatikunterricht, sondern fächerübergreifend.

Dieser Ansatz sollte sich fortsetzen bis zur universitären Ausbildung und dann zur stetigen Aus- und Weiterbildung auch im Betrieb. Der Artikel 4 des EU AI Acts sieht genau das vor. Trotzdem haben wir noch viel zu tun in den nächsten Jahren und Jahrzehnten, um diese Kompetenzen aufzubauen. Wichtig ist es allemal.

Über Max Landefeld

Max Landefeld arbeitet am Fraunhofer IAIS und koordiniert die Initiative AI4Schools. Diese widmet sich der Gestaltung von Bildungsangeboten rund um das Thema KI für Schulen. Er engagiert sich leidenschaftlich für die Entwicklung vertrauenswürdiger, nachhaltiger und niedrigschwelliger KI-Systeme.