Eine diverse Gruppe von Menschen sitzt an einem Tisch und schaut auf einen PC Monitor

Titelbild: Jason Goodman/Unsplash

28.03.2024 | Meena Stavesand

KI und Ethik: „Wir müssen bei Innovationen interdisziplinäre Teams bilden“

Axel, wie bist du privat und beruflich in der letzten Zeit mit technologischen Innovationen in Berührung gekommen?

Axel Dürkop: Privat habe ich mir im letzten Jahr ein Balkonkraftwerk an die Wand geschraubt. Es ist faszinierend, am Stromzähler direkt zu sehen, wie viel Energie die Sonne an meiner Hauswand spendet. Das Thema Erneuerbare Energien habe ich dann auch bei unseren WATTwanderungen mit verschiedenen Veranstaltungen wie einem Workshop, bei dem die Teilnehmenden die Technik hinter einem Balkonkraftwerk verstehen, oder einem Kinoabend am KulturEnergieBunker – realisiert durch Energie, die wir vorher in einer Biogasanlage an den Wilhelmsburger Zinnwerken selbst herstellten und nach Altona gebracht haben. 

Ansonsten diskutiere ich in einer Informatik-Veranstaltung mit angehenden Berufsschullehrkräften die Gestaltbarkeit von Künstlicher Intelligenz. Wir setzen uns dabei praktisch mit KI auseinander – aber jenseits von ChatGPT oder Prompting. Mir geht es in der Veranstaltung um die Frage: Wie können wir für KI ethische und gesellschaftlich relevante Implikationen schaffen? Als Beispiel: Wir beschäftigen uns mit einer automatisierten Moderation von Hasskommentaren auf Social Media und diskutieren dabei Klassifikationen von Hatespeech.

Künstliche Intelligenz und Ethik sind zwei wichtige Stichwörter. Aktuell wird diskutiert, wie wir ethisch mit KI umgehen. Wie kann beides miteinander kombiniert werden?

Axel Dürkop: Im Idealfall klären wir ethische Fragestellungen zu einer neuer Technologie wie ChatGPT und Co. vor der Entwicklung. Sie lassen sich aber auch begleitend diskutieren. Wir sollten die Ethik aber nicht nachschalten. Denn: Code is law – also Code ist Gesetz. Das sagte US-Tech-Vordenker Lawrence Lessig Anfang dieses Jahrtausends. Das heißt: Die Wertevorstellungen der Entwickler:innen fließen in die Software. Wer den Code kontrolliert, hat sozusagen die Macht über Gesetzmäßigkeiten. Da braucht es eine ethische Begleitung.

Wie lässt sich das realisieren?

Axel Dürkop: Wir wissen jetzt: Bei ChatGPT hat das Zusammenspiel von Softwareentwicklung und Ethik nicht gut geklappt. OpenAI, das Unternehmen hinter dem Chatbot, hat für die Entwicklung Menschen im Globalen Süden ausgebeutet – das wäre mit einer vorgeschalteten oder begleitenden Ethik-Debatte vielleicht besser gelaufen. Es ist also wichtig, dass wir bei technologischen Innovationen interdisziplinäre Teams bilden, in denen Entwickler:innen und Ethiker:innen zusammenarbeiten.

Wie könnte eine Zusammenarbeit aussehen?

Axel Dürkop: Wenn eine Innovation wie beispielsweise ChatGPT entwickelt wird, sind dann auch Ethiker:innen an diesem Prozess beteiligt. Bei den Diskussionen, wie die Technologie oder die Software aufgebaut wird, wie sie funktionieren und wie das Qualitätsmanagement und auch das Testing aussehen soll – das sind Fragen, die auch einer ethischen Reflexion bedürfen. Dafür gibt es bestimmte Frameworks, die man heranziehen kann. Ich halte das von Sebastian Hallersleben (und weiteren) für besonders sinnvoll und belastbar. Darin gibt es sechs Kriterien, anhand derer wir eine Technologie beurteilen können.

  • Transparenz
  • Verantwortlichkeit
  • Privatsphäre
  • Recht
  • Sicherheit
  • Nachhaltigkeit

Mit diesem Framework zum Beispiel lassen sich die Wertvorstellung einer Technologie diskutieren. Das Interessante daran ist, dass wir je nach Technologie Abstufungen bei den einzelnen Punkten machen können. Bei Technik in der Landwirtschaft ist Privatsphäre nicht so entscheidet wie etwa beim Einsatz in der Medizin, wo es um vertrauensvolle Daten geht. Außerdem ist auch das Thema Nachhaltigkeit aufgegriffen, was wir nicht mehr vernachlässigen dürfen. Heutige Technologie wie etwa ChatGPT benötigt Unmengen an Kühlwasser – das können wir in unserer Bewertung nicht ignorieren. Das Framework bietet daher einen idealen Leitfaden.

Wird deiner Meinung nach aktuell genug über ethische Fragen bei Technologie gesprochen?

Axel Dürkop: Bei ChatGPT haben wir das, wie bereits gesagt, versäumt, vorher darüber zu diskutieren. Aber klar ist auch, dass eine (ethische) Regulierung mit dem technologischen Fortschritt nicht mithalten kann. Da ist Eile mit Weile geboten. Meiner Meinung nach hat der Deutsche Ethikrat eine gute Ausgangsbasis geschaffen. Generell müssen wir dahinkommen, dass wir auch in unseren Studiengängen zu Technik und Ingenieurwissenschaften das Thema Ethik von Anfang an mitdenken. Ethik gehört ins digitale Zeitalter. Darum haben wir an der TU Hamburg mit Prof. Dr. Maximilian Kiener einen Juniorprofessor für Ethik in Technologie. Das Thema gehört in unsere Ausbildungen.

Aber das sollte keine rein akademische Diskussion bleiben. Alle Menschen haben Sorgen und Befindlichkeiten, die wir ernstnehmen müssen. Wir müssen daher den Diskurs auch außerhalb der Hochschulen führen. Die Menschen sollen mitgestalten, ihre Fragen einbringen. Das war ein Grund, warum wir an der TU Hamburg das HOOU-Lernangebot „tekethics“ gestartet haben. Noch vor der Corona-Pandemie haben wir regelmäßige Treffen in den Hamburger Bücherhallen veranstaltet, um mit Bürger:innen über ethische Herausforderungen bei Künstlicher Intelligenz zu diskutieren. Wir möchten dieses Thema auch im nächsten Jahr aufgreifen: Maximilian Kiener wird sich 2024 in einem neuen HOOU-Lernangebot mit ethischem Design von KI beschäftigen. Das wird sehr spannend!

Wer sich für das Thema Ethik und KI interessiert, kann sich die aktuellen Vortragsmaterialien von Axel Dürkop anschauen. Hier gibt es auch weiteres Material von ihm – unter anderem zu dem Thema „Souverän mit KI umgehen“.