Das Bild zeigt zwei Hände, die einander fast berühren. Das eine ist eine menschliche Hand, das andere eine Roboterhand.

Bild: MMKH/KI-generiert

23.04.2024 | Meena Stavesand

Ethik-Professor über KI: Warum wir als Gesellschaft Technologien besser verstehen sollten  

In den Maschinenraum der KI-Entwicklung möchte Prof. Dr. Maximilian Kiener die Nutzerinnen und Nutzer seines Lernangebots „Ethics by Design“ entführen. Warum es der Ethik-Professor und Leiter des „Institute for Ethics in Technology“ an der TU Hamburg für nötig hält, dass mehr Menschen verstehen, wie KI funktioniert und wie sie unser Leben beeinflusst, erklärt er uns im Interview. Spannende Themenfelder sind für ihn: Daten, Demokratie, Fairness, Verantwortung und Sicherheit. Aber es geht auch um die existenzielle Frage, welche Rolle eigentlich der Mensch noch spielt, wenn immer mehr Aufgaben an die KI gehen.

Prof. Kiener, welche Frage beschäftigt Sie aktuell am meisten, wenn es um KI und Ethik geht?

Prof. Dr. Maximilian Kiener: Ich sehe, wie leistungsfähig neue KI-Systeme sind. Es sind unheimlich komplexe Systeme, die mit uns sprechen, sie ersetzen teilweise sogar unsere menschlichen Ärztinnen und Ärzte. Und die Entwicklung zeigt nur nach oben. Ich frage mich also: Wie können wir es schaffen, dass diese so leistungsfähigen KI-Systeme ethischen Standards genügen, dass Macht und Werte Hand in Hand gehen können, dass wir eine technologische Innovation haben, die nachhaltig im doppelten Wortsinn ist? Damit meine ich, dass sie nachhaltig ist, weil es möglich ist, sie in die Zukunft zu tragen, aber auch, weil sie es wert ist, sie in die Zukunft zu tragen.

Ethische Fragestellungen sollten also bei der KI-Entwicklung direkt mitgedacht werden?

Kiener: Ja, keine Technologie ist vollkommen neutral. Es gibt immer Hintergrund- oder Wertannahmen, die die Technologie beeinflussen. Künstliche Intelligenz ist hier keine Ausnahme. Im Gegenteil, KI scheint in besonderem Maße durch ethische Weichenstellungen formbar. Wir müssen uns daher der Frage annehmen, wie wir Ethik effektiv in die KI integrieren.

Haben Sie dafür ein Beispiel?

Kiener: Wenn KI in der Arbeitswelt beim Einstellungsprozess zum Einsatz kommt, müssen wir dafür sorgen, dass bestimmte Personengruppen nicht systematisch ausgeschlossen werden. Wenn KI in autonomen Fahrzeugen eingesetzt wird, müssen wir Sicherheit von Anfang an mitdenken. Und wenn KI anfängt, unseren gesellschaftlichen Diskurs zu beeinflussen, müssen wir über das Verhältnis von Technologie und Demokratie nachdenken.

Wie kann das gelingen?

Kiener: Ethik muss als Disziplin von der bloßen Resultatsbewertung in eine Prozessbegleitung der KI-Entwicklung überführt werden. Ethik soll nicht der Zeigefinger oder der Zaungast sein, der sagt: „Nein, das dürft ihr nicht!“ Oder: „Ja, das geht schon.“ Sie soll die Begleitung in allen Entwicklungsschritten einer KI sein; begonnen mit der Frage, wofür brauchen wir diesen Algorithmus überhaupt? Was wollen wir damit erreichen? Welche Daten wollen wir sammeln? Wie dürfen wir diese Daten eigentlich sammeln? Wie können wir testen, ob ein KI System nicht nur einer Personengruppe zugute kommt, sondern allen?

Wie kann man sich diesen Prozess bildlich vorstellen?

Kiener: Diesen Prozess kann man sich ein bisschen wie die Zubereitung eines guten Essens vorstellen. Es gibt verschiedene Zutaten, bestimmte Zubereitungsprozesse: Man schneidet etwas, man rührt um, man knetet und schiebt vielleicht auch etwas in den Ofen. Und im Grunde entstehen bei jedem Schritt andere oder neue Fragen. So ist es auch in der Technologie: die verschiedenen „Zubereitungsschritte“ in der Küche entsprechen verschiedenen Entwicklungsstadien in der KI-Entwicklung. Und auch in letzterer gibt es so etwas wie Zutaten, beispielsweise Daten, und Verarbeitungsprozesse wie etwa maschinelles Lernen. Exzellente Technologie zeigt ethische Sensibilität und Knowhow in all diesen Stadien, ebenso wie ein Maître de Cuisine den kulinarischen Prozess allumfassend versteht.

ChatGPT ist wahrscheinlich das bekannteste KI-Tool. Der Chatbot spuckt in Sekundenschnelle Antworten aus, richtig sind die allerdings nicht immer. (Bild: Emiliano Vittorios/Unsplash)

Stichwort: Generative KI. Sehr viele Menschen können sie unmittelbar erleben. Dennoch gibt es Schlagzeilen wegen diskriminierender Antworten. Ethische Fragestellungen wurden wohl zu wenig mitgedacht. Wie lässt sich das beheben?

Kiener: Die Zugänglichkeit zu dieser Technologie sehe ich zunächst positiv. Während es vor wenigen Jahren für viele Menschen noch Science-Fiction war, können wir nun alle im Alltag erleben, welche Leistungen und welchen Mehrwert KI leisten kann. Aber es ist eben auch eine Herausforderung und mitunter ein Spiegel bestehender gesellschaftlicher Vorurteile und Probleme. Wir müssen uns in einem umfassenden gesellschaftlichen Diskurs fragen, wie wir neben den Ressourcen akademischer Ethik auch die Erfahrung der Menschen mit dieser Technologie als Feedback effektiv nutzen können, um – wie wir das an der TUHH sehen – auch Technik für den Menschen zu schaffen.

Wie finden Sie die Entwicklung von KI generell?

Kiener: Insgesamt sehe ich die Entwicklung von KI positiv, es ist eine Art Demokratisierung der Technologie, weil viele Menschen einen Zugang dazu bekommen. Aber es geht auch eine sehr große Macht von Unternehmen aus. Diese Technologien werden oftmals nicht nur, oder nicht einmal primär, an Universitäten oder öffentlichen Forschungseinrichtungen entwickelt, sondern von einer Handvoll sehr mächtiger Technologieunternehmen. Von den zehn größten Unternehmen der Welt spielen sieben bei der KI-Entwicklung mit. Einige sprechen daher bereits von „privaten Supermächten“, die dann beispielsweise im Bereich Social Media bestimmen könnten, was eigentlich als Meinungsfreiheit bei uns zählt, was man sagen darf. Doch das sind Aufgaben, die klassischerweise dem Staat zukommen.

Dieses Video zeigt die Antrittsvorlesung von Prof. Dr. Maximilian Kiener an der TU Hamburg mit spannenden Beiträgen von etwa Prof. Dominic Wilkinson und Dr. Andrew Graham (beide Oxford).

Wie könnte das gelingen?

Kiener: Ein wichtiger Schritt sind sicherlich Regulierungen. In diesem Jahr gab es beispielsweise die Verabschiedung des AI Act der EU. Was ich ebenfalls sehr begrüße, ist die Bemühung, die Erklärbarkeit von KI-Systemen zu stärken und auch den Menschen Rechte zu geben, wenn KI-Systeme in wichtige Entscheidungen involviert sind, also etwa in Fragen, ob ich den Job, den Kredit oder das Krankenhausbett bekomme.

Sie meinen eine höhere Transparenz der KI-Entscheidungen, also dass mehr Menschen einen Einblick bekommen, was da hinter den verschlossenen Türen der Technologieunternehmen passiert?

Kiener: Ja, so könnte man das sagen. Allerdings könnte der Begriff Transparenz in diesem Zusammenhang oftmals nur darauf hinweisen, dass es eine Auskunft darüber gibt, dass KI verwendet wird. „Erklärbarkeit“ geht einen Schritt weiter und versucht zu erläutern, wie die konkreten Entscheidungen getroffen werden.

Wie können wir Ethik in die Technologie bringen? Was ist Ethik eigentlich genau?

Kiener: Ethik ist eine akademische Disziplin, die Fragen danach stellt, wie wir gut und richtig handeln, wie wir gut leben wollen als Individuum und als Gemeinschaft. Es geht dabei aber nicht darum, nur Checklisten abzuhaken oder Kommissionen einzusetzen. Es ist eine wirkliche Reflexion: gemeinsam nachdenken – mit den Fakten, die wir haben, und mit den Werten, denen wir uns verbunden fühlen wie Freiheit und Gleichheit.  Aus den Schlussfolgerungen daraus ergeben sich Empfehlungen für den Umgang mit Technologie. Dabei gibt es einige Kernthemen in der KI, die uns vor Herausforderungen stellen.

Können Sie uns ein Beispiel geben?

Kiener: Im Kern vieler Fragen gibt es ein Datenproblem, da KI im Training oftmals sehr viele Daten benötigt. Meistens werden wir gefragt: Stimmen Sie der Datennutzung zu? Dies geschieht in vielen Interaktionen im Internet. Doch niemand liest wohl je alle ‚terms and conditions‘ wirklich durch. Also müssen wir uns die Frage stellen, ob diese Art der Zustimmung noch ein geeignetes Instrument ist, unsere Daten hinreichend zu schützen oder ob wir diesen Bereich täglicher Praxis grundlegend neu bewerten müssen. Wir müssen uns also damit beschäftigen, wie wir unsere personenbezogenen Daten schützen, die die KI oftmals braucht, oder gegebenenfalls die Bereiche der KI beschränken. Eine weitere Herausforderung ist, dass die Verarbeitung und Nutzung großer Datenmengen, einschließlich personenbezogener Daten, nicht nur unser individuelles Leben betrifft, sondern auch unsere Demokratie angreifen kann.

Der Cambridge-Analytica-Skandal hat gezeigt, dass Datenmissbrauch auch zum Risiko für demokratische Wahlen werden kann. Was passiert also mit unserer Demokratie, mit unserer Gesellschaft, wenn Daten es ermöglichen, Verhalten präzise vorauszusagen und ebenso präzise Einfluss auf Wählerverhalten zu nehmen? Welche Art von Macht entsteht hier und entscheidet diese über unser Zusammenleben als Gesellschaft? Ein weiterer schwieriger Bereich ist die Frage nach der Fairness; auch die beste KI wird nicht perfekt sein. Immer dort, wo die KI auf Grundlage vergangener Daten lernt, lernt sie auch die bestehenden Vorurteile in unserer Gesellschaft, führt diese fort oder verschärft sie sogar. 

Wer entscheidet darüber, ob jemand zu einem Vorstellungsgespräch eingeladen wird. Mensch oder bald doch KI? Wie garantieren Unternehmen Bewerberinnen und Bewerbern dann, dass niemand diskriminiert wird? (Bild: Gabrielle Henderson/Unsplash)

Wir haben also das Problem mit den Daten und einer möglichen Einflussnahme auf unsere Demokratie und die kaum vorhandene Fairness von KI-Systemen, weil sie zu viele diskriminierende Daten enthält. Gibt es einen weiteren Punkt?

Kiener:  Ein zentrales Element ist für mich die Frage der Verantwortung. Gerade weil KI so viele Bereiche unseres Lebens betreffen wird, ist es wichtig, dass die Verteilung der Verantwortung klar geregelt ist. Ein Aspekt der Verantwortung erscheint mir dabei besonders wichtig, nämlich der des Ablegens von Rechenschaft. Entwickler:innen und Unternehmen, aber auch Politiker:innen und Nutzer:innen müssen Klarheit darüber haben, welche Pflichten sie bei der Entwicklung, Regulierung und Nutzung von KI haben und inwieweit sie anderen dafür Rechenschaft schuldig sind.

Das stimmt. Dann geht es um sehr existenzielle Fragen.

Kiener: Ja. Was macht uns Menschen eigentlich aus? KI erledigt viele Aufgaben für uns. Dennoch sind Menschen immer noch wichtig. Worin aber genau besteht das, was uns als Menschen ausmacht? Ist es Kreativität, Empathie, Moralität? Und wie können wir diese Aspekte im technologischen Fortschritt erhalten und weiterentwickeln?

Sie konzipieren derzeit ein Lernangebot für die HOOU. „Ethics by Design“ dreht sich auch um KI. Worum wird es gehen?

Kiener: „Ethics by Design“ ist der Versuch, Ethik in alle Entwicklungsphasen leistungsstarker KI zu integrieren. In unserem Lehrangebot soll gezeigt werden, wie das an verschiedenen Punkten möglich ist, welche Gestaltungsspielräume wir in der Entwicklung verschiedener Technologien haben können, also auch in welcher Beziehung Regulation und Innovation stehen.

Für welche Richtung soll man sich entscheiden? In dem Lernangebot „Ethics by Design“ möchte Prof. Kiener verschiedene Szenarien aufwerfen, die die Nutzerinnen und Nutzer durchspielen können. (Bild: Brendan Church/Unsplash)

Wie hilft Ihr Lernangebot dabei?

Kiener: Wir haben Szenarien, die die Lernenden aus ihrem Alltag kennen und in unserem Lehrangebot noch einmal aus ethischer Perspektive durchspielen können. Dies könnte beispielsweise unsere Nutzung von Smartphones betreffen, wo  wir oft der Sammlung von Daten zustimmen, oder auch unsere Interaktion mit ChatGPT. Wir beginnen mit Bekanntem und führen die Lernenden sozusagen in den „Maschinenraum“ der KI,  also in die Entwicklung, und zeigen, wie es eigentlich zu den uns bekannten Situationen gekommen ist, ob diese so sein müssen und wie wir über mögliche Alternativen ethisch nachdenken können. Im Grunde ist es wie eine Dokumentation über Nahrung. Wir essen jeden Tag, aber wir wissen nicht genau, wie unser Essen eigentlich hergestellt wird. Aber wenn wir es wissen, essen wir bewusster. Wir wollen also auch hier ein größeres Bewusstsein für die Vorgänge der KI schaffen.

Wie soll das Lernangebot aussehen?

Kiener: Wir haben eine ganze Reihe an interaktiven Ideen. Unsere Lerninhalte gehen über das bloße Lesen und Konsumieren hinaus. Sie ermöglichen aktives Entscheiden in konkreten Fällen und machen so die Gestaltungsmöglichkeiten in der Technologie erlebbar. Im November wollen wir damit an den Start gehen.

Sie sind als Ethik-Professor neu an der TU Hamburg und beschäftigen sich dort mit dem Zusammenspiel von Technologie und Ethik. Was wäre Ihre Idealvorstellung für dieses Feld?

Kiener: Meine große Hoffnung ist, Ethik zum Innovationsmotor zu machen. Ich wünsche mir, dass Ethik es schafft, Technologie nachhaltig voranzutreiben und dabei unsere Werte reflektiert. Ich bin ebenso gespannt auf die zukünftige Wechselwirkung zwischen Ethik und Technologie, besonders inwiefern Erkenntnisse eines Bereichs den Fortschritt im jeweils anderen beeinflussen können.

Zur Person:

Prof. Dr. Maximilian Kiener ist Juniorprofessor für Philosophie und Ethik in der Technik an der TU Hamburg, wo er das Institut für Ethik in der Technik leitet. Er hat sich auf Moral- und Rechtsphilosophie spezialisiert, mit einem besonderen Fokus auf Einwilligung, Verantwortung und KI. Außerdem ist er assoziiertes Mitglied der Philosophischen Fakultät der Universität Oxford, an der er von 2015 bis 2022 tätig war, sowie assoziierter Forschungsstipendiat am Institut für Ethik der Künstlichen Intelligenz in Oxford. Zuvor erwarb er den BPhil (2017) und DPhil (PhD / 2019) in Philosophie an der University of Oxford und arbeitete als Extraordinary Junior Research Fellow (2019-2021) und als Leverhulme Early Career Fellow in Oxford (2021-2022). Neben seiner akademischen Forschung ist er auch als Ethikberater für politische Entscheidungsträger und Industriepartner tätig, insbesondere in den Bereichen digitale Kommunikation, gute medizinische Praxis und verantwortungsvolle künstliche Intelligenz.