Ein KI generiertes Bild von einem weiblichen Kopf an dem eine Waage hängt, surrealistisch

Bild: Midjourney

24.07.2024 | Meena Stavesand

Generative KI: Das musst du über Urheberrecht, Datenschutz und Transparenz wissen

ChatGPT, Co-Pilot, Midjourney, Dalle-E oder auch DeepL – das alles sind KI-Generatoren für Texte und Bilder, die künstliche Intelligenz in die Gesellschaft gebracht haben. Jeder kann sich an generativer KI versuchen, Texte, Bilder und Videos erstellen und veröffentlichen. Aber wie sieht es mit Urheberrecht und Datenschutz aus? Was darf wie genutzt werden? Wann muss man KI-generierte Inhalte kennzeichnen? Und welche Verantwortung trägt man bei der Arbeit mit KI-Generatoren? Diese Fragen haben wir der Juristin Andrea Schlotfeldt von der HAW Hamburg gestellt. Herausgekommen ist ein spannendes Interview, in dem es auch um den neuen AI Act der EU geht.

Thema Urheberrecht. Inwieweit kann es bei Erstellung und Nutzung von KI-Inhalten zu Urheberrechtsverletzungen kommen?

Andrea Schlotfeldt: Die Wahrscheinlichkeit, hierbei fremde Urheberrechte zu verletzen, ist an sich gering. Es verbleibt aber ein Restrisiko. Hierfür ist die Art des gewählten Prompts relevant und, ob ich den KI-Output noch weiterbearbeite und falls ja, in welchem Umfang. Lasse ich einen noch geschützten fremden Text übersetzen und veröffentliche ich diese Übersetzung, kann darin eine Urheberrechtsverletzung liegen. Ebenfalls wenn ich ein fremdes Bild hochlade, durch die KI geringfügig verändere und dann neu veröffentliche.

Eine Urheberrechtsverletzung kann allerdings auch zufällig bzw. unbewusst vorkommen, auch je nach zugrunde liegendem Trainingsmaterial. Sofern KI-Output mit bestehenden fremden Werken identisch ist oder diesen stark ähnelt, ohne dass ich durch meinen Prompt darauf hingewirkt habe, könnte es theoretisch also auch zu Urheberrechtsverletzungen kommen.

Wie kann ich sicherstellen, dass ich bei der Nutzung von KI-Inhalten keine Urheberrechte verletze?

Andrea Schlotfeldt: Eine pauschale Sicherstellung ist nicht möglich, aber man kann z. B. durch eine Rückwärtssuche u. a. bei Google prüfen, ob man ähnliche Ergebnisse bekommt – wenn ja, ist man eventuell im Bereich der Urheberrechtsverletzung und sollte auf die Nutzung verzichten. Aber das lässt sich nicht generell sagen, sondern man muss es im Einzelfall prüfen. Grundsätzlich ist die Rückwärtssuche ein Instrument, mit dem man zumindest eine erste Information bekommt.

Auch sollte man davon absehen, KI-generierte Übersetzungen noch geschützter Texte ohne Zustimmung der Rechteinhaber:innen zu veröffentlichen. Letztlich kommt es darauf an, wie der Prompt ausgestaltet ist. Wenn man ganz gezielt nach bestimmten Texten oder Studienauszügen fragt, dann kann es vorkommen, dass zumindest in Teilen auch 1:1-Inhalte generiert werden. Von deren Weiterverwendung sollte ich dann absehen.

Gibt es Grenzen?

Andrea Schlotfeldt: Ja, man muss immer unterscheiden, in welchem Kontext man den Content verwendet. Wenn man ihn im Rahmen einer studentischen Arbeit oder auch als lehrende Person in Folien verwendet, dann kann das unter die Schranke des § 60a Urheberrechtsgesetz fallen, der zu Studien- oder Lehrzwecken bestimmte Nutzungen erlaubt, wenn die Inhalte in einem geschlossenen Benutzerkreis bleiben und nicht öffentlich auf einer Website zugänglich gemacht werden. Allerdings besteht hier die Anforderung, dass die Quellen angegeben werden müssen. Man muss also wissen, woher die Texte oder Bilder stammen – was bei KI-Output oft schwierig bis unmöglich sein kann. Und genau der eingeschränkte Kreis der Teilnehmerinnen und Teilnehmer an einer Veranstaltung ist wichtig.

Information image

Was ist der AI Act?<br>Der Artificial Intelligence Act (AIA) ist ein von der EU-Kommission im Rahmen der EU-Digitalstrategie veröffentlichtes Gesetz zur Regulierung von Künstlicher Intelligenz (KI) in Forschung und Wirtschaft. Er legt fest, welche Anbieter:innen und Nutzer:innen von KI-Systemen in der EU den neuen Regularien unterliegen. Dies betrifft sowohl in der EU ansässige als auch außerhalb der EU befindliche Akteur:innen, deren KI-Systeme in der EU genutzt werden. Der AI Act definiert KI weit: KI umfasst demnach Systeme, die maschinelles Lernen, logik- und wissensbasierte Konzepte oder statistische Ansätze nutzen. <br><br>KI-Anwendungen werden nach ihrem potenziellen Risiko in vier Kategorien eingeteilt: unannehmbares Risiko, hohes Risiko, geringes Risiko und minimales Risiko. Systeme mit unannehmbarem Risiko sind verboten, Hochrisiko-Systeme unterliegen strengen Anforderungen wie Risikomanagement und Daten-Governance, also Datenrichtlinien für die Erfassung, Speicherung, Verarbeitung und Vernichtung von Daten. Systeme mit geringem Risiko müssen minimale Transparenzpflichten erfüllen, während Anwendungen mit minimalem Risiko keine besonderen Anforderungen haben.<br><br>Der AI Act zeigt die EU-Bemühungen, Missbrauchspotenziale wie Beeinflussung und Überwachung durch KI zu minimieren. Unternehmen sollten sich frühzeitig mit den Regulierungen auseinandersetzen und ihre Entwicklungen entsprechend anpassen.

Es gibt auch die Gemeinfreiheit bei Werken. Was ist das genau?

Andrea Schlotfeldt: Zum einen sind Werke gemeinfrei, wenn der Urheberrechtsschutz abgelaufen ist, also 70 Jahre nach dem Tod des Urhebers oder der Urheberin. Oder Werke sind gemeinfrei, wenn sie gar nicht geschützt waren, weil es sich zum Beispiel um eine sehr einfache Gestaltung handelt, die keine Schöpfungshöhe, also keine besondere Originalität, aufweist, oder wenn es sich z. B. um Gesetzestexte handelt.

Wie kann ich sicherstellen, dass meine KI-generierten Inhalte nicht kopiert werden?

Andrea Schlotfeldt: Sicherstellen lässt sich dies nicht. Hier ist die Situation dieselbe wie bei herkömmlichen urheberrechtlich geschützten Texten oder Bildern, die ich veröffentliche. Sofern kein technischer Kopierschutz gegeben ist, können Inhalte rein faktisch übernommen werden. Wer bei mir „klauen“ möchte, den oder die kann ich nicht daran hindern.

Der Unterschied zu diesen von Menschen verfassten Inhalten ist, dass bei KI-Output in der Regel ja kein Urheberrechtsschutz anzunehmen ist, so dass die Weiternutzung zumeist tatsächlich zulässig ist (Stichwort „digitales Freiwild“). Derzeit wird unter Jurist:innen diskutiert, ob KI-Output künftig über ein sogenanntes Leistungsschutzrecht geschützt werden sollte, wie dies beispielsweise in Großbritannien in bestimmten Konstellationen der Fall ist. Ob eine solche Gesetzesänderung kommt, ist aber noch unsicher. Das Gesetzgebungsverfahren würde zudem sicher eine gewisse Zeit brauchen.

Gibt es Fälle, in denen mein KI-Output gleichwohl urheberrechtlich geschützt ist?

Andrea Schlotfeldt: Wenn Inhalte von mir wie Bilder oder Texte von einer KI nur geringfügig bearbeitet bzw. verändert wurden, aber im Wesentlichen immer noch meine Arbeit, mein Werk, sind, dann unterliegen sie weiterhin meinem Urheberrecht. So interpretiere ich die aktuelle Rechtslage. Wenn ich aber mittels KI ein Bild erstellen lasse, für das ich vorgebe, dass eine Lehr- bzw. Unterrichtssituation zu sehen sein soll, klassisch – ein Raum, Tische, Stühle, Monitore, Whiteboard und Studierende – und die KI generiert mir das, dann ist das nicht mein eigenes Werk. Wenn ich dieses Bild so – auch unbearbeitet – auf meine Website stelle, dann können es theoretisch auch andere nutzen. Es unterliegt dann keinem Urheberrecht. Das ist die Besonderheit – im Vergleich zu herkömmlichen Fotos oder Texten, auch wenn es mein Prompt ist, auf dem der Output ja letztlich basiert.

Gibt es eine Verpflichtung zur Transparenz, wenn ich Inhalte mit einer KI generiere?

Andrea Schlotfeldt: Hier kommt es auf die geplante Nutzung an: Eine generelle Pflicht zur Transparenz besteht aktuell noch nicht. Allerdings können sich auch jetzt schon Kennzeichnungspflichten aus Prüfungsvorgaben ergeben, etwa im Kontext der in der Regel geforderten Hilfsmittelangabe. Hierfür sind Art, Umfang und Zweck der KI-Nutzung ausschlaggebend. Die Umsetzung dieser Pflichten kann komplex ausfallen, zumal wenn die verwendeten Prompts mit aufzuführen sind.

Auch darf ich mich nicht als Urheber:in KI-generierter Texte ausweisen, wenn diese ausschließlich von einem KI-Tool erzeugt wurden. Die Grenzen sind allerdings fließend, und Rechtsprechung hierzu steht aus (Wieviel Anteil eines Textes darf beispielsweise KI-erzeugt sein, damit dieser noch als eigener Text gilt? Dies ist auch relevant bei Übersetzungen mit Diensten wie DeepL.). Bei Presseerzeugnissen können journalistische Sorgfaltspflichten ebenfalls eine Pflicht zur Kennzeichnung mit sich bringen.

Wichtig ist auch: Die EU hat im Mai 2024 den sogenannten AI Act verabschiedet – ein Gesetz für den Umgang mit KI. Darin ist auch eine Vorschrift enthalten, die eine Transparenzpflicht vorsieht. Sie soll voraussichtlich ab August 2025 gelten. Die genauen Vorgaben sind derzeit noch unkonkret. Hier werden juristische Kommentierungen oder ggf. Konkretisierungen durch das AI Office eine wertvolle Hilfe sein, Aktuell wird an diesen gearbeitet.

Eine Frage, die sich daran anschließt, ist die nach der Kontrolle. Wie kann man kontrollieren, ob ein Content KI-erzeugt ist?

Andrea Schlotfeldt: Kontrolle ist schwierig. Es gibt u. a. die Möglichkeit, Wasserzeichen einzusetzen, um KI-Output als solchen zu kennzeichnen, aber wie dauerhaft sind diese? Kann man sie einfach „herausschneiden“? Hier ist die Forschung gefragt und auch dabei (u. a. an der HAW Hamburg), gute Lösungen zu entwickeln, damit solche Markierungen nicht einfach entfernt werden können.

Information image

Was sind Deepfakes?<br>Deepfakes sind Medieninhalte, bei denen künstliche Intelligenz verwendet wird, um realistisch aussehende Fälschungen zu erstellen. Diese Fälschungen können Videos, Audios oder Bilder umfassen, bei denen das Gesicht oder die Stimme einer Person manipuliert oder komplett ersetzt wird, um den Eindruck zu erwecken, dass diese Person etwas gesagt oder getan hat, was in Wirklichkeit nicht der Fall ist. Der Begriff „Deepfake“ setzt sich aus „Deep Learning“ und „Fake“ zusammen und weist darauf hin, dass tiefe neuronale Netze, eine Technologie des maschinellen Lernens, verwendet werden, um diese Fälschungen zu erzeugen.

Thema Verantwortung und Haftung. Bin ich für meine Inhalte verantwortlich? Und kann ich die Verantwortung abgeben?

Andrea Schlotfeldt: Man kann die Verantwortung in der Regel nicht abgeben. Wenn man die Tools nutzt und damit Inhalte erstellt, dann sind die Nutzungsbedingungen dieser Programme in der Regel so ausgestaltet, dass der Nutzer oder die Nutzerin selbst verantwortlich ist. Anders kann die Situation zu beurteilen sein, wenn bei einer Prüfung der Einsatz eines KI-Tools verpflichtend vorgesehen ist und „unwissentlich“ eine Urheberrechtsverletzung entsteht, die zudem der Öffentlichkeit zugänglich wird, etwa im Zuge der Präsentation von Abschlussarbeiten. Hier hängt die Beurteilung sehr vom Einzelfall ab.

Viele Nutzende treibt der Datenschutz um. Bei ChatGPT gibt es die Möglichkeit, die eigenen Daten dahingehend zu schützen, dass die Prompts und Ergebnisse nicht weiterverwendet werden. Ist das wirklich möglich?

Andrea Schlotfeldt: Ob diese Einstellungen ein Garant für den Schutz sind, dazu sind mir keine Erhebungen oder Studien bekannt. Viele Expert:innen sprechen bei KI-Tools von einer Black Box. Was passiert da eigentlich? Wird  eingehalten, dass meine Daten oder Werke nicht für das KI-Training verwendet werden? Das lässt sich derzeit nicht mit Sicherheit sagen. Wer seine Daten schützen will, sollte z. B. bei ChatGPT auf die History verzichten – und das kann wiederum problematisch sein. Diese Art der Dokumentation wird bei Prüfungen, bei denen KI-Generatoren erlaubt oder sogar vorgesehen sind, in der Regel vorausgesetzt, siehe oben, Stichwort Kennzeichnungspflichten. Das ist auch ein Problem, für das wir praxistaugliche Lösungen brauchen.

Hast du generell einen Tipp, wie man mit seinen Daten umgehen sollte?

Andrea Schlotfeldt: Möchte ich datensparsam vorgehen, sollte ich schon bei den eigenen Eingaben darauf achten, keine persönlichen Daten einzugeben und mir genau überlegen, wie viele Informationen ich preisgeben möchte. Wenn ich zum Beispiel meinen Lebenslauf von einer KI verbessern lasse, muss ich mich bewusst entscheiden, welche Daten ich der KI gebe.

Wenn ich im Personalwesen oder in der Forschung mit KI arbeite und zum Beispiel personenbezogene Daten zusammenfassen lasse, dann muss ich eine Rechtsgrundlage bzw. eine Einwilligung der Personen haben – und die muss freiwillig sein. Das heißt, die Person, die ich um Einwilligung bitte, muss verstehen, was genau mit den Daten passiert, und sie muss die Entscheidung tatsächlich als freiwillig empfinden. Es ist wichtig, dass wir diese Datensensibilität auf beiden Seiten entwickeln.

Was meinst du damit?

Andrea Schlotfeldt: Es geht zum einen darum, dass die Nutzerinnen und Nutzer von KI wissen, dass sie nicht einfach persönliche Daten anderer in das KI-Tool kopieren können, um zum Beispiel etwas zusammenzufassen oder sich die Arbeit anderweitig zu erleichtern. Gerade im Arbeitskontext, auch an Hochschulen, wird für Datenverarbeitungen immer eine Rechtsgrundlage benötigt. Zum anderen müssen auch die sogenannten „Betroffenen“, also die Menschen, deren Daten oder Informationen genutzt werden, verstehen, was konkret mit ihren Daten passiert und worauf sie bei einer Einwilligung achten müssen.

Das Thema KI wird uns rechtlich in den nächsten Jahren noch intensiv beschäftigen. Es geht um unsere eigenen Daten, um Urheberrechte und Transparenz, aber auch um die Verletzung von Persönlichkeitsrechten, zum Beispiel durch Deep Fakes.

Andrea Schlotfeldt: Ja, die sogenannten Deepfakes sind eine der großen Herausforderungen, denen wir begegnen. Je mehr technisch möglich ist und je mehr Menschen auch mit den Tools umgehen können, desto gravierender können die Auswirkungen auf die Gesellschaft und einzelne Betroffene sein. Der Bereich der pornografischen (Fake-)Darstellungen ist bereits jetzt ein riesiges Problem.

Auch die Politik und der Journalismus haben mit Deepfakes zu kämpfen – das kann  Wahlen oder andere politische Entscheidungen beeinflussen, wenn Falschinformationen über KI-erzeugte Videos oder Bilder verbreitet werden. Ein weiteres Problem können sogenannten Softfakes sein, also Bilder, Videos oder Audioclips, die manipuliert werden, um politische Kandidat:innen attraktiver oder vorteilhafter wirken zu lassen. Auch im Bereich wissenschaftlicher Forschung können negative Auswirkungen, die auf Falschinformationen basieren, nicht ausgeschlossen werden.

Was kann hier helfen?

Andrea Schlotfeldt: Wir müssen eine deutlich höhere Sensibilität für solche falschen Inhalte entwickeln. Das geht nur durch (Weiter-)Bildung – und betrifft alle Altersstufen. Die Menschen müssen vielfältige Kompetenzen in diesem Bereich erwerben. Am besten fängt man damit schon bei Kindern an.
Viele Institutionen und Einrichtungen bieten bereits geeignete Materialien und Tools wie Fakefinder an. Auch von der HOOU an der HAW Hamburg gibt es ein passendes Lernangebot, adressiert an Lehrkräfte, die ihren Schülerinnen und Schülern wichtige Kompetenzen beim Umgang mit Informationen aus dem Netz vermitteln möchten, also auch Deepfakes. Diese Angebote sollten wir nutzen.

Über Andrea Schlotfeldt:

Andrea Schlotfeldt. Bild: Lars Brücher

Andrea Schlotfeldt ist wissenschaftliche Mitarbeiterin Juristische Beratung für Projekte der Hamburg Open Online University an der HAW Hamburg. In dieser Rolle berät sie OER-Produzierende in rechtlicher Hinsicht bei der Konzeption und Veröffentlichung ihrer offenen Bildungsmaterialien. Darüber hinaus ist sie mit Fragen des Urheberrechts, des Datenschutzes und KI in der digitalen Lehre befasst. Sie ist zudem seit 2008 selbständige Rechtsanwältin, Dozentin und Referentin mit Schwerpunkt Urheber-/Vertragsrecht und KI, auch hier fokussiert auf Wissenschafts- und Bildungsinstitutionen. 

Lizenzhinweis für das Interview (Text): CC BY 4.0 

Das bild zeigt eine Hand, die ein Handy hält, auf dem KI-Tools angezeigt sind.

Bild: Solen Feyissa/Unsplash

17.05.2024 | Meena Stavesand

KI im Studium nutzen: Darum sollten sich Studierende mit KI-Tools auseinandersetzen

ChatGPT, DeepL und Co. sparen viel Zeit. Bei den täglichen Routinen am Schreibtisch, aber auch bei der kreativen Arbeit. Doch wie lassen sich KI-Tools im Studium einsetzen?

Es ist eine spannende Frage, die Franz Vergöhl und Sophie Heins von der HafenCity Universität mit Studierenden besprochen haben. KI-Tools im Studium einsetzen – aber wie? Aus den Ergebnissen der Gespräche ist ein neues HOOU-Lernangebot entstanden: KI im Studium nutzen. Was in dem Kurs vermittelt wird und wie sich sowohl Studierende als auch Hochschulen in Zukunft auf den Einsatz von KI einstellen sollten, darüber sprechen wir mit den beiden im Interview.

Was ist euer Lieblings-KI-Tool?

Franz Vergöhl: Mein Lieblings-KI-Tool ist tatsächlich ChatGPT, das ich sehr gerne als Sparringspartner verwende, sei es für schwierige E-Mails, Projektideen, Titel für Podcastfolgen oder Artikel, aber auch für Social Media. Ich lasse mir zum Beispiel gerne Dinge vorformulieren oder auch Fragen stellen und verwende dann meine eigenen Formulierungen. Außerdem lasse ich mir manchmal Dinge von ChatGPT erklären, die ich sonst googeln müsste.

Sophie Heins: In letzter Zeit benutze ich vor allem DeepL Write, um E-Mails, die ich formuliere, von der Zeichensetzung korrigieren oder stilistisch besser formulieren zu lassen. Aber es kommt immer auf die Anwendung an. Also ChatGPT benutze ich natürlich auch, das finde ich ebenfalls sehr praktisch.

Ihr nutzt also KI-Tools in eurer täglichen Arbeit.

Sophie Heins: Ja. Wir hatten zum Beispiel vor kurzem eine Auftaktveranstaltung für eine Lehrveranstaltung und wir sind ganz begeistert von unserer ersten Aufgabe, die wir den Studierenden gegeben haben. Die haben wir nämlich mit Hilfe von ChatGPT generiert. Ich glaube nicht, dass wir selbst so schnell auf diese Aufgabe gekommen wären. Das ist ein sehr gutes Beispiel dafür, wie wir KI auch einsetzen. Es geht nicht nur darum, Texte zu verbessern oder zu korrigieren. KI-Tools können viel mehr.

Was war die Aufgabe?

Sophie Heins: In dem Seminar geht es darum, wie wir Städte nachhaltig gestalten können. Die Studierenden sollten dann in die Hafencity gehen und sie auf bestimmte Aspekte hin untersuchen – unter anderem auf nachhaltiges Wohnen. Eine Gruppe hat sich auf negative Punkte konzentriert, eine andere auf positive. Ihre Eindrücke sollten sie fotografisch dokumentieren. Anschließend haben wir anhand der Fotos darüber diskutiert. Die Fotodokumentation war eine Idee von ChatGPT.

Wie war das Feedback dazu?

Sophie Heins: Das kam bei den Studierenden sehr gut an, weil es eine willkommene Abwechslung zur Vorlesung ist. Sie müssen raus, sie machen Fotos, sie tauschen sich aus, sie diskutieren miteinander. Im Idealfall sind die Gruppen mit Studierenden aus verschiedenen Studiengängen gemischt, so dass verschiedene Perspektiven aufeinandertreffen. Auch wir sind von der Aufgabe begeistert.

Franz Vergöhl: Für kreative Aufgaben ist ChatGPT sehr hilfreich. Aber auch für organisatorische Aufgaben verwende ich es gerne. Derzeit koordiniere ich eine Runde mit verschiedenen Lehrenden aus Deutschland, die sich regelmäßig zum Austausch treffen. Für die Organisation mit vielen Informationen, die sinnvoll und schnell lesbar zusammengestellt werden müssen, benutze ich es ebenfalls. Ich schreibe alle Informationen nach bestem Wissen auf und frage dann die KI. Sie formuliert es so, dass es keine Dopplungen, keine unnötigen Füllwörter und dergleichen mehr gibt. Das ist sprachlich oft viel präziser, prägnanter und strukturierter und damit eine große Hilfe.

Und es geht auch viel schneller.

Franz Vergöhl: Ja, und es gibt eine gewisse Sicherheit, dass alles sinnvoll formuliert ist. Wenn ich den Text dann einer Kollegin zeige, haben wir eigentlich ein Sechs-Augen-Prinzip.

Sophie Heins und Franz Vergöhl vom Lernangebot „KI im Studium nutzen“. Bilder: HCU

Wie geht ihr mit den Daten um?

Franz Vergöhl: Ich ändere zum Beispiel immer die Namen. Ansonsten arbeite ich, wenn ich ChatGPT benutze, mit wenig sensiblen Daten. Es gibt keine Forschungsdaten von Studierenden, die zurückverfolgt werden können oder ähnliches.

In eurem neuen Lernangebot auf der HOOU geht es auch um KI-Tools – und zwar um deren Einsatz im Studium. Wie seid ihr darauf gekommen?

Franz Vergöhl: Zum einen waren wir der Meinung, dass Studierende, die sich für den Einsatz von KI-Tools interessieren, mehr brauchen als die Handreichungen der Hochschulen. Die sind nicht wirklich pragmatisch und oft auch von der Sprache und vom Medium her nicht an die Studierenden gerichtet. Das fanden wir schwierig. Auf der anderen Seite ist KI so neu, dass es aus Sicht der Forschung oder der Wissenschaft keinen Wissensvorsprung gibt. Wir sind hier nicht in Themen unterwegs, die Professorinnen und Professoren seit 40 Jahren erforschen und dann den Bachelorstudierenden im ersten Semester ihren Wissensvorsprung präsentieren.

Wir wollten ein Gegengewicht schaffen und die Studierenden fragen, wie sie eigentlich mit KI umgehen, was sie voneinander lernen und wie sie sich gegenseitig unterstützen können? Die Grundidee war also, das studentische Wissen beziehungsweise die studentische Perspektive in den Mittelpunkt zu stellen.

Wie seid ihr dabei vorgegangen?

Sophie Heins: Wir haben viele Interviews mit Studierenden geführt oder mit Leuten gesprochen, die gerade ihr Studium abgeschlossen haben. Wir haben sie zum Beispiel gefragt, wie sich KI auf ihren späteren Beruf auswirkt oder ob sie sich bei der Anwendung von KI-Tools von den Hochschulen unterstützt fühlen. Was sie sich in diesem Zusammenhang wünschen. Daraus haben wir dann das Angebot entwickelt, das sich mit KI an sich beschäftigt, das generative KI erklärt und in KI als Werkzeug einführt, aber auch die Herausforderungen und Risiken von KI im Allgemeinen und im Rahmen der Bildung thematisiert.

Wir gehen auch darauf ein, was wir und KI für inklusive Bildung tun können, denn darum geht es im SDG 4 – hochwertige Bildung – im Rahmen der Sustainable Development Goals (SDGs). Das sind 17 Nachhaltigkeitsziele als politische Ziele der Vereinten Nationen, die weltweit eine nachhaltige Entwicklung auf ökonomischer, sozialer und ökologischer Ebene sicherstellen sollen. Das ist uns wichtig, weil wir an dem SDG-Campus an der HafenCity Universität angesiedelt sind. Darüber hinaus bietet der Kurs Beispiele dafür, wie KI konkret im Studium eingesetzt werden kann – von der Recherche über die Textverarbeitung bis hin zur Konzeptentwicklung – und gibt den Lernenden immer wieder die Möglichkeit, von ihren Erfahrungen in Foren zu berichten und von den Erfahrungen anderer zu profitieren.

Schließlich gibt es noch eine praktische Aufgabe mit der Frage: Wie können innovative Lösungen für Bildungsprobleme auf globaler Ebene dienen und gleichzeitig individuelle Bedürfnisse und soziale Gerechtigkeit im Bildungssystem fördern?

Das klingt spannend. Auch für diese Frage könnte man KI einsetzen – zumindest zum Brainstorming. Was meint ihr dazu: Ist die Hemmschwelle bei Studierenden groß, KI-Tools für studentische Aufgaben zu nutzen?

Franz Vergöhl: Nach meiner Wahrnehmung gibt es eher eine Hemmschwelle bei Studierenden, mit Lehrenden über den Einsatz von KI-Tools zu sprechen. Ich gehe davon aus, dass jeder schon einmal in die Anwendungen hineingeschaut hat. Aber bevor man sie im Studium einsetzt, sollte man sich gut informieren und mit anderen austauschen. Was darf man? Was darf man nicht? Unter welchen Bedingungen darf man? Gibt es Leitfäden und Regeln an der eigenen Hochschule?

Es ist aber auch wichtig, sich bereits im Studium mit KI zu beschäftigen. Denn die Kompetenz, mit KI-Werkzeugen umgehen zu können, wird wahrscheinlich auch im späteren Beruf benötigt. Es macht also keinen Sinn, sich im Studium davor zu drücken. Spätestens auf dem Arbeitsmarkt wird es verlangt.

Wie läuft der Diskurs über KI-Tools derzeit an den Hochschulen?

Franz Vergöhl: Es passiert viel, aber es wird noch nicht alles kommuniziert. Es wird sehr intensiv diskutiert, wie man KI strategisch einbinden kann. Kommt es in die Curricula der Bachelor-Studiengänge? Gibt es so etwas wie ein Studium Generale für KI? Wird es eher einzelne Kurse geben, in denen „Future Skills“ zum Beispiel in Projekten vermittelt werden? Wir sind glücklicherweise über den ersten Punkt hinaus, wo wir nur über Prüfung und Täuschung der Studierenden durch KI diskutiert haben. Das haben die Hochschulleitungen flächendeckend verstanden. Aber was unter der Oberfläche passiert, das kann ich in der Breite nicht sagen.

Ich glaube, was die Hochschulen tun sollten und was sie alle nicht tun, ist: Partizipativ mit ihren Studierenden zu sprechen, also die Studierenden als Ressource wahrzunehmen, um mit ihnen zu diskutieren. Was braucht ihr an welcher Stelle für euer Studium, was wünscht ihr euch für euren späteren Beruf? Das gemeinsam auszuhandeln, das ist etwas, was aus meiner Sicht viel zu wenig passiert. Und da braucht es ein bisschen mehr Tempo.

Sophie Heins: Ich möchte ergänzen, dass auch die Lehrenden mit ins Boot geholt werden müssen. Der Umgang mit KI sollte ein Diskurs sein, der mit allen Beteiligten an der Hochschule stattfindet. Mit unserem Lehrangebot an der HCU gehen wir einen ersten Schritt, um dafür eine Basis zu schaffen.  

Sophie Heins und Franz Vergöhl treten beim Science-and-Art-Slam der HOOU auf

Auf dem Bild ist ein Mikrofon auf einer Bühne abgebildet. im Hintergrund leuchten bunte Lichter.
Am 30. Mai steigt der erste Science-and-Art-Slam der HOOU. Bild: Bruno Cervera

Bei ihrem Slam geht es ums Prompten – genauer um ein Prompt Battle, bei dem sie auch auf die Nutzung von KI im Studium eingehen. Das wird richtig spannend!

Bei dem ersten Science-and-Art-Slam der HOOU gibt es aber noch weitere tolle Beiträge – und du kannst live dabei sein. Am 30. Mai laden wir dich kostenlos in die Zentralbibliothek der Bücherhallen Hamburg ein und zeigen dir, wie wir Wissenschaft und Kunst miteinander verbinden. Erfahre in unserem Beitrag, wer alles die Bühne stürmt und was der Abend sonst noch bereithält!

Ein Gruppe von Menschen sitzt auf Postermöbel um einen grünen Tisch herum. Das Foto wurde in der HCU Hamburg aufgenommen.

Bild: Jan von Roth

28.03.2024 | Meena Stavesand

10 Fakten zur HOOU: Das musst du über das Lernen an der Hamburg Open Online University wissen

Die Hamburger Universitäten und Hochschule stellen für die Hamburg Open University ein breites Wissensangebot zur Verfügung. Die Kurse sind kostenfrei und für alle zugänglich. Wir erzählen dir, was du über die HOOU, digitale Lehre und hybride Veranstaltungen wissen musst.

Digitale Lernangebote sind stark nachgefragt

Die digitale Bildungslandschaft ist in der heutigen, zunehmend digitalisierten Welt unverzichtbar. Die HOOU hat gezeigt, dass es einen großen Bedarf an leicht zugänglichen und qualitativ hochwertigen Online-Lernressourcen gibt.

Die Zugänglichkeit ist entscheidend

Eines der Hauptziele der HOOU war es, Bildung allen zugänglich zu machen. Die Erkenntnis hierbei ist, dass Lernangebote, die für jeden Menschen zugänglich sind, eine breitere Basis von Lernenden erreichen können – und wissen stärkt die Debattenkultur und damit die Gesellschaft.

Inhalte aus verschiedenen Disziplinen sind wichtig

Die HOOU bietet Kurse aus einer Vielzahl von Fachgebieten an. Dadurch wird den Nutzerinnen und Nutzern ein breites und niederschwellig erreichbares Spektrum an Wissen und Fähigkeiten geboten, die über das traditionelle akademische Lernen hinausgehen.

Praxisbezogenes Lernen ist wirkungsvoll

Durch zusätzliche Veranstaltungen im öffentlichen Raum wie die „WATTwanderung“ wird das Lernen relevanter und greifbarer, was die Lernerfahrung verbessert und das Verständnis der Lernenden vertieft.

Hybrides Lernen hat Vorteile

Reines Online-Lernen kann ermüdend sein und erfordert viel Eigenmotivation. Daher hat die HOOU hybride Lernformate eingeführt, die sowohl Online- als auch Präsenzkomponenten kombinieren. Dies bietet den Teilnehmenden Flexibilität und erhöht die Lernmotivation.

Du willst mehr über die HOOU erfahren?

Dann schau rein in das Interview mit unserem Geschäftsführer Prof. Dr. Sönke Knutzen:

Universitäten und Gesellschaft können enger miteinander verknüpft werden

Die HOOU hat erkannt, dass Universitäten und Hochschulen nicht nur für Studierende existieren, sondern dass sie auch einen Wert für die Gesellschaft als Ganzes bieten können. Durch das Anbieten von öffentlich zugänglichen Kursen baut die HOOU Brücken zwischen den Hochschulen und der Gesellschaft.

KI kann Bildung verändern

Die HOOU hat erkannt, dass künstliche Intelligenz (KI) das Potenzial hat, Bildung nachhaltig zu verändern. KI kann verwendet werden, um das Lernen zu personalisieren und neue Lehrmethoden zu erforschen, die das traditionelle Lernen ergänzen.

Forschung und Lehre müssen Hand in Hand gehen

Die HOOU zeigt, dass die besten Lernangebote auf aktueller Forschung basieren. Es ist wichtig, dass Forschung und Lehre eng miteinander verknüpft sind, um effektive und relevante Lerninhalte zu liefern.

Wissenschaftskommunikation ist essenziell

Das Wissen und die Forschung, die an Hochschulen erzeugt werden, sollten nicht auf dem Campus oder auf der Plattform bleiben. Die HOOU hat erkannt, dass Wissenschaftskommunikation entscheidend ist, um dieses Wissen zugänglich zu machen.

Nachhaltigkeit sollte in der Bildung eine Rolle spielen

Themen wie Klimawandel und Energieversorgung sind nicht nur aktuell, sondern auch zukunftsorientiert. Die HOOU hat erkannt, dass Bildungseinrichtungen eine wichtige Rolle bei der Förderung der Nachhaltigkeit und der Aufklärung über diese Themen spielen können.

Transparenzhinweis: Dieser Blogeintrag wurde mithilfe von KI generiert und von der Redaktion verifiziert sowie redigiert. Wir experimentieren mit KI-Tools, um die Arbeit damit zu testen und mehr darüber erfahren sowie herauszufinden, was Tools wie ChatGPT eigentlich mit der HOOU verbinden.

ein Notebook auf dem ChatGPTs Prompting Tipps zu sehen sind

Titelbild: Emiliano Vittoriosi/Unsplash

27.07.2023 | HOOU

Künstliche Intelligenz in der Lehre

Bei Lehre:Digital gibt es viel zu entdecken. Durch die Corona-Pandemie veränderten sich die Anforderungen an die Lehre rasant und dieser Bedarf ist bis jetzt nicht abgeebbt. Ganz im Gegenteil tut sich, unter anderem bedingt durch moderne KI-Tools, eine neue Art von Lehren und Lernen auf. Daher möchte das Autor:innen-Team des Blogs Lehre:Digital niedrigschwellig sein Wissen teilen, unterstützen und mit anderen in den Austausch kommen.

Von Nicole Hagen

Streitgespräch zu Künstlicher Intelligenz und ChatGPT

Dafür bereiten die Teammitglieder in regelmäßigen Abständen aktuelle Themen für den Bereich Lehre und Lernen auf. So haben in der heutigen digitalen Ära Künstliche Intelligenz (KI) und Maschinelles Lernen auch hier viel Aufmerksamkeit erlangt. Deshalb erläutert ein aktueller Beitrag auf dem Blog den Unterschied dieser beiden Begriffswelten. Der weitere Verlauf des Artikels Künstliche Intelligenz & ChatGPT beschäftigt sich intensiv mit ChatGPT und vor allem mit seinen Vor- und Nachteilen. Das Thema bietet enorm viel Diskussionsstoff. Aus diesem Grund erwartet die Leserschaft ein ausführliches Streitgespräch zu diesem KI-Schreib-Tool welches als Einstieg in eigene Diskussionsrunden dienen kann.

Ein Beispiel, wie ChatGPT konstruktiv zur kreativen Gestaltung benutzt wird, zeigt die Aktion zum just vergangenen deutschlandweiten Digitaltag: »Geschichtenschreiben mit KI-Tools« auf Lehre:Digital. Eine ausführliche und spielerische Schritt-für-Schritt-Anleitung hilft beim ersten Umgang mit dem Large-Language-Model. Spannende Kurzgeschichten mit unterschiedlichsten Charakteren und Wendungen wurden durch Teilnehmende eingereicht und sind nun auf der Plattform veröffentlicht.

Videosammlung zu KI in der Hochschullehre

Auf Lehre:Digital besteht zudem eine Sammlung an informativen Videos zu Künstlicher Intelligenz in der Hochschullehre. Zu Wort kommen u.a. Michael Kipp von der TU Augsburg, Christian Spannagel von der Pädagogischen Hochschule Heidelberg, Ranga Yogeshwar (Wissenschaftsautor, Journalist) und Doris Weßels (Fachhochschule Kiel).

Zu all den spannenden Facetten, welche die neuen und alten KI-Anwendungen mit sich bringen, gestaltet sich die rechtliche Lage von mit KI-Tools produzierten Inhalten als aktuell schwer durchschaubar. Genau hierfür bietet ein ausführlicher Artikel von Andrea Schlotfeldt, Rechtsexpertin an der HAW Hamburg, Orientierungshilfe.

Die HOOU an der HAW Hamburg

Die HOOU an der HAW Hamburg steht für ein mediendidaktisches, medienpädagogisches, medientechnisches und medienrechtliches Knowhow. Sie bietet Impulse, Ideen sowie Materialien zur Gestaltung und Umsetzung von Lehre mit digitalen Methoden und Werkzeugen. Dabei behält Lehre:Digital vor allem offene Lehr- und Lernmaterialien (OER) im Blick, stellt open source Tools wie H5P vor und geht auf das Thema Creative-Commons-Lizenzen ein. Feedback und Anregungen sind immer willkommen. Schreiben Sie dafür gerne dem Lehre:Digital-Team unter HOOU@haw-hamburg.de.

Symbolbild KISS*

Zwei junge Menschen haben in ihrer Mitte einen Roboter an der Hand.

24.08.2021 | Katrin Schröder

Projektabschluss KISS*

KISS* hat nichts etwa mit Küssen oder der Rock-Band zu tun, sondern ist ein Lernangebot mit dem Namen Künstliche Intelligenz für Schüler:innen und Studierende.

Symbolbild KISS*
Zwei junge Menschen haben in ihrer Mitte einen Roboter an der Hand.

Das Lernangebot ist ein Produkt des Hackathon Hacks&Tools im Februar 2020. 
Werner Bogula konnte mit seinem Konzept, ein offen lizenziertes Online-Bildungsangebot zu dem Thema Künstliche Intelligenz zu schaffen, die Jury überzeugen. 

Zum Glück, denn herausgekommen sind 14 Lerneinheiten, die sowohl für interessierte Selbstlerner:innen, als auch in geführten Lerngruppen (z. B. im Unterricht oder Seminar) bearbeitet werden können. 

Lernende können sich durch die Bearbeitung der OER ein breites Wissen zu Künstlicher Intelligenz aneignen: So werden neben der Technik und Anwendung auch beleuchtet, wer verantwortlich für die Entscheidungen von KI und deren Einsatz in der Gesellschaft ist. Viele Beispiele werfen Fragen auf: Wer überwacht die Maschinen? Wenn die Maschine immer besser ist als der Mensch, wofür ist der Mensch dann noch da? Und wie funktioniert maschinelles Lernen überhaupt?

Die anschaulich aufbereitete OER wechselt zwischen Input als Text, H5P-Abfragen und Videos ab.

HOOU@HAW: Wie kamst Du auf die Idee, ein Lernangebot zu künstlicher Intelligenz zu machen? 

Werner: Ich arbeite seit langem als Trainer für Journalist:innnen und Aktivist:innen und habe damals festgestellt, dass es zum Thema Künstliche Intelligenz wenig gutes Lehrmaterial für Einsteiger:innen gegeben hat. Dazu kommt, dass Mathematik und Informatik viele Wissbegieriege abschreckt. Daher dachte ich, es wäre einen gute Idee, das Thema einmal von der Alltagserfahrung junger Leute aufzuziehen und so Schüler*innen und Studierende an das Thema heranzuführen.

HOOU@HAW: Du warst bei den Anfängen des Internets in den 90ern mittendrin. Hättest Du Dir diese steile Entwicklung damals vorstellen können?

Werner: Es ist wirklich atemberaubend, was in meiner Lebenszeit an digitalen Revolutionen stattgefunden hat. Als ich studiert habe, ging es gerade um den Übergang vom Bleisatz auf Digitaldruck, dann kann das Internet mit dem Online-Journalismus und in den letzten Jahren nun die KI-Revolution. 

HOOU@HAW: Was fasziniert Dich an künstlicher Intelligenz und was macht Dir vielleicht auch Angst?

Werner: Als Softwareentwickler war ich es immer gewohnt, dass man Maschinen haarklein sagen muss, was sie tun sollen. Mit der KI gibt es nun völlig neue Möglichkeiten, dass Maschinen aus Beispielen lernen und damit Bereiche erschlossen werden, die vorher nicht maschinell bearbeitet werden konnten. Am meisten fasziniert mich die Spracherkennung und Sprachverarbeitung, weil es die komplexesten Probleme mit sich bringt. Angst habe ich keine. Aber es stimmt mich bedenklich, dass viele sich eine Meinung zu KI bilden oder auch Angst davor entwicklen, ohne genauer informiert zu sein, was KI kann oder nicht kann. Ich hoffe mit KISS* einen Baustein beitragen zu können, sich eine informierte Meinung über KI zu bilden.

HOOU@HAW: Warst Du bereits vor dem Hackathon in der OER Community unterwegs und welche Vorteile siehst Du in der Entwicklung und Bereitstellung von offen lizensierten Bildungsmaterialien?

Werner: Der Hackathon war meine erste Begegnung mit der OER Community. Aber da ich als Softwareentwickler ein riesiger Fan von Open Source Software bin, hat mich der OER-Gedanke gleich angesprochen, und der Wunsch das Prinzip der freien Verfügbarkeit einmal auf Wissen anzuwenden war sofort da. Mithilfe der Förderung durch die HOOU konnte ich das dann glücklicherweise gleich umsetzen und die Erfahrung war wirklich fantastisch. Ich finde es super, dass die Universitäten über die HOOU mit den OERs Wissen für alle bereitstellen, damit in die Gesellschaft hineinwirken und zu eigenen Lehr- und Lernprojekten anregen. 

Hier geht es zum Lernangebot.

An dieser Stelle sagen wir noch: Vielen Dank, für diese schöne und gute Zusammenarbeit, lieber Werner. Wir sind gespannt, welche Entwicklungen die Technologie in der Zukunft noch nimmt.