Schlagwort: KI
24.07.2024 | Meena Stavesand
Generative KI: Das musst du über Urheberrecht, Datenschutz und Transparenz wissen
ChatGPT, Co-Pilot, Midjourney, Dalle-E oder auch DeepL - das alles sind KI-Generatoren für Texte und Bilder, die künstliche Intelligenz in die Gesellschaft gebracht haben. Jeder kann sich an generativer KI versuchen, Texte, Bilder und Videos erstellen und veröffentlichen. Aber wie sieht es mit Urheberrecht und Datenschutz aus? Was darf wie genutzt werden? Wann muss man KI-generierte Inhalte kennzeichnen? Und welche Verantwortung trägt man bei der Arbeit mit KI-Generatoren? Diese Fragen haben wir der Juristin Andrea Schlotfeldt von der HAW Hamburg gestellt. Herausgekommen ist ein spannendes Interview, in dem es auch um den neuen AI Act der EU geht.
Thema Urheberrecht. Inwieweit kann es bei Erstellung und Nutzung von KI-Inhalten zu Urheberrechtsverletzungen kommen?
Andrea Schlotfeldt: Die Wahrscheinlichkeit, hierbei fremde Urheberrechte zu verletzen, ist an sich gering. Es verbleibt aber ein Restrisiko. Hierfür ist die Art des gewählten Prompts relevant und, ob ich den KI-Output noch weiterbearbeite und falls ja, in welchem Umfang. Lasse ich einen noch geschützten fremden Text übersetzen und veröffentliche ich diese Übersetzung, kann darin eine Urheberrechtsverletzung liegen. Ebenfalls wenn ich ein fremdes Bild hochlade, durch die KI geringfügig verändere und dann neu veröffentliche.
Eine Urheberrechtsverletzung kann allerdings auch zufällig bzw. unbewusst vorkommen, auch je nach zugrunde liegendem Trainingsmaterial. Sofern KI-Output mit bestehenden fremden Werken identisch ist oder diesen stark ähnelt, ohne dass ich durch meinen Prompt darauf hingewirkt habe, könnte es theoretisch also auch zu Urheberrechtsverletzungen kommen.
Wie kann ich sicherstellen, dass ich bei der Nutzung von KI-Inhalten keine Urheberrechte verletze?
Andrea Schlotfeldt: Eine pauschale Sicherstellung ist nicht möglich, aber man kann z. B. durch eine Rückwärtssuche u. a. bei Google prüfen, ob man ähnliche Ergebnisse bekommt – wenn ja, ist man eventuell im Bereich der Urheberrechtsverletzung und sollte auf die Nutzung verzichten. Aber das lässt sich nicht generell sagen, sondern man muss es im Einzelfall prüfen. Grundsätzlich ist die Rückwärtssuche ein Instrument, mit dem man zumindest eine erste Information bekommt.
Auch sollte man davon absehen, KI-generierte Übersetzungen noch geschützter Texte ohne Zustimmung der Rechteinhaber:innen zu veröffentlichen. Letztlich kommt es darauf an, wie der Prompt ausgestaltet ist. Wenn man ganz gezielt nach bestimmten Texten oder Studienauszügen fragt, dann kann es vorkommen, dass zumindest in Teilen auch 1:1-Inhalte generiert werden. Von deren Weiterverwendung sollte ich dann absehen.
Gibt es Grenzen?
Andrea Schlotfeldt: Ja, man muss immer unterscheiden, in welchem Kontext man den Content verwendet. Wenn man ihn im Rahmen einer studentischen Arbeit oder auch als lehrende Person in Folien verwendet, dann kann das unter die Schranke des § 60a Urheberrechtsgesetz fallen, der zu Studien- oder Lehrzwecken bestimmte Nutzungen erlaubt, wenn die Inhalte in einem geschlossenen Benutzerkreis bleiben und nicht öffentlich auf einer Website zugänglich gemacht werden. Allerdings besteht hier die Anforderung, dass die Quellen angegeben werden müssen. Man muss also wissen, woher die Texte oder Bilder stammen – was bei KI-Output oft schwierig bis unmöglich sein kann. Und genau der eingeschränkte Kreis der Teilnehmerinnen und Teilnehmer an einer Veranstaltung ist wichtig.
Was ist der AI Act?<br>Der Artificial Intelligence Act (AIA) ist ein von der EU-Kommission im Rahmen der EU-Digitalstrategie veröffentlichtes Gesetz zur Regulierung von Künstlicher Intelligenz (KI) in Forschung und Wirtschaft. Er legt fest, welche Anbieter:innen und Nutzer:innen von KI-Systemen in der EU den neuen Regularien unterliegen. Dies betrifft sowohl in der EU ansässige als auch außerhalb der EU befindliche Akteur:innen, deren KI-Systeme in der EU genutzt werden. Der AI Act definiert KI weit: KI umfasst demnach Systeme, die maschinelles Lernen, logik- und wissensbasierte Konzepte oder statistische Ansätze nutzen. <br><br>KI-Anwendungen werden nach ihrem potenziellen Risiko in vier Kategorien eingeteilt: unannehmbares Risiko, hohes Risiko, geringes Risiko und minimales Risiko. Systeme mit unannehmbarem Risiko sind verboten, Hochrisiko-Systeme unterliegen strengen Anforderungen wie Risikomanagement und Daten-Governance, also Datenrichtlinien für die Erfassung, Speicherung, Verarbeitung und Vernichtung von Daten. Systeme mit geringem Risiko müssen minimale Transparenzpflichten erfüllen, während Anwendungen mit minimalem Risiko keine besonderen Anforderungen haben.<br><br>Der AI Act zeigt die EU-Bemühungen, Missbrauchspotenziale wie Beeinflussung und Überwachung durch KI zu minimieren. Unternehmen sollten sich frühzeitig mit den Regulierungen auseinandersetzen und ihre Entwicklungen entsprechend anpassen.
Es gibt auch die Gemeinfreiheit bei Werken. Was ist das genau?
Andrea Schlotfeldt: Zum einen sind Werke gemeinfrei, wenn der Urheberrechtsschutz abgelaufen ist, also 70 Jahre nach dem Tod des Urhebers oder der Urheberin. Oder Werke sind gemeinfrei, wenn sie gar nicht geschützt waren, weil es sich zum Beispiel um eine sehr einfache Gestaltung handelt, die keine Schöpfungshöhe, also keine besondere Originalität, aufweist, oder wenn es sich z. B. um Gesetzestexte handelt.
Wie kann ich sicherstellen, dass meine KI-generierten Inhalte nicht kopiert werden?
Andrea Schlotfeldt: Sicherstellen lässt sich dies nicht. Hier ist die Situation dieselbe wie bei herkömmlichen urheberrechtlich geschützten Texten oder Bildern, die ich veröffentliche. Sofern kein technischer Kopierschutz gegeben ist, können Inhalte rein faktisch übernommen werden. Wer bei mir „klauen“ möchte, den oder die kann ich nicht daran hindern.
Der Unterschied zu diesen von Menschen verfassten Inhalten ist, dass bei KI-Output in der Regel ja kein Urheberrechtsschutz anzunehmen ist, so dass die Weiternutzung zumeist tatsächlich zulässig ist (Stichwort „digitales Freiwild“). Derzeit wird unter Jurist:innen diskutiert, ob KI-Output künftig über ein sogenanntes Leistungsschutzrecht geschützt werden sollte, wie dies beispielsweise in Großbritannien in bestimmten Konstellationen der Fall ist. Ob eine solche Gesetzesänderung kommt, ist aber noch unsicher. Das Gesetzgebungsverfahren würde zudem sicher eine gewisse Zeit brauchen.
Gibt es Fälle, in denen mein KI-Output gleichwohl urheberrechtlich geschützt ist?
Andrea Schlotfeldt: Wenn Inhalte von mir wie Bilder oder Texte von einer KI nur geringfügig bearbeitet bzw. verändert wurden, aber im Wesentlichen immer noch meine Arbeit, mein Werk, sind, dann unterliegen sie weiterhin meinem Urheberrecht. So interpretiere ich die aktuelle Rechtslage. Wenn ich aber mittels KI ein Bild erstellen lasse, für das ich vorgebe, dass eine Lehr- bzw. Unterrichtssituation zu sehen sein soll, klassisch – ein Raum, Tische, Stühle, Monitore, Whiteboard und Studierende – und die KI generiert mir das, dann ist das nicht mein eigenes Werk. Wenn ich dieses Bild so – auch unbearbeitet – auf meine Website stelle, dann können es theoretisch auch andere nutzen. Es unterliegt dann keinem Urheberrecht. Das ist die Besonderheit – im Vergleich zu herkömmlichen Fotos oder Texten, auch wenn es mein Prompt ist, auf dem der Output ja letztlich basiert.
Gibt es eine Verpflichtung zur Transparenz, wenn ich Inhalte mit einer KI generiere?
Andrea Schlotfeldt: Hier kommt es auf die geplante Nutzung an: Eine generelle Pflicht zur Transparenz besteht aktuell noch nicht. Allerdings können sich auch jetzt schon Kennzeichnungspflichten aus Prüfungsvorgaben ergeben, etwa im Kontext der in der Regel geforderten Hilfsmittelangabe. Hierfür sind Art, Umfang und Zweck der KI-Nutzung ausschlaggebend. Die Umsetzung dieser Pflichten kann komplex ausfallen, zumal wenn die verwendeten Prompts mit aufzuführen sind.
Auch darf ich mich nicht als Urheber:in KI-generierter Texte ausweisen, wenn diese ausschließlich von einem KI-Tool erzeugt wurden. Die Grenzen sind allerdings fließend, und Rechtsprechung hierzu steht aus (Wieviel Anteil eines Textes darf beispielsweise KI-erzeugt sein, damit dieser noch als eigener Text gilt? Dies ist auch relevant bei Übersetzungen mit Diensten wie DeepL.). Bei Presseerzeugnissen können journalistische Sorgfaltspflichten ebenfalls eine Pflicht zur Kennzeichnung mit sich bringen.
Wichtig ist auch: Die EU hat im Mai 2024 den sogenannten AI Act verabschiedet – ein Gesetz für den Umgang mit KI. Darin ist auch eine Vorschrift enthalten, die eine Transparenzpflicht vorsieht. Sie soll voraussichtlich ab August 2025 gelten. Die genauen Vorgaben sind derzeit noch unkonkret. Hier werden juristische Kommentierungen oder ggf. Konkretisierungen durch das AI Office eine wertvolle Hilfe sein, Aktuell wird an diesen gearbeitet.
Eine Frage, die sich daran anschließt, ist die nach der Kontrolle. Wie kann man kontrollieren, ob ein Content KI-erzeugt ist?
Andrea Schlotfeldt: Kontrolle ist schwierig. Es gibt u. a. die Möglichkeit, Wasserzeichen einzusetzen, um KI-Output als solchen zu kennzeichnen, aber wie dauerhaft sind diese? Kann man sie einfach „herausschneiden“? Hier ist die Forschung gefragt und auch dabei (u. a. an der HAW Hamburg), gute Lösungen zu entwickeln, damit solche Markierungen nicht einfach entfernt werden können.
Was sind Deepfakes?<br>Deepfakes sind Medieninhalte, bei denen künstliche Intelligenz verwendet wird, um realistisch aussehende Fälschungen zu erstellen. Diese Fälschungen können Videos, Audios oder Bilder umfassen, bei denen das Gesicht oder die Stimme einer Person manipuliert oder komplett ersetzt wird, um den Eindruck zu erwecken, dass diese Person etwas gesagt oder getan hat, was in Wirklichkeit nicht der Fall ist. Der Begriff „Deepfake“ setzt sich aus „Deep Learning“ und „Fake“ zusammen und weist darauf hin, dass tiefe neuronale Netze, eine Technologie des maschinellen Lernens, verwendet werden, um diese Fälschungen zu erzeugen.
Thema Verantwortung und Haftung. Bin ich für meine Inhalte verantwortlich? Und kann ich die Verantwortung abgeben?
Andrea Schlotfeldt: Man kann die Verantwortung in der Regel nicht abgeben. Wenn man die Tools nutzt und damit Inhalte erstellt, dann sind die Nutzungsbedingungen dieser Programme in der Regel so ausgestaltet, dass der Nutzer oder die Nutzerin selbst verantwortlich ist. Anders kann die Situation zu beurteilen sein, wenn bei einer Prüfung der Einsatz eines KI-Tools verpflichtend vorgesehen ist und „unwissentlich“ eine Urheberrechtsverletzung entsteht, die zudem der Öffentlichkeit zugänglich wird, etwa im Zuge der Präsentation von Abschlussarbeiten. Hier hängt die Beurteilung sehr vom Einzelfall ab.
Viele Nutzende treibt der Datenschutz um. Bei ChatGPT gibt es die Möglichkeit, die eigenen Daten dahingehend zu schützen, dass die Prompts und Ergebnisse nicht weiterverwendet werden. Ist das wirklich möglich?
Andrea Schlotfeldt: Ob diese Einstellungen ein Garant für den Schutz sind, dazu sind mir keine Erhebungen oder Studien bekannt. Viele Expert:innen sprechen bei KI-Tools von einer Black Box. Was passiert da eigentlich? Wird eingehalten, dass meine Daten oder Werke nicht für das KI-Training verwendet werden? Das lässt sich derzeit nicht mit Sicherheit sagen. Wer seine Daten schützen will, sollte z. B. bei ChatGPT auf die History verzichten – und das kann wiederum problematisch sein. Diese Art der Dokumentation wird bei Prüfungen, bei denen KI-Generatoren erlaubt oder sogar vorgesehen sind, in der Regel vorausgesetzt, siehe oben, Stichwort Kennzeichnungspflichten. Das ist auch ein Problem, für das wir praxistaugliche Lösungen brauchen.
Hast du generell einen Tipp, wie man mit seinen Daten umgehen sollte?
Andrea Schlotfeldt: Möchte ich datensparsam vorgehen, sollte ich schon bei den eigenen Eingaben darauf achten, keine persönlichen Daten einzugeben und mir genau überlegen, wie viele Informationen ich preisgeben möchte. Wenn ich zum Beispiel meinen Lebenslauf von einer KI verbessern lasse, muss ich mich bewusst entscheiden, welche Daten ich der KI gebe.
Wenn ich im Personalwesen oder in der Forschung mit KI arbeite und zum Beispiel personenbezogene Daten zusammenfassen lasse, dann muss ich eine Rechtsgrundlage bzw. eine Einwilligung der Personen haben – und die muss freiwillig sein. Das heißt, die Person, die ich um Einwilligung bitte, muss verstehen, was genau mit den Daten passiert, und sie muss die Entscheidung tatsächlich als freiwillig empfinden. Es ist wichtig, dass wir diese Datensensibilität auf beiden Seiten entwickeln.
Was meinst du damit?
Andrea Schlotfeldt: Es geht zum einen darum, dass die Nutzerinnen und Nutzer von KI wissen, dass sie nicht einfach persönliche Daten anderer in das KI-Tool kopieren können, um zum Beispiel etwas zusammenzufassen oder sich die Arbeit anderweitig zu erleichtern. Gerade im Arbeitskontext, auch an Hochschulen, wird für Datenverarbeitungen immer eine Rechtsgrundlage benötigt. Zum anderen müssen auch die sogenannten „Betroffenen“, also die Menschen, deren Daten oder Informationen genutzt werden, verstehen, was konkret mit ihren Daten passiert und worauf sie bei einer Einwilligung achten müssen.
Das Thema KI wird uns rechtlich in den nächsten Jahren noch intensiv beschäftigen. Es geht um unsere eigenen Daten, um Urheberrechte und Transparenz, aber auch um die Verletzung von Persönlichkeitsrechten, zum Beispiel durch Deep Fakes.
Andrea Schlotfeldt: Ja, die sogenannten Deepfakes sind eine der großen Herausforderungen, denen wir begegnen. Je mehr technisch möglich ist und je mehr Menschen auch mit den Tools umgehen können, desto gravierender können die Auswirkungen auf die Gesellschaft und einzelne Betroffene sein. Der Bereich der pornografischen (Fake-)Darstellungen ist bereits jetzt ein riesiges Problem.
Auch die Politik und der Journalismus haben mit Deepfakes zu kämpfen – das kann Wahlen oder andere politische Entscheidungen beeinflussen, wenn Falschinformationen über KI-erzeugte Videos oder Bilder verbreitet werden. Ein weiteres Problem können sogenannten Softfakes sein, also Bilder, Videos oder Audioclips, die manipuliert werden, um politische Kandidat:innen attraktiver oder vorteilhafter wirken zu lassen. Auch im Bereich wissenschaftlicher Forschung können negative Auswirkungen, die auf Falschinformationen basieren, nicht ausgeschlossen werden.
Was kann hier helfen?
Andrea Schlotfeldt: Wir müssen eine deutlich höhere Sensibilität für solche falschen Inhalte entwickeln. Das geht nur durch (Weiter-)Bildung – und betrifft alle Altersstufen. Die Menschen müssen vielfältige Kompetenzen in diesem Bereich erwerben. Am besten fängt man damit schon bei Kindern an.
Viele Institutionen und Einrichtungen bieten bereits geeignete Materialien und Tools wie Fakefinder an. Auch von der HOOU an der HAW Hamburg gibt es ein passendes Lernangebot, adressiert an Lehrkräfte, die ihren Schülerinnen und Schülern wichtige Kompetenzen beim Umgang mit Informationen aus dem Netz vermitteln möchten, also auch Deepfakes. Diese Angebote sollten wir nutzen.
Über Andrea Schlotfeldt:
Andrea Schlotfeldt ist wissenschaftliche Mitarbeiterin Juristische Beratung für Projekte der Hamburg Open Online University an der HAW Hamburg. In dieser Rolle berät sie OER-Produzierende in rechtlicher Hinsicht bei der Konzeption und Veröffentlichung ihrer offenen Bildungsmaterialien. Darüber hinaus ist sie mit Fragen des Urheberrechts, des Datenschutzes und KI in der digitalen Lehre befasst. Sie ist zudem seit 2008 selbständige Rechtsanwältin, Dozentin und Referentin mit Schwerpunkt Urheber-/Vertragsrecht und KI, auch hier fokussiert auf Wissenschafts- und Bildungsinstitutionen.
Lizenzhinweis für das Interview (Text): CC BY 4.0
12.06.2024 | Meena Stavesand
Weltpremieren beim Slam: Von nackten Reitern über zerbrochene Nudeln bis hin zu Mathe in der Musik
Was haben nackte Reiter, zerbrochene Spaghetti und ein Instrument mit nur einer Saite gemeinsam? Sie alle waren Teil des ersten Science-and-Art-Slams der HOOU. Vor mehr als 130 Menschen in der Zentralbibliothek der Bücherhallen Hamburg performten die Wissenschaftler:innen und Kulturschaffenden mit einzigartigen Auftritten.
WELTPREMIERE! Moderator Dr. Ronny Röwert geizte am Abend des 31. Mai nicht mit solchen Superlativen – und das zurecht! Denn nicht nur der Science-art-Art-Slam der Hamburg Open Online University an sich war eine Weltpremiere, auch die Slams waren in ihrer jeweiligen Form und der Zusammensetzung ein exklusives Schauspiel (und werden dies wohl bleiben).
Wissenschaftliche Vielfalt
Den mehr als 130 Besucherinnen und Besuchern bot sich also ein außergewöhnliches Event, das sich insbesondere durch seine wissenschaftliche Vielfalt auszeichnete. Denn wenn die HOOU einen Slam organisiert, dann sollen das Publikum auch etwas lernen – dafür steht die HOOU jedenfalls: Bildung für alle. So lautete also auch das geheime Motto des Abends.
Und so kombinierte das Organisationsteam um Dr. Paula de Oliveira Guglielmi einen Auftritt zu Künstlicher Intelligenz (mit kurzeitigem Internetproblem, das Ronny Röwert und Slammer Franz Vergöhl charmant überbrückten, während seine Slammerkollegin Sophie Heins es schnell löste) mit dem Vocalcoaching von Linda Smailus, bei dem die Hamburgerinnen und Hamburger ihre Stimme trainieren konnten.
Harte Töne, sanfte Töne
Außerdem beeindruckten mit ihren Performances Prof. Dr. Anja Steidinger und Julia Stolba in Trenchcoat und Sonnenbrille – mit Prof. Dr. Nora Sternfeld als Stimme aus dem Off, die über nackte Reiter philosophierten, und Tam Thi Pham mit einem besonderen Instrument – der Dan Bau, die aus nur einer Saite besteht, aber trotzdem einzigartige Töne fabriziert.
Zu vergessen sind aber auch nicht Jan Küchenhof, der mit dem Publikum eine Reise in die Welt der Ideenfindung und Produktentwicklung unternahm, und Vincent Dombrowski, der Musik und Mathematik miteinander verband. Klingt komisch? War aber spannend – auch für Menschen, die weniger mit Zahlen umgehen wollen!
Komplexe Themen simpel heruntergebrochen
Was fehlt? Die zerbrochenen Spaghetti! Und für die sorgte Philip Rose, der am Ende auf den Nudelresten auch den Siegerpokal in die Luft heben konnte. Der Wissenschaftler der HAW brachte dem Publikum die Vielseitigkeit von kohlenstofffaserverstärktem Kunststoff näher – und das war (anders als vielleicht der Begriff an sich) unglaublich interessant. Das lag maßgeblich an Philips humorvoller Art, die Dinge auf ihre Einfachheit herunterzubrechen. Das ist nicht immer die Stärke von Forschenden, die zu einem Thema auch noch promovieren, aber Philip hat das mit Bravour gemeistert – und dafür am Ende den lautesten Applaus eingeheimst.
Natürlich wäre die HOOU nicht die HOOU, wenn auch beim „Applausometer“ Wissenschaft niederschwellig zu sehen gewesen wäre. Goran Lazarevic von der HfMT hatte eigens für den Slam eine Software programmiert, die mithilfe eines Mikrofons sehr genau anzeigte, wie laut der Applaus wirklich war. Und so war auch ohne Zweifel klar, dass sich Philip am Ende durchsetzte – wissenschaftlich belegt!
Leidenschaft für Wissenschaft, Kunst und Kultur
Knappt war es trotzdem. Denn alle Slammer:innen haben eins gezeigt: Sie sind Expert:innen auf ihren Gebieten – und begeistern mit ihrer Leidenschaft für die Wissenschaft, Kunst und Kultur viele Menschen. So auch die über 130 Zuschauerinnen und Zuschauer beim ersten Science-and-Art-Slam der Hamburg Open Online University.
Danke an alle Beteiligten
Wir bedanken uns bei allen Beteiligten, insbesondere bei den Bücherhallen Hamburg als Kooperationspartner, bei Frau Dr. Eva Gümbel, Hamburger Staatsrätin für Wissenschaft, Forschung und Gleichstellung, die ein Grußwort sprach, bei Moderator Ronny Röwert und natürlich bei den Slammerinnen und Slammern für die vielen Weltpremieren!
17.05.2024 | Meena Stavesand
KI im Studium nutzen: Darum sollten sich Studierende mit KI-Tools auseinandersetzen
ChatGPT, DeepL und Co. sparen viel Zeit. Bei den täglichen Routinen am Schreibtisch, aber auch bei der kreativen Arbeit. Doch wie lassen sich KI-Tools im Studium einsetzen?
Es ist eine spannende Frage, die Franz Vergöhl und Sophie Heins von der HafenCity Universität mit Studierenden besprochen haben. KI-Tools im Studium einsetzen – aber wie? Aus den Ergebnissen der Gespräche ist ein neues HOOU-Lernangebot entstanden: KI im Studium nutzen. Was in dem Kurs vermittelt wird und wie sich sowohl Studierende als auch Hochschulen in Zukunft auf den Einsatz von KI einstellen sollten, darüber sprechen wir mit den beiden im Interview.
Was ist euer Lieblings-KI-Tool?
Franz Vergöhl: Mein Lieblings-KI-Tool ist tatsächlich ChatGPT, das ich sehr gerne als Sparringspartner verwende, sei es für schwierige E-Mails, Projektideen, Titel für Podcastfolgen oder Artikel, aber auch für Social Media. Ich lasse mir zum Beispiel gerne Dinge vorformulieren oder auch Fragen stellen und verwende dann meine eigenen Formulierungen. Außerdem lasse ich mir manchmal Dinge von ChatGPT erklären, die ich sonst googeln müsste.
Sophie Heins: In letzter Zeit benutze ich vor allem DeepL Write, um E-Mails, die ich formuliere, von der Zeichensetzung korrigieren oder stilistisch besser formulieren zu lassen. Aber es kommt immer auf die Anwendung an. Also ChatGPT benutze ich natürlich auch, das finde ich ebenfalls sehr praktisch.
Ihr nutzt also KI-Tools in eurer täglichen Arbeit.
Sophie Heins: Ja. Wir hatten zum Beispiel vor kurzem eine Auftaktveranstaltung für eine Lehrveranstaltung und wir sind ganz begeistert von unserer ersten Aufgabe, die wir den Studierenden gegeben haben. Die haben wir nämlich mit Hilfe von ChatGPT generiert. Ich glaube nicht, dass wir selbst so schnell auf diese Aufgabe gekommen wären. Das ist ein sehr gutes Beispiel dafür, wie wir KI auch einsetzen. Es geht nicht nur darum, Texte zu verbessern oder zu korrigieren. KI-Tools können viel mehr.
Was war die Aufgabe?
Sophie Heins: In dem Seminar geht es darum, wie wir Städte nachhaltig gestalten können. Die Studierenden sollten dann in die Hafencity gehen und sie auf bestimmte Aspekte hin untersuchen – unter anderem auf nachhaltiges Wohnen. Eine Gruppe hat sich auf negative Punkte konzentriert, eine andere auf positive. Ihre Eindrücke sollten sie fotografisch dokumentieren. Anschließend haben wir anhand der Fotos darüber diskutiert. Die Fotodokumentation war eine Idee von ChatGPT.
Wie war das Feedback dazu?
Sophie Heins: Das kam bei den Studierenden sehr gut an, weil es eine willkommene Abwechslung zur Vorlesung ist. Sie müssen raus, sie machen Fotos, sie tauschen sich aus, sie diskutieren miteinander. Im Idealfall sind die Gruppen mit Studierenden aus verschiedenen Studiengängen gemischt, so dass verschiedene Perspektiven aufeinandertreffen. Auch wir sind von der Aufgabe begeistert.
Franz Vergöhl: Für kreative Aufgaben ist ChatGPT sehr hilfreich. Aber auch für organisatorische Aufgaben verwende ich es gerne. Derzeit koordiniere ich eine Runde mit verschiedenen Lehrenden aus Deutschland, die sich regelmäßig zum Austausch treffen. Für die Organisation mit vielen Informationen, die sinnvoll und schnell lesbar zusammengestellt werden müssen, benutze ich es ebenfalls. Ich schreibe alle Informationen nach bestem Wissen auf und frage dann die KI. Sie formuliert es so, dass es keine Dopplungen, keine unnötigen Füllwörter und dergleichen mehr gibt. Das ist sprachlich oft viel präziser, prägnanter und strukturierter und damit eine große Hilfe.
Und es geht auch viel schneller.
Franz Vergöhl: Ja, und es gibt eine gewisse Sicherheit, dass alles sinnvoll formuliert ist. Wenn ich den Text dann einer Kollegin zeige, haben wir eigentlich ein Sechs-Augen-Prinzip.
Wie geht ihr mit den Daten um?
Franz Vergöhl: Ich ändere zum Beispiel immer die Namen. Ansonsten arbeite ich, wenn ich ChatGPT benutze, mit wenig sensiblen Daten. Es gibt keine Forschungsdaten von Studierenden, die zurückverfolgt werden können oder ähnliches.
In eurem neuen Lernangebot auf der HOOU geht es auch um KI-Tools – und zwar um deren Einsatz im Studium. Wie seid ihr darauf gekommen?
Franz Vergöhl: Zum einen waren wir der Meinung, dass Studierende, die sich für den Einsatz von KI-Tools interessieren, mehr brauchen als die Handreichungen der Hochschulen. Die sind nicht wirklich pragmatisch und oft auch von der Sprache und vom Medium her nicht an die Studierenden gerichtet. Das fanden wir schwierig. Auf der anderen Seite ist KI so neu, dass es aus Sicht der Forschung oder der Wissenschaft keinen Wissensvorsprung gibt. Wir sind hier nicht in Themen unterwegs, die Professorinnen und Professoren seit 40 Jahren erforschen und dann den Bachelorstudierenden im ersten Semester ihren Wissensvorsprung präsentieren.
Wir wollten ein Gegengewicht schaffen und die Studierenden fragen, wie sie eigentlich mit KI umgehen, was sie voneinander lernen und wie sie sich gegenseitig unterstützen können? Die Grundidee war also, das studentische Wissen beziehungsweise die studentische Perspektive in den Mittelpunkt zu stellen.
Wie seid ihr dabei vorgegangen?
Sophie Heins: Wir haben viele Interviews mit Studierenden geführt oder mit Leuten gesprochen, die gerade ihr Studium abgeschlossen haben. Wir haben sie zum Beispiel gefragt, wie sich KI auf ihren späteren Beruf auswirkt oder ob sie sich bei der Anwendung von KI-Tools von den Hochschulen unterstützt fühlen. Was sie sich in diesem Zusammenhang wünschen. Daraus haben wir dann das Angebot entwickelt, das sich mit KI an sich beschäftigt, das generative KI erklärt und in KI als Werkzeug einführt, aber auch die Herausforderungen und Risiken von KI im Allgemeinen und im Rahmen der Bildung thematisiert.
Wir gehen auch darauf ein, was wir und KI für inklusive Bildung tun können, denn darum geht es im SDG 4 – hochwertige Bildung – im Rahmen der Sustainable Development Goals (SDGs). Das sind 17 Nachhaltigkeitsziele als politische Ziele der Vereinten Nationen, die weltweit eine nachhaltige Entwicklung auf ökonomischer, sozialer und ökologischer Ebene sicherstellen sollen. Das ist uns wichtig, weil wir an dem SDG-Campus an der HafenCity Universität angesiedelt sind. Darüber hinaus bietet der Kurs Beispiele dafür, wie KI konkret im Studium eingesetzt werden kann – von der Recherche über die Textverarbeitung bis hin zur Konzeptentwicklung – und gibt den Lernenden immer wieder die Möglichkeit, von ihren Erfahrungen in Foren zu berichten und von den Erfahrungen anderer zu profitieren.
Schließlich gibt es noch eine praktische Aufgabe mit der Frage: Wie können innovative Lösungen für Bildungsprobleme auf globaler Ebene dienen und gleichzeitig individuelle Bedürfnisse und soziale Gerechtigkeit im Bildungssystem fördern?
Das klingt spannend. Auch für diese Frage könnte man KI einsetzen – zumindest zum Brainstorming. Was meint ihr dazu: Ist die Hemmschwelle bei Studierenden groß, KI-Tools für studentische Aufgaben zu nutzen?
Franz Vergöhl: Nach meiner Wahrnehmung gibt es eher eine Hemmschwelle bei Studierenden, mit Lehrenden über den Einsatz von KI-Tools zu sprechen. Ich gehe davon aus, dass jeder schon einmal in die Anwendungen hineingeschaut hat. Aber bevor man sie im Studium einsetzt, sollte man sich gut informieren und mit anderen austauschen. Was darf man? Was darf man nicht? Unter welchen Bedingungen darf man? Gibt es Leitfäden und Regeln an der eigenen Hochschule?
Es ist aber auch wichtig, sich bereits im Studium mit KI zu beschäftigen. Denn die Kompetenz, mit KI-Werkzeugen umgehen zu können, wird wahrscheinlich auch im späteren Beruf benötigt. Es macht also keinen Sinn, sich im Studium davor zu drücken. Spätestens auf dem Arbeitsmarkt wird es verlangt.
Wie läuft der Diskurs über KI-Tools derzeit an den Hochschulen?
Franz Vergöhl: Es passiert viel, aber es wird noch nicht alles kommuniziert. Es wird sehr intensiv diskutiert, wie man KI strategisch einbinden kann. Kommt es in die Curricula der Bachelor-Studiengänge? Gibt es so etwas wie ein Studium Generale für KI? Wird es eher einzelne Kurse geben, in denen „Future Skills“ zum Beispiel in Projekten vermittelt werden? Wir sind glücklicherweise über den ersten Punkt hinaus, wo wir nur über Prüfung und Täuschung der Studierenden durch KI diskutiert haben. Das haben die Hochschulleitungen flächendeckend verstanden. Aber was unter der Oberfläche passiert, das kann ich in der Breite nicht sagen.
Ich glaube, was die Hochschulen tun sollten und was sie alle nicht tun, ist: Partizipativ mit ihren Studierenden zu sprechen, also die Studierenden als Ressource wahrzunehmen, um mit ihnen zu diskutieren. Was braucht ihr an welcher Stelle für euer Studium, was wünscht ihr euch für euren späteren Beruf? Das gemeinsam auszuhandeln, das ist etwas, was aus meiner Sicht viel zu wenig passiert. Und da braucht es ein bisschen mehr Tempo.
Sophie Heins: Ich möchte ergänzen, dass auch die Lehrenden mit ins Boot geholt werden müssen. Der Umgang mit KI sollte ein Diskurs sein, der mit allen Beteiligten an der Hochschule stattfindet. Mit unserem Lehrangebot an der HCU gehen wir einen ersten Schritt, um dafür eine Basis zu schaffen.
Sophie Heins und Franz Vergöhl treten beim Science-and-Art-Slam der HOOU auf
Bei ihrem Slam geht es ums Prompten – genauer um ein Prompt Battle, bei dem sie auch auf die Nutzung von KI im Studium eingehen. Das wird richtig spannend!
Bei dem ersten Science-and-Art-Slam der HOOU gibt es aber noch weitere tolle Beiträge – und du kannst live dabei sein. Am 30. Mai laden wir dich kostenlos in die Zentralbibliothek der Bücherhallen Hamburg ein und zeigen dir, wie wir Wissenschaft und Kunst miteinander verbinden. Erfahre in unserem Beitrag, wer alles die Bühne stürmt und was der Abend sonst noch bereithält!
28.03.2024 | Meena Stavesand
KI und Ethik: „Wir müssen bei Innovationen interdisziplinäre Teams bilden“
„Code is law“ ist ein bekanntes Zitat von Lawrence Lessig, einem Tech-Vordenker aus den USA. Entwickler:innen haben durch ihren Code die Macht über Gesetzmäßigkeiten und lassen so auch ihre Wertvorstellungen in die Software einfließen. Das ist ein Grund, warum es eine ethische Betrachtung von Technologie geben muss. Axel Dürkop, Experte der TU Hamburg, erklärt im Interview, warum wir interdisziplinäre Teams brauchen und was aus ethischer Sicht bei dem bekannten KI-Tool ChatGPT schiefgelaufen ist.
Axel, wie bist du privat und beruflich in der letzten Zeit mit technologischen Innovationen in Berührung gekommen?
Axel Dürkop: Privat habe ich mir im letzten Jahr ein Balkonkraftwerk an die Wand geschraubt. Es ist faszinierend, am Stromzähler direkt zu sehen, wie viel Energie die Sonne an meiner Hauswand spendet. Das Thema Erneuerbare Energien habe ich dann auch bei unseren WATTwanderungen mit verschiedenen Veranstaltungen wie einem Workshop, bei dem die Teilnehmenden die Technik hinter einem Balkonkraftwerk verstehen, oder einem Kinoabend am KulturEnergieBunker – realisiert durch Energie, die wir vorher in einer Biogasanlage an den Wilhelmsburger Zinnwerken selbst herstellten und nach Altona gebracht haben.
Ansonsten diskutiere ich in einer Informatik-Veranstaltung mit angehenden Berufsschullehrkräften die Gestaltbarkeit von Künstlicher Intelligenz. Wir setzen uns dabei praktisch mit KI auseinander – aber jenseits von ChatGPT oder Prompting. Mir geht es in der Veranstaltung um die Frage: Wie können wir für KI ethische und gesellschaftlich relevante Implikationen schaffen? Als Beispiel: Wir beschäftigen uns mit einer automatisierten Moderation von Hasskommentaren auf Social Media und diskutieren dabei Klassifikationen von Hatespeech.
Künstliche Intelligenz und Ethik sind zwei wichtige Stichwörter. Aktuell wird diskutiert, wie wir ethisch mit KI umgehen. Wie kann beides miteinander kombiniert werden?
Axel Dürkop: Im Idealfall klären wir ethische Fragestellungen zu einer neuer Technologie wie ChatGPT und Co. vor der Entwicklung. Sie lassen sich aber auch begleitend diskutieren. Wir sollten die Ethik aber nicht nachschalten. Denn: Code is law – also Code ist Gesetz. Das sagte US-Tech-Vordenker Lawrence Lessig Anfang dieses Jahrtausends. Das heißt: Die Wertevorstellungen der Entwickler:innen fließen in die Software. Wer den Code kontrolliert, hat sozusagen die Macht über Gesetzmäßigkeiten. Da braucht es eine ethische Begleitung.
Wie lässt sich das realisieren?
Axel Dürkop: Wir wissen jetzt: Bei ChatGPT hat das Zusammenspiel von Softwareentwicklung und Ethik nicht gut geklappt. OpenAI, das Unternehmen hinter dem Chatbot, hat für die Entwicklung Menschen im Globalen Süden ausgebeutet – das wäre mit einer vorgeschalteten oder begleitenden Ethik-Debatte vielleicht besser gelaufen. Es ist also wichtig, dass wir bei technologischen Innovationen interdisziplinäre Teams bilden, in denen Entwickler:innen und Ethiker:innen zusammenarbeiten.
Wie könnte eine Zusammenarbeit aussehen?
Axel Dürkop: Wenn eine Innovation wie beispielsweise ChatGPT entwickelt wird, sind dann auch Ethiker:innen an diesem Prozess beteiligt. Bei den Diskussionen, wie die Technologie oder die Software aufgebaut wird, wie sie funktionieren und wie das Qualitätsmanagement und auch das Testing aussehen soll – das sind Fragen, die auch einer ethischen Reflexion bedürfen. Dafür gibt es bestimmte Frameworks, die man heranziehen kann. Ich halte das von Sebastian Hallersleben (und weiteren) für besonders sinnvoll und belastbar. Darin gibt es sechs Kriterien, anhand derer wir eine Technologie beurteilen können.
- Transparenz
- Verantwortlichkeit
- Privatsphäre
- Recht
- Sicherheit
- Nachhaltigkeit
Mit diesem Framework zum Beispiel lassen sich die Wertvorstellung einer Technologie diskutieren. Das Interessante daran ist, dass wir je nach Technologie Abstufungen bei den einzelnen Punkten machen können. Bei Technik in der Landwirtschaft ist Privatsphäre nicht so entscheidet wie etwa beim Einsatz in der Medizin, wo es um vertrauensvolle Daten geht. Außerdem ist auch das Thema Nachhaltigkeit aufgegriffen, was wir nicht mehr vernachlässigen dürfen. Heutige Technologie wie etwa ChatGPT benötigt Unmengen an Kühlwasser – das können wir in unserer Bewertung nicht ignorieren. Das Framework bietet daher einen idealen Leitfaden.
Wird deiner Meinung nach aktuell genug über ethische Fragen bei Technologie gesprochen?
Axel Dürkop: Bei ChatGPT haben wir das, wie bereits gesagt, versäumt, vorher darüber zu diskutieren. Aber klar ist auch, dass eine (ethische) Regulierung mit dem technologischen Fortschritt nicht mithalten kann. Da ist Eile mit Weile geboten. Meiner Meinung nach hat der Deutsche Ethikrat eine gute Ausgangsbasis geschaffen. Generell müssen wir dahinkommen, dass wir auch in unseren Studiengängen zu Technik und Ingenieurwissenschaften das Thema Ethik von Anfang an mitdenken. Ethik gehört ins digitale Zeitalter. Darum haben wir an der TU Hamburg mit Prof. Dr. Maximilian Kiener einen Juniorprofessor für Ethik in Technologie. Das Thema gehört in unsere Ausbildungen.
Aber das sollte keine rein akademische Diskussion bleiben. Alle Menschen haben Sorgen und Befindlichkeiten, die wir ernstnehmen müssen. Wir müssen daher den Diskurs auch außerhalb der Hochschulen führen. Die Menschen sollen mitgestalten, ihre Fragen einbringen. Das war ein Grund, warum wir an der TU Hamburg das HOOU-Lernangebot „tekethics“ gestartet haben. Noch vor der Corona-Pandemie haben wir regelmäßige Treffen in den Hamburger Bücherhallen veranstaltet, um mit Bürger:innen über ethische Herausforderungen bei Künstlicher Intelligenz zu diskutieren. Wir möchten dieses Thema auch im nächsten Jahr aufgreifen: Maximilian Kiener wird sich 2024 in einem neuen HOOU-Lernangebot mit ethischem Design von KI beschäftigen. Das wird sehr spannend!
Wer sich für das Thema Ethik und KI interessiert, kann sich die aktuellen Vortragsmaterialien von Axel Dürkop anschauen. Hier gibt es auch weiteres Material von ihm – unter anderem zu dem Thema „Souverän mit KI umgehen“.
28.03.2024 | Meena Stavesand
10 Fakten zur HOOU: Das musst du über das Lernen an der Hamburg Open Online University wissen
Die Hamburger Universitäten und Hochschule stellen für die Hamburg Open University ein breites Wissensangebot zur Verfügung. Die Kurse sind kostenfrei und für alle zugänglich. Wir erzählen dir, was du über die HOOU, digitale Lehre und hybride Veranstaltungen wissen musst.
Digitale Lernangebote sind stark nachgefragt
Die digitale Bildungslandschaft ist in der heutigen, zunehmend digitalisierten Welt unverzichtbar. Die HOOU hat gezeigt, dass es einen großen Bedarf an leicht zugänglichen und qualitativ hochwertigen Online-Lernressourcen gibt.
Die Zugänglichkeit ist entscheidend
Eines der Hauptziele der HOOU war es, Bildung allen zugänglich zu machen. Die Erkenntnis hierbei ist, dass Lernangebote, die für jeden Menschen zugänglich sind, eine breitere Basis von Lernenden erreichen können – und wissen stärkt die Debattenkultur und damit die Gesellschaft.
Inhalte aus verschiedenen Disziplinen sind wichtig
Die HOOU bietet Kurse aus einer Vielzahl von Fachgebieten an. Dadurch wird den Nutzerinnen und Nutzern ein breites und niederschwellig erreichbares Spektrum an Wissen und Fähigkeiten geboten, die über das traditionelle akademische Lernen hinausgehen.
Praxisbezogenes Lernen ist wirkungsvoll
Durch zusätzliche Veranstaltungen im öffentlichen Raum wie die „WATTwanderung“ wird das Lernen relevanter und greifbarer, was die Lernerfahrung verbessert und das Verständnis der Lernenden vertieft.
Hybrides Lernen hat Vorteile
Reines Online-Lernen kann ermüdend sein und erfordert viel Eigenmotivation. Daher hat die HOOU hybride Lernformate eingeführt, die sowohl Online- als auch Präsenzkomponenten kombinieren. Dies bietet den Teilnehmenden Flexibilität und erhöht die Lernmotivation.
Du willst mehr über die HOOU erfahren?
Dann schau rein in das Interview mit unserem Geschäftsführer Prof. Dr. Sönke Knutzen:
Universitäten und Gesellschaft können enger miteinander verknüpft werden
Die HOOU hat erkannt, dass Universitäten und Hochschulen nicht nur für Studierende existieren, sondern dass sie auch einen Wert für die Gesellschaft als Ganzes bieten können. Durch das Anbieten von öffentlich zugänglichen Kursen baut die HOOU Brücken zwischen den Hochschulen und der Gesellschaft.
KI kann Bildung verändern
Die HOOU hat erkannt, dass künstliche Intelligenz (KI) das Potenzial hat, Bildung nachhaltig zu verändern. KI kann verwendet werden, um das Lernen zu personalisieren und neue Lehrmethoden zu erforschen, die das traditionelle Lernen ergänzen.
Forschung und Lehre müssen Hand in Hand gehen
Die HOOU zeigt, dass die besten Lernangebote auf aktueller Forschung basieren. Es ist wichtig, dass Forschung und Lehre eng miteinander verknüpft sind, um effektive und relevante Lerninhalte zu liefern.
Wissenschaftskommunikation ist essenziell
Das Wissen und die Forschung, die an Hochschulen erzeugt werden, sollten nicht auf dem Campus oder auf der Plattform bleiben. Die HOOU hat erkannt, dass Wissenschaftskommunikation entscheidend ist, um dieses Wissen zugänglich zu machen.
Nachhaltigkeit sollte in der Bildung eine Rolle spielen
Themen wie Klimawandel und Energieversorgung sind nicht nur aktuell, sondern auch zukunftsorientiert. Die HOOU hat erkannt, dass Bildungseinrichtungen eine wichtige Rolle bei der Förderung der Nachhaltigkeit und der Aufklärung über diese Themen spielen können.
Transparenzhinweis: Dieser Blogeintrag wurde mithilfe von KI generiert und von der Redaktion verifiziert sowie redigiert. Wir experimentieren mit KI-Tools, um die Arbeit damit zu testen und mehr darüber erfahren sowie herauszufinden, was Tools wie ChatGPT eigentlich mit der HOOU verbinden.
05.03.2024 | Meena Stavesand
KI-Werkstatt für Hochschulen: Darum ist es wichtig, sich mit KI in der Lehre zu beschäftigen
Bei seiner kostenfreien KI-Werkstatt stellt das MMKH die Frage: Überlegst du noch, oder promptest du schon? Im Forum Finkenau dreht sich am 14. März alles um KI-Generatoren und wie sich diese in der Hochschullehre einsetzen lassen.
Die rasante Entwicklung der Künstlichen Intelligenz und speziell der KI-Generatoren wie ChatGPT revolutioniert nicht nur Geschäftsmodelle und gesellschaftliche Prozesse, sondern steht auch an der Schwelle, die Hochschulbildung grundlegend zu transformieren. Diese Technologien bieten ein hohes Potenzial zur Verbesserung der Lehr- und Lernmethoden, zur Personalisierung des Bildungserlebnisses und zur Bereitstellung von Tools, die sowohl Lehrende als auch Lernende in nie dagewesener Weise unterstützen können.
In einer Zeit, in der ChatGPT und ähnliche Technologien unsere Art zu arbeiten, zu lernen und zu lehren revolutionieren, stehen wir vor der Herausforderung, diese Neuerungen konstruktiv unter anderem in die Lehre zu integrieren. Wie können wir Künstliche Intelligenz nutzen, um Unterricht und Lehre zu bereichern, ohne dabei ethische und rechtliche Grenzen zu überschreiten? Genau diese Fragen stehen im Zentrum der KI-Werkstatt des Multimedia Kontor Hamburg und der HOOU@HAW am Donnerstag, 14. März, von 10 bis 14 Uhr.
Neue Möglichkeiten für Lehre und Lernen
Die digitale Transformation durch KI eröffnet neue Horizonte für das Lehren und Lernen an Hochschulen. Sie bietet innovative Ansätze, um die Qualität der Bildung zu steigern, Lernprozesse zu personalisieren und Forschung auf ein neues Niveau zu heben. Um jedoch diese Potenziale voll auszuschöpfen und gleichzeitig Risiken zu minimieren, ist es essentiell, sich eingehend mit den Möglichkeiten, Grenzen und Anforderungen an den Einsatz von KI in der Hochschullehre auseinanderzusetzen.
Expertinnen und Experten erleichtern Zugang zu KI-Technologie
Die KI-Werkstatt zielt darauf ab, einen umfassenden Überblick über die Anwendungsmöglichkeiten von KI-Generatoren in der Lehre zu geben und gleichzeitig einen offenen Dialog über ethische, rechtliche und praktische Aspekte zu fördern. Durch interaktive Thementische und eine inspirierende Keynote bietet das Event eine spannende Gelegenheit, KI-Technologien zu entmystifizieren, praktisches Wissen zu erlangen und mit Kolleginnen und Kollegen aus unterschiedlichen Disziplinen in den Austausch zu treten.
Programm: Das erwartet dich bei der KI-Werkstatt
Nach einer Begrüßung um 10 Uhr (Einlass: ab 9.30 Uhr) folgt die Keynote von PD Dr. Malte Persike. Er ist der wissenschaftliche Leiter des Centers für Lehr- und Lernservice der RWTH Aachen University. Der Experte spricht zu dem Thema: „Lehren oder lehren lassen – Der Einsatz generativer KI in der Hochschullehre“. Ab 10.45 Uhr startet die erste Runde an den verschiedenen Thementischen. Fachleute führen dort in unterschiedliche Anwendungsfelder und Aspekte von KI-Generatoren ein. Die Teilnehmenden können beispielsweise KI-Generatoren selbst ausprobieren und alle Fragen loswerden. Nach einer Mittagspause gibt es noch zwei weitere Runden an den Thementischen.
Das sind die Thementische
- KI in der Lehre und Prüfungen (PD Dr. Malte Persike, RWTH Aachen)
- Rechtlichen Fragen von KI mit Schwerpunkten zu Urheberrecht, Datenschutz sowie Prüfungsrecht (Andrea Schlotfeldt, HAW Hamburg)
- KI-Text- und Bildgeneratoren in der Lehre (Katrin Schröder, MMKH, und Meena Stavesand, HOOU)
- Videoproduktionen mit KI-Generatoren (Jan von Roth, Philippe Schaumburg und Christoph Dobbitsch, alle MMKH)
- KI in der 3D-Entwicklung und Game-Coding (Leonhard Onken-Menke und Sebastian Olariu, beide MMKH)
An wen richtet sich die KI-Werkstatt und wie meldet man sich an?
Die KI-Werkstatt wird vom Multimedia Kontor Hamburg in Zusammenarbeit mit der HAW Hamburg und der HOOU organisiert und durchgeführt. Sie findet in Kooperation mit dem Netzwerk Landeseinrichtungen für digitale Hochschule (NeL) und unter Förderung der Stiftung Innovation in der Hochschullehre statt.
Das Event ist kostenfrei und für Hochschullehrende, Mitarbeitende aus Service- und Supporteinrichtungen sowie für alle Interessierten aus dem Hochschulbereich konzipiert, die die Zukunft der Bildung aktiv mitgestalten möchten. Die Plätze sind begrenzt. Eine Anmeldung ist hier bis zum 11. März möglich.
23.01.2024 | hoouadmin
Virtueller Studienführer? HAW Hamburg arbeitet an spannendem Chatbot
Können Chatbots im Studium helfen? Das erarbeiten aktuell die Projektverantwortlichen des Lernangebots ChAdmin der HAW Hamburg.
Chatbots begegnen uns schon seit vielen Jahren in unserem digitalen Alltag. Agierten sie anfangs noch als interaktive FAQ, lernen sie durch künstliche Intelligenz auch mehr und mehr auf komplexere Fragen Antworten zu finden. Ihnen allen ist gemein, dass nicht Mensch mit Mensch, sondern Mensch mit Computer interagiert. Aber wie werden Chatbots konzipiert und was ist die Technologie dahinter?
Wie funktioniert das Projekt ChAdmin?
Über projektorientiertes Lernen soll in dem Lernangebot ChAdmin der HAW Hamburg an die Funktionsweise von Chatbots herangeführt werden. Dabei geht es auf technischer Seite um die KI-basierte Technologie. Durch den niedrigschwelligen Zugang werden keine Vorkenntnisse benötigt.
Mit der konkreten Aufgabe, einen virtuellen Studienbegleiter zu erstellen, müssen die Themenfelder, zu denen der Chatbot auskunftsfähig sein soll, identifiziert und abgegrenzt werden. Darüber hinaus werden die rechtlichen, psychologischen, wirtschaftlichen, ethischen und weiteren wissenschaftliche Perspektiven auf den Einsatz von Chatbots vermittelt.
Einsatzmöglichkeiten für Chatbots identifizieren
Das Ziel des Projektes ist, dass die Nutzer:innen in der Praxis Einsatzmöglichkeiten für Chatbots identifizieren und etwaige Nebenwirkungen rechtzeitig bedenken können. Das Projekt hat die Vision, mit den konstruierten Chatbots und der großen Anzahl an Fragen und Antworten im Crowd-Ergebnis einen tatsächlich nutzbaren Studienbegleiter für die HAW Hamburg zu erstellen. Dadurch soll unter anderem auch ein Entlastungspotential für die Hochschulverwaltung ermöglicht werden.
Für Studierende im Erstsemester, aber auch im höheren Semester
Durch den niedrigschwelligen Einstieg in dieses komplexe Thema umfasst die Zielgruppe alle Studierenden der HAW Hamburg und Interessierte darüber hinaus. Das Lehrangebot wäre sowohl für Erstsemester als auch für höhere Semester einsetzbar. Es ist möglich, dieses im Studium einzusetzen, als auch im Selbststudium durchzuarbeiten. Die Projektverantwortlichen arbeiten aktuell an der Umsetzung des Lernangebots.
Text: Dorothee Wagner/HAW Hamburg
07.12.2023 | hoouadmin
So lässt sich ChatGPT spielerisch in den Unterricht integrieren
"Geschichte schreiben mit ChatGPT" - der Name des Lernangebots der HAW Hamburg ist Programm. Denn mit dieser kostenlosen Schritt-für-Schritt-Anleitung können Schüler:innen ihre eigenen Storys mithilfe von generativer KI entwickeln.
Veranstaltet von der Joachim Herz Stiftung fand am 27. und 28. November in Hamburg die Konferenz „Adaptives Lernen und KI in der schulischen und beruflichen Bildung: Potenziale und Herausforderungen technologiegestützten Lehrens und Lernens“ statt. Im Mittelpunkt standen die tiefgreifenden Veränderungen, die Künstliche Intelligenz in Lehr- und Lernprozessen auslösen kann und mit Sicherheit auch auslösen wird. Bei der Veranstaltung in der Langenhorner Chaussee drehten sich viele Fragen um intelligente tutorielle Systeme, die einerseits eine Arbeitserleichterung für didaktisch Tätige darstellen, andererseits die Diversität von Lerngruppen und deren individuelle Unterstützung fördern können.
HOOU-Projekt „Geschichte schreiben mit Chat GPT“ vorgestellt
Vor allem generative Chatbots und Co. bieten derzeit neue Ansätze im Bereich des adaptiven Lernens. So stellte Dr. Nicole Hagen von der HAW Hamburg im Rahmen der HOOU das Projekt „Geschichte schreiben mit ChatGPT“ eine Open-Source-Anleitung für Schulen vor, das sich vornehmlich an Schüler:innen und Lehrende richtet, die das Thema KI auf spielerische Weise in ihren Unterricht integrieren möchten.
Eine Schritt-für-Schritt-Anleitung erklärt hierbei, wie Schüler:innen mit Hilfe eines generativen Sprachmodells eine eigene Geschichte entwickeln können – mit oder ohne initiale Idee für eine Story. Dazu bieten die bereitgestellten Materialien zusätzliche Hilfestellungen zur Anregung der eigenen Fantasie und viele Inspirationsquellen. Der Leitfaden versteht sich als Orientierungshilfe. Darüber hinaus sind freies und kreatives Ausprobieren sowie der Einstieg in den Diskurs über Risiken und Potenziale von KI erwünscht.
Hohes Interesse an offenem Angebot: Projekt wird weiterentwickelt
Die Entwickler:innen des Angebots befinden sich aktuell in einer intensiven Testphase, um zu prüfen, was funktioniert und wo es mit den Large-Language-Modellen zurzeit eventuell noch hakt. Sie sammeln das Feedback der Teilnehmenden, um es in das Endprodukt einfließen zu lassen. Bisher erprobte Formate waren zum Beispiel die rein digitale Nutzung ohne Begleitung durch eine Lehrkraft über die Plattform Lehre:Digital zum deutschlandweiten Digitaltag. Im analogen Austausch mit einem vielfältigen Publikum zu den Festivitäten rund um den Tag der deutschen Einheit hat sich gezeigt, dass vor allem sehr junge und ältere Interessierte von einem solchen offenen Angebot profitieren. Auch die Durchführung als ChatGPT-Workshop für ganze Klassen auf dem Digital@School Campus 2023 der Telekomstiftung in Bonn erwies sich als zielführend.
Der Austausch mit dem interessierten Fachpublikum auf der Veranstaltung der Joachim Herz Stiftung brachte weitere Impulse und potenzielle Kooperationspartner. Nach diesem vielfältigen Input stehen die nächsten Planungsschritte in den Startlöchern.
Probiere das Angebot selbst aus: Der Chatbot ChatGPT kann ohne Registrierung direkt auf der Seite getestet werden!
Text: Dr. Nicole Hagen/HAW Hamburg
27.10.2023 | hoouadmin
Nutze diesen Tag und erzähle eine Geschichte – mit ChatGPT und unserem Lernangebot
Heute – am 27. Oktober – wird vor allem in Großbritannien der Erzähl-eine-Geschichte-Tag gefeiert. Und welche Jahreszeit wäre besser geeignet, um sich mit den Themen Geschichten, Märchen und Fantasiewelten zu beschäftigen, als der Herbst?
Mündliche Überlieferungen sind die älteste Form der Unterhaltung. Unterhaltung im Sinne der Kommunikation und der Aufrechterhaltung eines gesellschaftlichen Gedächtnisses auf der einen Seite, jedoch auch im Sinne von Zeitvertreib auf der anderen Seite. Uralte Götter- und Heldensagen, Zaubermärchen und Legenden bereichern bis heute unseren Alltag und unsere Sprache. Thor, der Donnergott, hat es nicht nur geschafft, dass wir jeden vierten Tag der Woche seines Namens gedenken. Seit einigen Jahren besetzt er zusätzlich in regelmäßigen Abständen unsere Kinoleinwände. Der gute Mann hält sich seit 1500 Jahren in unserem Gedächtnis!
Nach der Keilschrift kommen Feder und Tinte – und heute tippen wir
Vor etwa 5000 Jahren beginnt die Geschichte der Schrift. Dies war der Startschuss für die Bewahrung von Göttergeschichten und noch viel älteren mündlichen Überlieferungen. Seitdem ist viel passiert: Aus geritzter eckiger Keilschrift wurden im Laufe der Zeit mit Feder und Tinte geschwungene Buchstaben. Heute tippen wir auf der Tastatur und automatische Transkriptionssoftware lässt gesprochenes Wort auf unsere Bildschirme schreiben. Auch die Entstehung von Geschichten, Anekdoten, Handlungen und Co. ist heute eine andere. Nicht umsonst streiken die Autor:innen und Schauspieler:innen in Hollywood wegen veränderten Arbeitsbedingungen.
Geschichten zu entwickeln und zu erzählen, ist ununterbrochen ein wesentlicher Baustein der Menschheitsgeschichte. In diesem Kontext möchten wir ein Angebot der HOOU vorstellen.
Aktuell schreibt Künstliche Intelligenz (KI) selbst Geschichte. In sämtlichen Medien ist KI eines der Top-Themen. Aus diesem Grund entwickelt die HAW Hamburg ein neues Angebot für die HOOU-Lernplattform. Es richtet sich an Schüler:innen und Lehrende, die das Thema KI auf spielerische Weise in ihren Unterricht integrieren möchten.
Schritt-für-Schritt-Anleitung für ChatGPT
Mit dem Lernangebot können Schüler:innen ihre ganz eigene Geschichte entwickeln. Eine Schritt-für-Schritt-Anleitung erklärt, wie dies – mit und ohne initiale Idee für eine Story – in Zusammenarbeit mit dem KI-Sprach-Tool ChatGPT funktioniert. Dafür existieren zusätzliche Hilfestellungen zur Anregung der eigenen Fantasie und viele Inspirationsquellen. Die Anleitung soll ein Leitfaden zur Orientierung sein. Gewünscht ist zudem ein freies und kreatives Ausprobieren, ein Austesten dessen, was geht und wo es aktuell mit dem Large-Language-Modell ChatGPT eventuell noch hapert.
Um das Angebot ganz ohne Sicherheitsbedenken ausprobieren zu können, ist der Chatbot für die nächste Zeit sogar direkt auf der Seite testbar. Ganz ohne Anmeldung und somit ohne Kontaktdaten hinterlassen zu müssen.
Testrunden zum wachsenden Lernangebot
Hierfür möchten die Entwickler:innen des HOOU-Angebotes möglichst viel Feedback von Teilnehmenden sammeln und dieses in das endgültige Produkt einfließen lassen. Erste Testrunden fanden im Juni am deutschlandweiten Digitaltag sowie zum Bürgerfest am 2. und 3. Oktober in Hamburg statt. Bei den Feierlichkeiten zum Tag der deutschen Einheit flanierten rund 700.000 Interessierte rund um die Binnenalster und informierten sich zum Motto „Horizonte öffnen“. Horizonte zu öffnen, beinhaltet für die HOOU nicht nur Bildung für alle zu öffnen, sondern diese auch für jeden Menschen zugänglich zu machen.
HOOU präsentiert sich auf dem Bürgerfest
Aus diesem Grund war die Hamburg Open Online University mit einem Stand beim Bürgerfest mit dabei. Die HOOU stellte sich vor und zeigte, was es auf der Lernplattform alles zu erleben gibt. Neben dem Angebot der HAW Hamburg zu „Geschichten schreiben mit ChatGPT“ konnten mit der HfMT ungewöhnliche Instrumente wie das Đàn bầu ausprobiert und sich darüber informiert werden, wie Inklusion in der Musikpädagogik stattfinden kann. Mit der TUHH wurde Mechanik hautnah erlebbar und auch ein kniffeliges Müll-Sortier-Spiel im Rahmen der WATTwanderungen stieß auf großes Interesse.
Fantastische Geschichten vom Bürgerfest
Mit unserem Angebot „Geschichten schreiben mit ChatGPT“ erlebten wir am Bürgerfest magische Welten und abenteuerlustige Helden. Wir lernten zum Beispiel lyrisch veranlagte Androiden kennen, die unsere Welt mit magischen Gedichten retteten. Fantastisch wurde es hingegen mit einem Telefon, das mit Tieren sprechen konnte. Mit den Sonnensuchern, einer Gruppe von Jugendlichen, befreiten wir unser Zentralgestirn vor einem bösen Zauber und mit magischen Stiften und Wünsche erfüllenden Würfeln gingen wir auf Streifzug.
Wir wurden von einem KI-Programm (wie passend!) bedroht, welches Gedanken und Gefühle der Menschen manipulierte und waren mit einer außerirdischen Zivilisation namens Corona konfrontiert, die uns einen gewaltigen Sonnensturm auf die Erde jagte und flogen unbeschadet zum Planeten Xylon-7. Eine durch die Zeit wandernde Frau hatte jedoch weniger Glück: Ihre Zeitreisebrille ließ sie immer älter werden. Aber auch den Menschen, die ihre Körper in holografische Projektionen hochluden, erging es nicht viel besser: Sie wurden Opfer eines Hackerangriffs.
Dennoch: Schlussendlich, nach all diesen abwechslungsreichen Abenteuern, freuten wir uns immer über ein glückliches Happy End, die Rettung der Welt und das Fortbestehen der Menschheit.
Unser Lernangebot vor Live-Publikum in Bonn
Anfang November findet eine dritte Testrunde zum Lernangebot „Geschichten schreiben mit ChatGPT“ mit Live-Publikum statt. Am 8. und 9. November wird die HAW Hamburg in Bonn beim DIGITAL@School Campus 2023 – Digitale Welten zum Anfassen mit vertreten sein. Das Ziel ist es, das Angebot zusammen mit Schüler:innen weiter auszutesten, zu verbessern und anzupassen.
Text: Dr. Nicole Hagen
21.09.2023 | Meena Stavesand
Campus Innovation: HOOU-Projekte wollen sich weiterentwickeln – und du kannst dabei helfen
Wolltest du schon immer mal bei der Weiterentwicklung eines Podcasts mitwirken? Dann komm‘ zum Barcamp der Campus Innovation am 29. September im Hamburger Forum Finkenau. Dort gibt’s auch mehr über KI und weitere spannende Ansätze.
Seit 2003 bringt der Multimedia Kontor Hamburg die klügsten Köpfe zusammen, um die Zukunft unserer Hochschulen zu formen. Spannende Persönlichkeiten aus Bildung, Politik und Wirtschaft diskutieren vom 27. bis 29. September wieder in Hamburg über die diesjährigen Fokusthemen KI, Nachhaltigkeit und OER an Hochschulen.
Auch die Hamburg Open Online University ist mit ihren Verantwortlichen und spannenden Themen vor Ort. Die ersten beiden Eventtage inspirieren die Teilnehmenden vor allem mit Vorträgen und Workshops im Lichthof der Staats- und Universitätsbibliothek Hamburg, während der 29. September mit einem für alle kostenfreien Barcamp im Forum Finkenau der HAW Hamburg aufwartet, das von der Spontaneität der Besucher:innen lebt. Es gibt aber auch schon feste Slots mit innovativen Themen.
Mittendrin statt nur dabei: Die HOOU beim Barcamp der Campus Innovation
Das sind die drei bereits geplanten Sessions beim Barcamp mit HOOU-Beteiligung:
- Podcast Reloaded: Ideenwerkstatt für Hamburg hOERt ein HOOU!
Ellen Pflaum und Jakob Kopczynski von der HAW Hamburg freuen sich über Ideen und Vorschläge zu Themen, Formaten und Gästen für den Podcast „Hamburg HOERt ein HOOU“.
- „KI-GeneratOER“
KI-basierte Text- und Bildgeneratoren sind für viele zum alltäglichen Arbeitswerkzeug geworden. Was bedeutet das in rechtlicher Hinsicht für die Entwicklung von Open Educational Resources (also offen lizenzierten Bildungsmaterialien, kurz OER)? Dazu spricht Andrea Schlotfeldt, Juristische Beratung HOOU@HAW.
- Barcamp-Workshop Data Analytics/Open (Citizen) Science
Das Forum Hochschule BNE (HH Masterplan BNE 2030) und die Innovations Kontakt Stelle (IKS) Hamburg geben den Workshop „Data Analytics in der Hochschullehre und Forschung im Kontext von Open (Citizen) Science“. Von der HOOU@TUHH ist Axel Dürkop mit dabei, der über „Data Acting, Dancing Algorithms und kollaboratives Storytelling: spielerische Ansätze für die Auseinandersetzung mit Daten, Tools und Workflows“ spricht. Dieser Workshop hat einen festen Slot am 29. September von 10.50 bis 12.20 Uhr.
Probiere beim Barcamp die Welt von Virtual Reality aus!
Goran Lazarevic von der HfMT und Sebastian Olariu vom MMKH werden beim Barcamp ein ganz besonderes Erlebnis präsentieren – die VR-Orgel. Alle, die Lust haben, einmal Virtual Reality auszutesten, haben hier die Möglichkeit. Angelehnt ist die Präsentation an unser Lernangebot „VR-Orgel“, bei dem man seine eigene Orgel in zwei verschiedenen Räumen – in einem klassischen Kirchenraum und in einem modern aussehenden Konzertsaal – bauen kann. Klicke hier, um zu dem Lernangebot zu kommen.
Melde dich direkt an!
Ihr wollt mehr über die diesjährige Campus Innovation und das Barcamp erfahren? Dann schaut auf der Webseite vorbei. Dort gibt es alle Informationen – und ihr habt natürlich noch die Möglichkeit, euch anzumelden! Die Teilnahme am Barcamp ist kostenlos.