Ein KI generiertes Bild von einem weiblichen Kopf an dem eine Waage hängt, surrealistisch

Bild: Midjourney

24.07.2024 | Meena Stavesand

Generative KI: Das musst du über Urheberrecht, Datenschutz und Transparenz wissen

ChatGPT, Co-Pilot, Midjourney, Dalle-E oder auch DeepL - das alles sind KI-Generatoren für Texte und Bilder, die künstliche Intelligenz in die Gesellschaft gebracht haben. Jeder kann sich an generativer KI versuchen, Texte, Bilder und Videos erstellen und veröffentlichen. Aber wie sieht es mit Urheberrecht und Datenschutz aus? Was darf wie genutzt werden? Wann muss man KI-generierte Inhalte kennzeichnen? Und welche Verantwortung trägt man bei der Arbeit mit KI-Generatoren? Diese Fragen haben wir der Juristin Andrea Schlotfeldt von der HAW Hamburg gestellt. Herausgekommen ist ein spannendes Interview, in dem es auch um den neuen AI Act der EU geht.

Thema Urheberrecht. Inwieweit kann es bei Erstellung und Nutzung von KI-Inhalten zu Urheberrechtsverletzungen kommen?

Andrea Schlotfeldt: Die Wahrscheinlichkeit, hierbei fremde Urheberrechte zu verletzen, ist an sich gering. Es verbleibt aber ein Restrisiko. Hierfür ist die Art des gewählten Prompts relevant und, ob ich den KI-Output noch weiterbearbeite und falls ja, in welchem Umfang. Lasse ich einen noch geschützten fremden Text übersetzen und veröffentliche ich diese Übersetzung, kann darin eine Urheberrechtsverletzung liegen. Ebenfalls wenn ich ein fremdes Bild hochlade, durch die KI geringfügig verändere und dann neu veröffentliche.

Eine Urheberrechtsverletzung kann allerdings auch zufällig bzw. unbewusst vorkommen, auch je nach zugrunde liegendem Trainingsmaterial. Sofern KI-Output mit bestehenden fremden Werken identisch ist oder diesen stark ähnelt, ohne dass ich durch meinen Prompt darauf hingewirkt habe, könnte es theoretisch also auch zu Urheberrechtsverletzungen kommen.

Wie kann ich sicherstellen, dass ich bei der Nutzung von KI-Inhalten keine Urheberrechte verletze?

Andrea Schlotfeldt: Eine pauschale Sicherstellung ist nicht möglich, aber man kann z. B. durch eine Rückwärtssuche u. a. bei Google prüfen, ob man ähnliche Ergebnisse bekommt – wenn ja, ist man eventuell im Bereich der Urheberrechtsverletzung und sollte auf die Nutzung verzichten. Aber das lässt sich nicht generell sagen, sondern man muss es im Einzelfall prüfen. Grundsätzlich ist die Rückwärtssuche ein Instrument, mit dem man zumindest eine erste Information bekommt.

Auch sollte man davon absehen, KI-generierte Übersetzungen noch geschützter Texte ohne Zustimmung der Rechteinhaber:innen zu veröffentlichen. Letztlich kommt es darauf an, wie der Prompt ausgestaltet ist. Wenn man ganz gezielt nach bestimmten Texten oder Studienauszügen fragt, dann kann es vorkommen, dass zumindest in Teilen auch 1:1-Inhalte generiert werden. Von deren Weiterverwendung sollte ich dann absehen.

Gibt es Grenzen?

Andrea Schlotfeldt: Ja, man muss immer unterscheiden, in welchem Kontext man den Content verwendet. Wenn man ihn im Rahmen einer studentischen Arbeit oder auch als lehrende Person in Folien verwendet, dann kann das unter die Schranke des § 60a Urheberrechtsgesetz fallen, der zu Studien- oder Lehrzwecken bestimmte Nutzungen erlaubt, wenn die Inhalte in einem geschlossenen Benutzerkreis bleiben und nicht öffentlich auf einer Website zugänglich gemacht werden. Allerdings besteht hier die Anforderung, dass die Quellen angegeben werden müssen. Man muss also wissen, woher die Texte oder Bilder stammen – was bei KI-Output oft schwierig bis unmöglich sein kann. Und genau der eingeschränkte Kreis der Teilnehmerinnen und Teilnehmer an einer Veranstaltung ist wichtig.

Information image

Was ist der AI Act?<br>Der Artificial Intelligence Act (AIA) ist ein von der EU-Kommission im Rahmen der EU-Digitalstrategie veröffentlichtes Gesetz zur Regulierung von Künstlicher Intelligenz (KI) in Forschung und Wirtschaft. Er legt fest, welche Anbieter:innen und Nutzer:innen von KI-Systemen in der EU den neuen Regularien unterliegen. Dies betrifft sowohl in der EU ansässige als auch außerhalb der EU befindliche Akteur:innen, deren KI-Systeme in der EU genutzt werden. Der AI Act definiert KI weit: KI umfasst demnach Systeme, die maschinelles Lernen, logik- und wissensbasierte Konzepte oder statistische Ansätze nutzen. <br><br>KI-Anwendungen werden nach ihrem potenziellen Risiko in vier Kategorien eingeteilt: unannehmbares Risiko, hohes Risiko, geringes Risiko und minimales Risiko. Systeme mit unannehmbarem Risiko sind verboten, Hochrisiko-Systeme unterliegen strengen Anforderungen wie Risikomanagement und Daten-Governance, also Datenrichtlinien für die Erfassung, Speicherung, Verarbeitung und Vernichtung von Daten. Systeme mit geringem Risiko müssen minimale Transparenzpflichten erfüllen, während Anwendungen mit minimalem Risiko keine besonderen Anforderungen haben.<br><br>Der AI Act zeigt die EU-Bemühungen, Missbrauchspotenziale wie Beeinflussung und Überwachung durch KI zu minimieren. Unternehmen sollten sich frühzeitig mit den Regulierungen auseinandersetzen und ihre Entwicklungen entsprechend anpassen.

Es gibt auch die Gemeinfreiheit bei Werken. Was ist das genau?

Andrea Schlotfeldt: Zum einen sind Werke gemeinfrei, wenn der Urheberrechtsschutz abgelaufen ist, also 70 Jahre nach dem Tod des Urhebers oder der Urheberin. Oder Werke sind gemeinfrei, wenn sie gar nicht geschützt waren, weil es sich zum Beispiel um eine sehr einfache Gestaltung handelt, die keine Schöpfungshöhe, also keine besondere Originalität, aufweist, oder wenn es sich z. B. um Gesetzestexte handelt.

Wie kann ich sicherstellen, dass meine KI-generierten Inhalte nicht kopiert werden?

Andrea Schlotfeldt: Sicherstellen lässt sich dies nicht. Hier ist die Situation dieselbe wie bei herkömmlichen urheberrechtlich geschützten Texten oder Bildern, die ich veröffentliche. Sofern kein technischer Kopierschutz gegeben ist, können Inhalte rein faktisch übernommen werden. Wer bei mir „klauen“ möchte, den oder die kann ich nicht daran hindern.

Der Unterschied zu diesen von Menschen verfassten Inhalten ist, dass bei KI-Output in der Regel ja kein Urheberrechtsschutz anzunehmen ist, so dass die Weiternutzung zumeist tatsächlich zulässig ist (Stichwort „digitales Freiwild“). Derzeit wird unter Jurist:innen diskutiert, ob KI-Output künftig über ein sogenanntes Leistungsschutzrecht geschützt werden sollte, wie dies beispielsweise in Großbritannien in bestimmten Konstellationen der Fall ist. Ob eine solche Gesetzesänderung kommt, ist aber noch unsicher. Das Gesetzgebungsverfahren würde zudem sicher eine gewisse Zeit brauchen.

Gibt es Fälle, in denen mein KI-Output gleichwohl urheberrechtlich geschützt ist?

Andrea Schlotfeldt: Wenn Inhalte von mir wie Bilder oder Texte von einer KI nur geringfügig bearbeitet bzw. verändert wurden, aber im Wesentlichen immer noch meine Arbeit, mein Werk, sind, dann unterliegen sie weiterhin meinem Urheberrecht. So interpretiere ich die aktuelle Rechtslage. Wenn ich aber mittels KI ein Bild erstellen lasse, für das ich vorgebe, dass eine Lehr- bzw. Unterrichtssituation zu sehen sein soll, klassisch – ein Raum, Tische, Stühle, Monitore, Whiteboard und Studierende – und die KI generiert mir das, dann ist das nicht mein eigenes Werk. Wenn ich dieses Bild so – auch unbearbeitet – auf meine Website stelle, dann können es theoretisch auch andere nutzen. Es unterliegt dann keinem Urheberrecht. Das ist die Besonderheit – im Vergleich zu herkömmlichen Fotos oder Texten, auch wenn es mein Prompt ist, auf dem der Output ja letztlich basiert.

Gibt es eine Verpflichtung zur Transparenz, wenn ich Inhalte mit einer KI generiere?

Andrea Schlotfeldt: Hier kommt es auf die geplante Nutzung an: Eine generelle Pflicht zur Transparenz besteht aktuell noch nicht. Allerdings können sich auch jetzt schon Kennzeichnungspflichten aus Prüfungsvorgaben ergeben, etwa im Kontext der in der Regel geforderten Hilfsmittelangabe. Hierfür sind Art, Umfang und Zweck der KI-Nutzung ausschlaggebend. Die Umsetzung dieser Pflichten kann komplex ausfallen, zumal wenn die verwendeten Prompts mit aufzuführen sind.

Auch darf ich mich nicht als Urheber:in KI-generierter Texte ausweisen, wenn diese ausschließlich von einem KI-Tool erzeugt wurden. Die Grenzen sind allerdings fließend, und Rechtsprechung hierzu steht aus (Wieviel Anteil eines Textes darf beispielsweise KI-erzeugt sein, damit dieser noch als eigener Text gilt? Dies ist auch relevant bei Übersetzungen mit Diensten wie DeepL.). Bei Presseerzeugnissen können journalistische Sorgfaltspflichten ebenfalls eine Pflicht zur Kennzeichnung mit sich bringen.

Wichtig ist auch: Die EU hat im Mai 2024 den sogenannten AI Act verabschiedet – ein Gesetz für den Umgang mit KI. Darin ist auch eine Vorschrift enthalten, die eine Transparenzpflicht vorsieht. Sie soll voraussichtlich ab August 2025 gelten. Die genauen Vorgaben sind derzeit noch unkonkret. Hier werden juristische Kommentierungen oder ggf. Konkretisierungen durch das AI Office eine wertvolle Hilfe sein, Aktuell wird an diesen gearbeitet.

Eine Frage, die sich daran anschließt, ist die nach der Kontrolle. Wie kann man kontrollieren, ob ein Content KI-erzeugt ist?

Andrea Schlotfeldt: Kontrolle ist schwierig. Es gibt u. a. die Möglichkeit, Wasserzeichen einzusetzen, um KI-Output als solchen zu kennzeichnen, aber wie dauerhaft sind diese? Kann man sie einfach „herausschneiden“? Hier ist die Forschung gefragt und auch dabei (u. a. an der HAW Hamburg), gute Lösungen zu entwickeln, damit solche Markierungen nicht einfach entfernt werden können.

Information image

Was sind Deepfakes?<br>Deepfakes sind Medieninhalte, bei denen künstliche Intelligenz verwendet wird, um realistisch aussehende Fälschungen zu erstellen. Diese Fälschungen können Videos, Audios oder Bilder umfassen, bei denen das Gesicht oder die Stimme einer Person manipuliert oder komplett ersetzt wird, um den Eindruck zu erwecken, dass diese Person etwas gesagt oder getan hat, was in Wirklichkeit nicht der Fall ist. Der Begriff „Deepfake“ setzt sich aus „Deep Learning“ und „Fake“ zusammen und weist darauf hin, dass tiefe neuronale Netze, eine Technologie des maschinellen Lernens, verwendet werden, um diese Fälschungen zu erzeugen.

Thema Verantwortung und Haftung. Bin ich für meine Inhalte verantwortlich? Und kann ich die Verantwortung abgeben?

Andrea Schlotfeldt: Man kann die Verantwortung in der Regel nicht abgeben. Wenn man die Tools nutzt und damit Inhalte erstellt, dann sind die Nutzungsbedingungen dieser Programme in der Regel so ausgestaltet, dass der Nutzer oder die Nutzerin selbst verantwortlich ist. Anders kann die Situation zu beurteilen sein, wenn bei einer Prüfung der Einsatz eines KI-Tools verpflichtend vorgesehen ist und „unwissentlich“ eine Urheberrechtsverletzung entsteht, die zudem der Öffentlichkeit zugänglich wird, etwa im Zuge der Präsentation von Abschlussarbeiten. Hier hängt die Beurteilung sehr vom Einzelfall ab.

Viele Nutzende treibt der Datenschutz um. Bei ChatGPT gibt es die Möglichkeit, die eigenen Daten dahingehend zu schützen, dass die Prompts und Ergebnisse nicht weiterverwendet werden. Ist das wirklich möglich?

Andrea Schlotfeldt: Ob diese Einstellungen ein Garant für den Schutz sind, dazu sind mir keine Erhebungen oder Studien bekannt. Viele Expert:innen sprechen bei KI-Tools von einer Black Box. Was passiert da eigentlich? Wird  eingehalten, dass meine Daten oder Werke nicht für das KI-Training verwendet werden? Das lässt sich derzeit nicht mit Sicherheit sagen. Wer seine Daten schützen will, sollte z. B. bei ChatGPT auf die History verzichten – und das kann wiederum problematisch sein. Diese Art der Dokumentation wird bei Prüfungen, bei denen KI-Generatoren erlaubt oder sogar vorgesehen sind, in der Regel vorausgesetzt, siehe oben, Stichwort Kennzeichnungspflichten. Das ist auch ein Problem, für das wir praxistaugliche Lösungen brauchen.

Hast du generell einen Tipp, wie man mit seinen Daten umgehen sollte?

Andrea Schlotfeldt: Möchte ich datensparsam vorgehen, sollte ich schon bei den eigenen Eingaben darauf achten, keine persönlichen Daten einzugeben und mir genau überlegen, wie viele Informationen ich preisgeben möchte. Wenn ich zum Beispiel meinen Lebenslauf von einer KI verbessern lasse, muss ich mich bewusst entscheiden, welche Daten ich der KI gebe.

Wenn ich im Personalwesen oder in der Forschung mit KI arbeite und zum Beispiel personenbezogene Daten zusammenfassen lasse, dann muss ich eine Rechtsgrundlage bzw. eine Einwilligung der Personen haben – und die muss freiwillig sein. Das heißt, die Person, die ich um Einwilligung bitte, muss verstehen, was genau mit den Daten passiert, und sie muss die Entscheidung tatsächlich als freiwillig empfinden. Es ist wichtig, dass wir diese Datensensibilität auf beiden Seiten entwickeln.

Was meinst du damit?

Andrea Schlotfeldt: Es geht zum einen darum, dass die Nutzerinnen und Nutzer von KI wissen, dass sie nicht einfach persönliche Daten anderer in das KI-Tool kopieren können, um zum Beispiel etwas zusammenzufassen oder sich die Arbeit anderweitig zu erleichtern. Gerade im Arbeitskontext, auch an Hochschulen, wird für Datenverarbeitungen immer eine Rechtsgrundlage benötigt. Zum anderen müssen auch die sogenannten „Betroffenen“, also die Menschen, deren Daten oder Informationen genutzt werden, verstehen, was konkret mit ihren Daten passiert und worauf sie bei einer Einwilligung achten müssen.

Das Thema KI wird uns rechtlich in den nächsten Jahren noch intensiv beschäftigen. Es geht um unsere eigenen Daten, um Urheberrechte und Transparenz, aber auch um die Verletzung von Persönlichkeitsrechten, zum Beispiel durch Deep Fakes.

Andrea Schlotfeldt: Ja, die sogenannten Deepfakes sind eine der großen Herausforderungen, denen wir begegnen. Je mehr technisch möglich ist und je mehr Menschen auch mit den Tools umgehen können, desto gravierender können die Auswirkungen auf die Gesellschaft und einzelne Betroffene sein. Der Bereich der pornografischen (Fake-)Darstellungen ist bereits jetzt ein riesiges Problem.

Auch die Politik und der Journalismus haben mit Deepfakes zu kämpfen – das kann  Wahlen oder andere politische Entscheidungen beeinflussen, wenn Falschinformationen über KI-erzeugte Videos oder Bilder verbreitet werden. Ein weiteres Problem können sogenannten Softfakes sein, also Bilder, Videos oder Audioclips, die manipuliert werden, um politische Kandidat:innen attraktiver oder vorteilhafter wirken zu lassen. Auch im Bereich wissenschaftlicher Forschung können negative Auswirkungen, die auf Falschinformationen basieren, nicht ausgeschlossen werden.

Was kann hier helfen?

Andrea Schlotfeldt: Wir müssen eine deutlich höhere Sensibilität für solche falschen Inhalte entwickeln. Das geht nur durch (Weiter-)Bildung – und betrifft alle Altersstufen. Die Menschen müssen vielfältige Kompetenzen in diesem Bereich erwerben. Am besten fängt man damit schon bei Kindern an.
Viele Institutionen und Einrichtungen bieten bereits geeignete Materialien und Tools wie Fakefinder an. Auch von der HOOU an der HAW Hamburg gibt es ein passendes Lernangebot, adressiert an Lehrkräfte, die ihren Schülerinnen und Schülern wichtige Kompetenzen beim Umgang mit Informationen aus dem Netz vermitteln möchten, also auch Deepfakes. Diese Angebote sollten wir nutzen.

Über Andrea Schlotfeldt:

Andrea Schlotfeldt. Bild: Lars Brücher

Andrea Schlotfeldt ist wissenschaftliche Mitarbeiterin Juristische Beratung für Projekte der Hamburg Open Online University an der HAW Hamburg. In dieser Rolle berät sie OER-Produzierende in rechtlicher Hinsicht bei der Konzeption und Veröffentlichung ihrer offenen Bildungsmaterialien. Darüber hinaus ist sie mit Fragen des Urheberrechts, des Datenschutzes und KI in der digitalen Lehre befasst. Sie ist zudem seit 2008 selbständige Rechtsanwältin, Dozentin und Referentin mit Schwerpunkt Urheber-/Vertragsrecht und KI, auch hier fokussiert auf Wissenschafts- und Bildungsinstitutionen. 

Lizenzhinweis für das Interview (Text): CC BY 4.0 

Podcastcover. Auf blauen Hintergrund steht in weißer Farbe Musik Technologie und Zukunft. HOOU Podcast von Janis Brucker und René Türschmann

16.09.2022 | HOOU

Folge 3: Künstliche Intelligenz und Kreativität

avatar
Janis Brucker
avatar
René Türschmann

Trailer

YouTube Kanal zum Podcast

Inhaltsangabe:
Was genau ist und was kann künstliche Intelligenz und wo spielt Machine Learning heutzutage für Musik überhaupt eine Rolle? Wird uns künstliche Intelligenz ersetzen oder ist sie nur ein weiteres Werkzeug beim Musik machen? Mit dem Machine Learning Forscher Peter Knees ergründen René und Janis, was wir hoffen dürfen und warum nicht alle Musiker durch KI arbeitslos werden.


Gast: Dr. Peter Knees


Kurzbiografie:
Peter Knees ist Associate Professor für Informatik an der Technischen Universität Wien. Er forscht über Anwendungen der künstlichen Intelligenz im Bereich von Musik, sowohl was die automatische Analyse und Beschreibung von Musik betrifft, als auch die Analyse von Mustern im Hörverhalten.
Im Kontext des Digitalen Humanismus beschäftigt er sich darüber hinaus mit den Auswirkungen von Technologie auf Menschen und Gesellschaft. Darüber hinaus ist Peter Gastdozent für „Künstliche Intelligenz und Mediensysteme“ und “Musikempfehlungssysteme“ an der Popakademie Baden-Württemberg.


Shownotes

Podcastcover. Auf blauen Hintergrund steht Mein Weg zu KI Folge 3

14.07.2022 | Katrin Schröder

03 | Werner Bogula, Digital Enabler

avatar
Axel Dürkop
avatar
Werner Bogula

Kreativität und Künstliche Intelligenz

Gast der dritten Folge unserer Reihe ist Werner Bogula. Er versteht sich als Digital Enabler, der andere unterstützt, Zugang zu aktuellen digitalen Technologien zu erlangen. Der Schwerpunkt seiner Arbeit ist Kreativität und Künstliche Intelligenz, die er z. B. mit dem KISS-Projekt Schüler*innen und Studierenden näherbringen möchte. Im Juni 2022 hat er für das Artificial Intelligence Center Hamburg (ARIC) das Creative-AI-Symposium in Hamburg veranstaltet.

Werner Bogula ist Musiker und spielt die Laute, für die er mit Unterstützung einer KI neue Stücke komponiert hat. Tonbeispiele gibt’s im Podcast sowie viel Inspiration zum Quereinstieg in das Thema.

Aufnahmedatum: 28. Juni 2021
Moderation: Axel Dürkop
Gast: Werner Bogula

Lernangebot auf hoou.de besuchen

Besuche jetzt das Lernangebot auf hoou.de

Lernanregungen

Hast du Lust bekommen, noch tiefer einzusteigen? Wir haben ein paar Vorschläge für dich zusammengestellt:

Grundlagen

Was sind Linguistik und Natural Language Processing (NLP)?

Sprachanalyse und Textgenerierung sind gegenwärtig spannende und stark anwendungsorientierte Forschungsfelder im Bereich Künstlicher Intelligenz. Der Fachbegriff, unter dem im Netz Informationen zu finden sind, lautet Natural Language Processing (NLP), was auf Deutsch häufig mit Computerlinguistik übersetzt wird. Zum Einstieg in das Thema haben wir für dich einige Links und Informationen ausgewählt:

OER zum Thema

Welche Bildungsmaterialien und Tools gibt es, um selbst in die Materie einzusteigen?

Werner Bogula hat sich mit offenen Bildungsmaterialien (engl.: Open Educational Resources (OER)) im Selbststudium für aktuelle Technologien weitergebildet. Wir haben für euch einige zusammengestellt:

Was ist KISS?

KISS heißt “KI für Schüler*innen und Studierende” und ist ein Projekt, das Werner Bogula für die HOOU zusammen mit der HAW Hamburg entwickelt hat.

Musik und Kunst

Wo kann ich mehr Musik von Werner Bogula hören?

Werner Bogula hat die Kompositionen für die Laute auf Soundcloud veröffentlicht. Auf YouTube erläutert er in seinem Vortrag AI and Music Generation, wie diese Musik entsteht.

Zudem hat Werner Bogula einen zweiteiligen Blogpost veröffentlicht, indem er weiteres Material aus seiner Arbeit zeigt.

Was ist Aleatorik?

Neben anderen Komponisten hat Wolfgang Amadeus Mozart ein musikalisches Würfelspiel entwickelt.

Wie sieht die Kunst aus, die in der Zusammenarbeit von Peezmo, Werner Bogula und einer KI entstanden ist?

Credits

Musik: Fat Caps von Jason Shaw auf Free Music Archive, CC BY 3.0 United States License


Jingle: Game Sound Intro To Game von Bertrof auf freesound, CC BY 3.0; Stimmen generiert mit Scratch

Feedback

Feedback, Fragen und Vorschläge unter meinwegzuki.hoou@tuhh.de

Ein Kreis in dem steht Mein Weg zu KI Folge 2

24.02.2022 | Katrin Schröder

02 | Dalia Moniat, Jurastudentin, Künstlerin und AI & Art Researcher

avatar
Axel Dürkop
avatar
Dalia Moniat

Recht, Kunst und KI

Gast der zweiten Folge unserer Reihe ist Dalia Moniat. Sie studiert Jura, ist freischaffende Künstlerin und forscht zu Kunst und Künstlicher Intelligenz.

In dieser Podcastepisode spricht Dalia Moniat zunächst über die Potenziale und Herausforderungen von KI und Jura. Als freischaffende Künstlerin, die sie ist, geht Dalia Moniat anschließend noch ausführlich auf die Potenziale von KI und Kunst ein. Und sie hat spannende Gedanken zur Entwicklung der Hochschullehre!

Aufnahmedatum: 28. Juni 2021
Moderation: Axel Dürkop
Gast: Dalia Moniat

Lernangebot auf hoou.de besuchen

Besuche jetzt das Lernangebot auf hoou.de

Lernanregungen

Hast du Lust bekommen, noch tiefer einzusteigen? Wir haben ein paar Vorschläge für dich zusammengestellt:

KI und Recht

Was ist „Federated Learning“, auf Deutsch „Föderales Lernen“?

Föderales Lernen kann gegenüber anderen Ansätzen des Machine Learnings Vorteile hinsichtlich des Datenschutzes und der Privatsphäre haben. Du findest einen Einstieg in die Theorie in folgenden Beiträgen:

Was wird unter Legal Tech verstanden?

Dalia Moniat beschäftigt sich mit den Potenzialen moderner Informationstechnologien im Bereich der Rechtsprechung. Dieses Technologiefeld wird auch Legal Tech genannt und wirft zahlreiche interessante Fragestellungen auf. Zum Einstieg empfehlen wir die folgenden Beiträge:

  • Wikipedia-Eintrag “Legal Technology”. Der Eintrag ist mit zahlreichen Quellen versehen, über die der tiefere Einstieg in das Thema möglich ist.
  • Der Hamburger Anwalt Nico Kuhlmann, über den Dalia Moniat spricht, ist auch Autor des Legal Tech Blogs (Englisch), in dem die digitale Transformation des Rechtswesens beleuchtet wird.
  • Die webbasierten Dienste hartz4widerspruch und Flightright nennt Dalia Moniat als Beispiele, um zu zeigen, wie digitale Technologien den Zugang zum Rechtssystem für die Allgemeinheit verbessern können.

Wer sind die „Legal Hackers“ und was tun sie?

Legal Hackers ist eine globale Graswurzelbewegung von Designer:innen, Unternehmer:innen, Anwält:innen, politischen Befürworter:innen, Forscher:innen, Student:innen, Lehrer:innen und Technolog:innen, die kreative Lösungen für Probleme an der Schnittstelle von Recht und Technologie erforschen und entwickeln. (Übersetzt aus dem Englischen mit deepl und gegendert, vgl. https://legalhackers.org/our-story/)”

Was versteht man unter „Due Dilligence“?

Dalia Moniat nennt aufwändige Due-Dilligence-Prüfungen als Einsatzbereich für Künstliche Intelligenz. Worum es sich dabei handelt, erfährst du in folgenden Quellen:

Wie beeinflusst die Datenqualität die Entscheidungen von KI?

Ziemlich technisch, dafür aber auch sehr konkret, zeigt das HOOU-Lernangebot “Data Quality Explored – QuaXP”, worauf bei der Aufbereitung von KI-Daten zu achten ist (in englischer Sprache).

KI und Kunst

Was sind Non-Fungible Tokens (NFTs)?

Besonders im Kunstbereich haben NFTs für Furore gesorgt, nachdem ein Künstler namens Beeple eins seiner Werke für $ 69 Mio. versteigert hat – in Form eines Non-Fungible Tokens. Der folgende Beitrag fasst die Debatte um das Potenzial von NFTs aus verschiedenen Artikeln zusammen und verlinkt weitere interessante Quellen:

Credits

Musik: Fat Caps von Jason Shaw auf Free Music Archive, CC BY 3.0 United States License


Jingle: Game Sound Intro To Game von Bertrof auf freesound, CC BY 3.0; Stimmen generiert mit Scratch

Feedback

Feedback, Fragen und Vorschläge unter meinwegzuki.hoou@tuhh.de

Schriftzug Mein Weg zu KI Folge 1

09.09.2021 | Katrin Schröder

01 | Dr. Lothar Hotz, Informatiker und Geschäftsführer von HITeC e.V.

avatar
Axel Dürkop

Die Herausforderung liegt in der Anwendung

Gast in der ersten Folge unserer Reihe ist der Informatiker Dr. Lothar Hotz von der Universität Hamburg. Er ist auch Geschäftsführer des Vereins Hamburger Informatik Technologie-Center (HITeC) und neben der Forschung zu Künstlicher Intelligenz (KI) stets an konkreten Anwendungsmöglichkeiten interessiert.

Herr Hotz spricht zunächst über die Geschichte der KI-Forschung in Hamburg und erläutert moderne Ansätze der KI wie Machine Learning und Neuronale Netze. Er erklärt seinen Standpunkt, warum sich Künstliche Intelligenzen also solche outen sollten und dass es in unser aller Verantwortung liegt, die Entwicklung von KI mitzugestalten.

Aufnahmedatum: 23. März 2021
Moderation: Axel Dürkop
Gast: Dr. Lothar Hotz

Lernangebot auf hoou.de besuchen

Auch zu dieser Episode gibt es ein Lernangebot auf hoou.de mit Videos und Lernanregungen.

Besuche jetzt das Lernangebot auf hoou.de

Credits

Musik: Fat Caps von Jason Shaw auf Free Music Archive, CC BY 3.0 United States License


Jingle: Game Sound Intro To Game von Bertrof auf freesound, CC BY 3.0; Stimmen generiert mit Scratch

Feedback

Feedback, Fragen und Vorschläge unter meinwegzuki.hoou@tuhh.de

Schriftzug Mein Weg zu KI Folge 0

09.09.2021 |

00 | Vorgestellt: “Mein Weg zu KI” mit Alois Krtil, ARIC e.V.

avatar
Axel Dürkop

Auftakt zur Reihe

Axel Dürkop und Alois Krtil geben gemeinsam den Auftakt für die Video- und Podcastreihe „Mein Weg zu KI“. Nach einem Jahr Planung und Produktion und Pandemiebedingungen freuen wir uns, in den kommenden Episoden mit vielen interessanten Akteur:innen aus der Hamburger KI-Community ins Gespräch zu kommen.

In Videos und Podcastinterviews wollen wir die individuellen Bildungsbiografien unserer Gäste nachzeichnen und herausfinden, wie sie zu Wissen und Erfahrungen über und mit Künstlicher Intelligenz gekommen sind.

Mit “Mein Weg zu KI” haben wir ein Format entwickelt, das die “KI-Schaffenden” in Hamburg mit drei unterschiedlichen Zugängen vorstellt:

Lernangebot auf hoou.de besuchen

Mit “Mein Weg zu KI” haben wir ein Format entwickelt, das die “KI-Schaffenden” in Hamburg mit drei unterschiedlichen Zugängen vorstellt:

  • In kurzen Videoporträts gewinnt ihr einen Eindruck von den Personen, den Orten ihres Wirkens, ihren Werkzeugen und Produkten, die sie mit KI erzeugen.
  • In längeren Podcastepisoden könnt ihr die teilweise verschlungenen Bildungspfade nachvollziehen, die unsere Interviewpartner:innen zu ihrer fachlichen Expertise genommen haben.
  • Mit Lernanregungen zu jeder Episode habt ihr die Möglichkeit, ausgewählte Themen, Techniken und Medien aus den Interviews zu bearbeiten und aktiv nachzuvollziehen.

Besuche jetzt das Lernangebot auf hoou.de

Credits

Musik: Fat Caps von Jason Shaw auf Free Music Archive, CC BY 3.0 United States License

Jingle: Game Sound Intro To Game von Bertrof auf freesound, CC BY 3.0; Stimmen generiert mit Scratch

Feedback

Feedback, Fragen und Vorschläge unter meinwegzuki.hoou@tuhh.de

Podcast Hamburg hOERt ein HOOU Das Projekt KISS

19.10.2020 | HOOU

Hamburg hOERt ein HOOU! Werner Bogula: KISS*

avatar
Christian Friedrich
avatar
Werner Bogula

Aufzeichnungsdatum: 15.10.2020

Gäste: Werner Bogula werner@bogula.de

Christian Friedrich live beim afterwOERk der HAW Hamburg im Gespräch mit Werner Bogula, der das Projekt “KISS*: Künstliche Intelligenz für Schüler*innen und Studierende” entwickelt. 

Werner Bogula bei LinkedIn https://www.linkedin.com/in/wernerbogula/ 

Werner Bogulas Website http://www.bogula.de/Home.html 

Shownotes

Elements of AI https://www.elementsofai.de/ 

Veranstaltung Hacks & Tools meets OERcamp https://www.hoou.de/blog/hacks-tools-meets-oercamp-ein-rueckblick 

OERcamp gewinnt den OEGlobal Award https://awards.oeglobal.org/awards/2020/creative-innovation/oercamp/ 

Maschinelles Lernen https://de.wikipedia.org/wiki/Maschinelles_Lernen 

Künstliche Intelligenz https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz 

H5P https://h5p.org/ 

Richard David Precht: Künstliche Intelligenz und der Sinn des Lebens https://www.randomhouse.de/Buch/Kuenstliche-Intelligenz-und-der-Sinn-des-Lebens/Richard-David-Precht/Goldmann/e572102.rhd