Thema: IT & Medien

03.04.2025 | Katrin Schröder
SSL04 NIS-2 mit Dennis-Kenji Kipker



Wie ist der Stand bei der Umsetzung des NIS-2 Umsetzungsgesetzes in Deutschland? Welche konkreten Punkte sollten Unternehmen, Verwaltung und Behörden schon jetzt beachten? Diese und viele weitere Fragen haben wir mit Prof. Dr. Dennis Kenji-Kipker besprochen. Dennis ist ausgewiesener Experte für Cyversicherheitsrecht und hat unter anderem als Sachverständiger in einer Anhörung des Deutschen Bundestags zum Thema NIS-2 beraten.
Mehr zu unserem Gast
Wikipedia: Dennis-Kenji Kipker
Links zur Episode
Europäische Richtlinie als Basis für NIS 2
Übersichtsseite der Bundesregierung zum Umsetzungsstand von NIS-2
Gesetzesentwurf der Regierung, über den in dieser Episode gesprochen wird
BSI: Gesetze zur Erhöhung der Sicherheit informationstechnischer Systeme (IT-SiG)
Wikipedia: Kritische Infrastruktur (KRITIS)
BSI: NIS-2 Betroffenheitsprüfung
Wikipedia: Computer Emergency Response Team (CERT)
Wikipedia: Software-Lieferkette und SBOM
Artaker: Unterschiede zwischen NIS-1 und NIS-2
Podcast App Empfehlungen
Unsere Kapitelbilder könnt ihr mit einer guten Podcast App sehen. Zum Beispiel mit:
Die Sicherheits_lücke im Netz
Abonniere Die Sicherheits_lücke überall, wo es Podcasts gibt, oder über unsere Website: https://www.sicherheitsluecke.fm
Die Sicherheits_lücke bei Mastodon
Die Sicherheits_lücke bei LinkedIn
Die Sicherheits_lücke bei Pixelfed
Feedback oder Kritik? Wünsche? Schreib uns: post@sicherheitsluecke.fm
Die Sicherheits_lücke ist ein Podcast der Hamburg Open Online University (HOOU).
Monina Schwarz, LSI Bayern
Volker Skwarek an der HAW Hamburg
Produktion und Musik: Christian Friedrich
Das in dieser Episode verwendete Bildmaterial steht unter der Lizenz CC-BY 4.0, Urheberin ist Anne Vogt.

25.02.2025 | Katrin Schröder
SSL003 Cui Bono Sicherheitslücken?



Wer nutzt Sicherheitslücken? Und Warum? Was ändert das an der Art und Weise, wie sich Einzelne und Organisationen mit Sicherheitslücken umgehen und sich vor Angriffen schützen? Darum geht’s in dieser Folge von „Die Sicherheits_lücke“.
Links
Red Team, Blue Team (Security Team)
Spionieren unter Freunden (Deutsche Welle)
CIA Triade (IT-Service Network)
NSAKEY in Windows NT 4.0 (Wikipedia)
NSA Built Back Door In Microsoft’s All Windows Software by 1999 (Techworm)
Lagebild Cybercrime 2023 (BKA)
Bedrohung durch Innentäter (Verfassungsschutz, PDF)
Hacker-Verfahren wegen CDU-Wahlkampf-App eingestellt (Golem)
Hackerparagraf soll entschärft werden (Spiegel Online)
Referentenentwurf eines Gesetzes zur Änderung des Hacker-Paragraphen
Hackerparagraf wird entschärft, aber nicht gestrichen (heise)
Responsible Disclosure (Wikipedia)
Podcast App Empfehlungen
Unsere Kapitelbilder könnt ihr mit einer guten Podcast App sehen. Zum Beispiel mit:
Die Sicherheits_lücke im Netz
Abonniere Die Sicherheits_lücke überall, wo es Podcasts gibt, oder über unsere Website: https://www.sicherheitsluecke.fm
Die Sicherheits_lücke bei Mastodon
Die Sicherheits_lücke bei Pixelfed
Feedback oder Kritik? Wünsche? Schreib uns: post@sicherheitsluecke.fm
Die Sicherheits_lücke ist ein Podcast der Hamburg Open Online University (HOOU).
Monina Schwarz, LSI Bayern
Volker Skwarek an der HAW Hamburg
Produktion und Musik: Christian Friedrich
Das in dieser Episode verwendete Bildmaterial steht unter der Lizenz CC-BY 4.0, Urheberin ist Anne Vogt.

06.02.2025 | Katrin Schröder
SSL001 Digitale Bilderrahmen & smarte Kaffeemaschinen



Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat vor Weihnachten bei 30.000 digitalen Bilderrahmen und Mediaplayern in Deutschland die Kommunikation der Schadsoftware BadBox unterbunden. Wir sprechen über Malware im Internet of Things, in Bilderrahmen, Kaffeemaschinen und Spülmaschinen. Was bedeuten die Risiken für Privatpersonen, Organisationen und die Gesellschaft?
Links zu dieser Folge
Meldung des BSI: Vorinstallierte Schadsoftware auf IoT-Geräten
Badbox Malware, Ursprünge in 2016
Allg. Infos über Badbox und Peachpit
„This malware also well-known brands such as Yandex TVs and Hisense smartphones. […] It first came to light in early 2023 when a Canadian security consultant found it on a T95 Android TV box. Since then, the BadBox malware has spread to other lesser-known products that available online.“ Zitat aus: https://protergo.id/badbox-malware-infects-192k-android-devices-despite-crackdown/
BSI Consumer IoT Richtlinie 303 645
Internet of Things – Wikipedia
Batterygate bei Spiegel Online
Vortrag 38C3: Wir wissen wo dein Auto steht
Pi-hole: Network-wide ad blocking via your own Linux hardware
Abonniere Die Sicherheits_lücke überall, wo es Podcasts gibt, oder über unsere Website: https://www.sicherheitsluecke.fm
Das in dieser Episode verwendete Bildmaterial steht unter der Lizenz CC-BY 4.0, Urheberin ist Anne Vogt.
Feedback oder Kritik? Wünsche? Schreib uns: post@sicherheitsluecke.fm
Die Sicherheits_lücke ist ein Podcast der Hamburg Open Online University (HOOU).
Volker Skwarek an der HAW Hamburg

04.02.2025 | Katrin Schröder
SSL000 Die Sicherheits_lücke stellt sich vor




Was macht unsere digitale Welt sicher – und wo bleiben wir verwundbar? Der Podcast Die Sicherheits_lücke hilft dir, Cybersecurity zu verstehen. Prof. Dr. Volker Skwarek (HAW Hamburg) spricht gemeinsam mit Monina Schwarz (LSI Bayern) und Prof. Dr. Ingo Timm (DFKI & Uni Trier) über aktuelle Risiken, technologische Trends und gesellschaftliche Herausforderungen.
Du bekommst praxisnahe Einblicke und verständliche Erklärungen – ergänzt durch eine klare Einordnung von Fakten und Meinungen. Der Podcast macht Cyber Security greifbar und verbindet fundierte Inhalte mit unterhaltsamen Gesprächen.
Ob du Entscheidungsträger:in, IT-interessiert oder einfach neugierig bist – Die Sicherheits_lücke gibt dir die Möglichkeit, digitale Risiken besser einzuschätzen und kluge Entscheidungen zu treffen.
Links zu dieser Folge
Abonniere Die Sicherheits_lücke überall, wo es Podcasts gibt, oder über unsere Website: https://www.sicherheitsluecke.fm
Feedback oder Kritik? Wünsche? Schreib uns: post@sicherheitsluecke.fm
Die Sicherheits_lücke ist ein Podcast der Hamburg Open Online University (HOOU).
Volker Skwarek an der HAW Hamburg

Bild: Midjourney
24.07.2024 | Meena Stavesand
Generative KI: Das musst du über Urheberrecht, Datenschutz und Transparenz wissen
ChatGPT, Co-Pilot, Midjourney, Dalle-E oder auch DeepL – das alles sind KI-Generatoren für Texte und Bilder, die künstliche Intelligenz in die Gesellschaft gebracht haben. Jeder kann sich an generativer KI versuchen, Texte, Bilder und Videos erstellen und veröffentlichen. Aber wie sieht es mit Urheberrecht und Datenschutz aus? Was darf wie genutzt werden? Wann muss man KI-generierte Inhalte kennzeichnen? Und welche Verantwortung trägt man bei der Arbeit mit KI-Generatoren? Diese Fragen haben wir der Juristin Andrea Schlotfeldt von der HAW Hamburg gestellt. Herausgekommen ist ein spannendes Interview, in dem es auch um den neuen AI Act der EU geht.
Thema Urheberrecht. Inwieweit kann es bei Erstellung und Nutzung von KI-Inhalten zu Urheberrechtsverletzungen kommen?
Andrea Schlotfeldt: Die Wahrscheinlichkeit, hierbei fremde Urheberrechte zu verletzen, ist an sich gering. Es verbleibt aber ein Restrisiko. Hierfür ist die Art des gewählten Prompts relevant und, ob ich den KI-Output noch weiterbearbeite und falls ja, in welchem Umfang. Lasse ich einen noch geschützten fremden Text übersetzen und veröffentliche ich diese Übersetzung, kann darin eine Urheberrechtsverletzung liegen. Ebenfalls wenn ich ein fremdes Bild hochlade, durch die KI geringfügig verändere und dann neu veröffentliche.
Eine Urheberrechtsverletzung kann allerdings auch zufällig bzw. unbewusst vorkommen, auch je nach zugrunde liegendem Trainingsmaterial. Sofern KI-Output mit bestehenden fremden Werken identisch ist oder diesen stark ähnelt, ohne dass ich durch meinen Prompt darauf hingewirkt habe, könnte es theoretisch also auch zu Urheberrechtsverletzungen kommen.
Wie kann ich sicherstellen, dass ich bei der Nutzung von KI-Inhalten keine Urheberrechte verletze?
Andrea Schlotfeldt: Eine pauschale Sicherstellung ist nicht möglich, aber man kann z. B. durch eine Rückwärtssuche u. a. bei Google prüfen, ob man ähnliche Ergebnisse bekommt – wenn ja, ist man eventuell im Bereich der Urheberrechtsverletzung und sollte auf die Nutzung verzichten. Aber das lässt sich nicht generell sagen, sondern man muss es im Einzelfall prüfen. Grundsätzlich ist die Rückwärtssuche ein Instrument, mit dem man zumindest eine erste Information bekommt.
Auch sollte man davon absehen, KI-generierte Übersetzungen noch geschützter Texte ohne Zustimmung der Rechteinhaber:innen zu veröffentlichen. Letztlich kommt es darauf an, wie der Prompt ausgestaltet ist. Wenn man ganz gezielt nach bestimmten Texten oder Studienauszügen fragt, dann kann es vorkommen, dass zumindest in Teilen auch 1:1-Inhalte generiert werden. Von deren Weiterverwendung sollte ich dann absehen.
Gibt es Grenzen?
Andrea Schlotfeldt: Ja, man muss immer unterscheiden, in welchem Kontext man den Content verwendet. Wenn man ihn im Rahmen einer studentischen Arbeit oder auch als lehrende Person in Folien verwendet, dann kann das unter die Schranke des § 60a Urheberrechtsgesetz fallen, der zu Studien- oder Lehrzwecken bestimmte Nutzungen erlaubt, wenn die Inhalte in einem geschlossenen Benutzerkreis bleiben und nicht öffentlich auf einer Website zugänglich gemacht werden. Allerdings besteht hier die Anforderung, dass die Quellen angegeben werden müssen. Man muss also wissen, woher die Texte oder Bilder stammen – was bei KI-Output oft schwierig bis unmöglich sein kann. Und genau der eingeschränkte Kreis der Teilnehmerinnen und Teilnehmer an einer Veranstaltung ist wichtig.

Was ist der AI Act?<br>Der Artificial Intelligence Act (AIA) ist ein von der EU-Kommission im Rahmen der EU-Digitalstrategie veröffentlichtes Gesetz zur Regulierung von Künstlicher Intelligenz (KI) in Forschung und Wirtschaft. Er legt fest, welche Anbieter:innen und Nutzer:innen von KI-Systemen in der EU den neuen Regularien unterliegen. Dies betrifft sowohl in der EU ansässige als auch außerhalb der EU befindliche Akteur:innen, deren KI-Systeme in der EU genutzt werden. Der AI Act definiert KI weit: KI umfasst demnach Systeme, die maschinelles Lernen, logik- und wissensbasierte Konzepte oder statistische Ansätze nutzen. <br><br>KI-Anwendungen werden nach ihrem potenziellen Risiko in vier Kategorien eingeteilt: unannehmbares Risiko, hohes Risiko, geringes Risiko und minimales Risiko. Systeme mit unannehmbarem Risiko sind verboten, Hochrisiko-Systeme unterliegen strengen Anforderungen wie Risikomanagement und Daten-Governance, also Datenrichtlinien für die Erfassung, Speicherung, Verarbeitung und Vernichtung von Daten. Systeme mit geringem Risiko müssen minimale Transparenzpflichten erfüllen, während Anwendungen mit minimalem Risiko keine besonderen Anforderungen haben.<br><br>Der AI Act zeigt die EU-Bemühungen, Missbrauchspotenziale wie Beeinflussung und Überwachung durch KI zu minimieren. Unternehmen sollten sich frühzeitig mit den Regulierungen auseinandersetzen und ihre Entwicklungen entsprechend anpassen.
Es gibt auch die Gemeinfreiheit bei Werken. Was ist das genau?
Andrea Schlotfeldt: Zum einen sind Werke gemeinfrei, wenn der Urheberrechtsschutz abgelaufen ist, also 70 Jahre nach dem Tod des Urhebers oder der Urheberin. Oder Werke sind gemeinfrei, wenn sie gar nicht geschützt waren, weil es sich zum Beispiel um eine sehr einfache Gestaltung handelt, die keine Schöpfungshöhe, also keine besondere Originalität, aufweist, oder wenn es sich z. B. um Gesetzestexte handelt.
Wie kann ich sicherstellen, dass meine KI-generierten Inhalte nicht kopiert werden?
Andrea Schlotfeldt: Sicherstellen lässt sich dies nicht. Hier ist die Situation dieselbe wie bei herkömmlichen urheberrechtlich geschützten Texten oder Bildern, die ich veröffentliche. Sofern kein technischer Kopierschutz gegeben ist, können Inhalte rein faktisch übernommen werden. Wer bei mir „klauen“ möchte, den oder die kann ich nicht daran hindern.
Der Unterschied zu diesen von Menschen verfassten Inhalten ist, dass bei KI-Output in der Regel ja kein Urheberrechtsschutz anzunehmen ist, so dass die Weiternutzung zumeist tatsächlich zulässig ist (Stichwort „digitales Freiwild“). Derzeit wird unter Jurist:innen diskutiert, ob KI-Output künftig über ein sogenanntes Leistungsschutzrecht geschützt werden sollte, wie dies beispielsweise in Großbritannien in bestimmten Konstellationen der Fall ist. Ob eine solche Gesetzesänderung kommt, ist aber noch unsicher. Das Gesetzgebungsverfahren würde zudem sicher eine gewisse Zeit brauchen.
Gibt es Fälle, in denen mein KI-Output gleichwohl urheberrechtlich geschützt ist?
Andrea Schlotfeldt: Wenn Inhalte von mir wie Bilder oder Texte von einer KI nur geringfügig bearbeitet bzw. verändert wurden, aber im Wesentlichen immer noch meine Arbeit, mein Werk, sind, dann unterliegen sie weiterhin meinem Urheberrecht. So interpretiere ich die aktuelle Rechtslage. Wenn ich aber mittels KI ein Bild erstellen lasse, für das ich vorgebe, dass eine Lehr- bzw. Unterrichtssituation zu sehen sein soll, klassisch – ein Raum, Tische, Stühle, Monitore, Whiteboard und Studierende – und die KI generiert mir das, dann ist das nicht mein eigenes Werk. Wenn ich dieses Bild so – auch unbearbeitet – auf meine Website stelle, dann können es theoretisch auch andere nutzen. Es unterliegt dann keinem Urheberrecht. Das ist die Besonderheit – im Vergleich zu herkömmlichen Fotos oder Texten, auch wenn es mein Prompt ist, auf dem der Output ja letztlich basiert.
Gibt es eine Verpflichtung zur Transparenz, wenn ich Inhalte mit einer KI generiere?
Andrea Schlotfeldt: Hier kommt es auf die geplante Nutzung an: Eine generelle Pflicht zur Transparenz besteht aktuell noch nicht. Allerdings können sich auch jetzt schon Kennzeichnungspflichten aus Prüfungsvorgaben ergeben, etwa im Kontext der in der Regel geforderten Hilfsmittelangabe. Hierfür sind Art, Umfang und Zweck der KI-Nutzung ausschlaggebend. Die Umsetzung dieser Pflichten kann komplex ausfallen, zumal wenn die verwendeten Prompts mit aufzuführen sind.
Auch darf ich mich nicht als Urheber:in KI-generierter Texte ausweisen, wenn diese ausschließlich von einem KI-Tool erzeugt wurden. Die Grenzen sind allerdings fließend, und Rechtsprechung hierzu steht aus (Wieviel Anteil eines Textes darf beispielsweise KI-erzeugt sein, damit dieser noch als eigener Text gilt? Dies ist auch relevant bei Übersetzungen mit Diensten wie DeepL.). Bei Presseerzeugnissen können journalistische Sorgfaltspflichten ebenfalls eine Pflicht zur Kennzeichnung mit sich bringen.
Wichtig ist auch: Die EU hat im Mai 2024 den sogenannten AI Act verabschiedet – ein Gesetz für den Umgang mit KI. Darin ist auch eine Vorschrift enthalten, die eine Transparenzpflicht vorsieht. Sie soll voraussichtlich ab August 2025 gelten. Die genauen Vorgaben sind derzeit noch unkonkret. Hier werden juristische Kommentierungen oder ggf. Konkretisierungen durch das AI Office eine wertvolle Hilfe sein, Aktuell wird an diesen gearbeitet.
Eine Frage, die sich daran anschließt, ist die nach der Kontrolle. Wie kann man kontrollieren, ob ein Content KI-erzeugt ist?
Andrea Schlotfeldt: Kontrolle ist schwierig. Es gibt u. a. die Möglichkeit, Wasserzeichen einzusetzen, um KI-Output als solchen zu kennzeichnen, aber wie dauerhaft sind diese? Kann man sie einfach „herausschneiden“? Hier ist die Forschung gefragt und auch dabei (u. a. an der HAW Hamburg), gute Lösungen zu entwickeln, damit solche Markierungen nicht einfach entfernt werden können.

Was sind Deepfakes?<br>Deepfakes sind Medieninhalte, bei denen künstliche Intelligenz verwendet wird, um realistisch aussehende Fälschungen zu erstellen. Diese Fälschungen können Videos, Audios oder Bilder umfassen, bei denen das Gesicht oder die Stimme einer Person manipuliert oder komplett ersetzt wird, um den Eindruck zu erwecken, dass diese Person etwas gesagt oder getan hat, was in Wirklichkeit nicht der Fall ist. Der Begriff „Deepfake“ setzt sich aus „Deep Learning“ und „Fake“ zusammen und weist darauf hin, dass tiefe neuronale Netze, eine Technologie des maschinellen Lernens, verwendet werden, um diese Fälschungen zu erzeugen.
Thema Verantwortung und Haftung. Bin ich für meine Inhalte verantwortlich? Und kann ich die Verantwortung abgeben?
Andrea Schlotfeldt: Man kann die Verantwortung in der Regel nicht abgeben. Wenn man die Tools nutzt und damit Inhalte erstellt, dann sind die Nutzungsbedingungen dieser Programme in der Regel so ausgestaltet, dass der Nutzer oder die Nutzerin selbst verantwortlich ist. Anders kann die Situation zu beurteilen sein, wenn bei einer Prüfung der Einsatz eines KI-Tools verpflichtend vorgesehen ist und „unwissentlich“ eine Urheberrechtsverletzung entsteht, die zudem der Öffentlichkeit zugänglich wird, etwa im Zuge der Präsentation von Abschlussarbeiten. Hier hängt die Beurteilung sehr vom Einzelfall ab.
Viele Nutzende treibt der Datenschutz um. Bei ChatGPT gibt es die Möglichkeit, die eigenen Daten dahingehend zu schützen, dass die Prompts und Ergebnisse nicht weiterverwendet werden. Ist das wirklich möglich?
Andrea Schlotfeldt: Ob diese Einstellungen ein Garant für den Schutz sind, dazu sind mir keine Erhebungen oder Studien bekannt. Viele Expert:innen sprechen bei KI-Tools von einer Black Box. Was passiert da eigentlich? Wird eingehalten, dass meine Daten oder Werke nicht für das KI-Training verwendet werden? Das lässt sich derzeit nicht mit Sicherheit sagen. Wer seine Daten schützen will, sollte z. B. bei ChatGPT auf die History verzichten – und das kann wiederum problematisch sein. Diese Art der Dokumentation wird bei Prüfungen, bei denen KI-Generatoren erlaubt oder sogar vorgesehen sind, in der Regel vorausgesetzt, siehe oben, Stichwort Kennzeichnungspflichten. Das ist auch ein Problem, für das wir praxistaugliche Lösungen brauchen.
Hast du generell einen Tipp, wie man mit seinen Daten umgehen sollte?
Andrea Schlotfeldt: Möchte ich datensparsam vorgehen, sollte ich schon bei den eigenen Eingaben darauf achten, keine persönlichen Daten einzugeben und mir genau überlegen, wie viele Informationen ich preisgeben möchte. Wenn ich zum Beispiel meinen Lebenslauf von einer KI verbessern lasse, muss ich mich bewusst entscheiden, welche Daten ich der KI gebe.
Wenn ich im Personalwesen oder in der Forschung mit KI arbeite und zum Beispiel personenbezogene Daten zusammenfassen lasse, dann muss ich eine Rechtsgrundlage bzw. eine Einwilligung der Personen haben – und die muss freiwillig sein. Das heißt, die Person, die ich um Einwilligung bitte, muss verstehen, was genau mit den Daten passiert, und sie muss die Entscheidung tatsächlich als freiwillig empfinden. Es ist wichtig, dass wir diese Datensensibilität auf beiden Seiten entwickeln.
Was meinst du damit?
Andrea Schlotfeldt: Es geht zum einen darum, dass die Nutzerinnen und Nutzer von KI wissen, dass sie nicht einfach persönliche Daten anderer in das KI-Tool kopieren können, um zum Beispiel etwas zusammenzufassen oder sich die Arbeit anderweitig zu erleichtern. Gerade im Arbeitskontext, auch an Hochschulen, wird für Datenverarbeitungen immer eine Rechtsgrundlage benötigt. Zum anderen müssen auch die sogenannten „Betroffenen“, also die Menschen, deren Daten oder Informationen genutzt werden, verstehen, was konkret mit ihren Daten passiert und worauf sie bei einer Einwilligung achten müssen.
Das Thema KI wird uns rechtlich in den nächsten Jahren noch intensiv beschäftigen. Es geht um unsere eigenen Daten, um Urheberrechte und Transparenz, aber auch um die Verletzung von Persönlichkeitsrechten, zum Beispiel durch Deep Fakes.
Andrea Schlotfeldt: Ja, die sogenannten Deepfakes sind eine der großen Herausforderungen, denen wir begegnen. Je mehr technisch möglich ist und je mehr Menschen auch mit den Tools umgehen können, desto gravierender können die Auswirkungen auf die Gesellschaft und einzelne Betroffene sein. Der Bereich der pornografischen (Fake-)Darstellungen ist bereits jetzt ein riesiges Problem.
Auch die Politik und der Journalismus haben mit Deepfakes zu kämpfen – das kann Wahlen oder andere politische Entscheidungen beeinflussen, wenn Falschinformationen über KI-erzeugte Videos oder Bilder verbreitet werden. Ein weiteres Problem können sogenannten Softfakes sein, also Bilder, Videos oder Audioclips, die manipuliert werden, um politische Kandidat:innen attraktiver oder vorteilhafter wirken zu lassen. Auch im Bereich wissenschaftlicher Forschung können negative Auswirkungen, die auf Falschinformationen basieren, nicht ausgeschlossen werden.
Was kann hier helfen?
Andrea Schlotfeldt: Wir müssen eine deutlich höhere Sensibilität für solche falschen Inhalte entwickeln. Das geht nur durch (Weiter-)Bildung – und betrifft alle Altersstufen. Die Menschen müssen vielfältige Kompetenzen in diesem Bereich erwerben. Am besten fängt man damit schon bei Kindern an.
Viele Institutionen und Einrichtungen bieten bereits geeignete Materialien und Tools wie Fakefinder an. Auch von der HOOU an der HAW Hamburg gibt es ein passendes Lernangebot, adressiert an Lehrkräfte, die ihren Schülerinnen und Schülern wichtige Kompetenzen beim Umgang mit Informationen aus dem Netz vermitteln möchten, also auch Deepfakes. Diese Angebote sollten wir nutzen.
Über Andrea Schlotfeldt:

Andrea Schlotfeldt ist wissenschaftliche Mitarbeiterin Juristische Beratung für Projekte der Hamburg Open Online University an der HAW Hamburg. In dieser Rolle berät sie OER-Produzierende in rechtlicher Hinsicht bei der Konzeption und Veröffentlichung ihrer offenen Bildungsmaterialien. Darüber hinaus ist sie mit Fragen des Urheberrechts, des Datenschutzes und KI in der digitalen Lehre befasst. Sie ist zudem seit 2008 selbständige Rechtsanwältin, Dozentin und Referentin mit Schwerpunkt Urheber-/Vertragsrecht und KI, auch hier fokussiert auf Wissenschafts- und Bildungsinstitutionen.
Lizenzhinweis für das Interview (Text): CC BY 4.0

Bild: Raphael Renter/Unsplash
25.06.2024 | Meena Stavesand
Empowerment im Pride Month: So unterstützt du die LGBTQ+-Community
Jeden Juni hissen Menschen, Unternehmen, Organisationen und Initiativen die Regenbogenfahne und feiern den Pride Month. Es ist eine Zeit, die sowohl dem Gedenken als auch der Anerkennung der LGBTQ+-Community gewidmet ist. Wir erklären dir, wie der Pride Month entstanden ist, warum es ihn gibt und was du selbst tun kannst, um marginalisierte Gruppen zu unterstützen. Es geht um Vielfalt und Empowerment.
Der Pride Month, der jedes Jahr im Juni stattfindet, erinnert an die Stonewall-Unruhen 1969 in New York. Es war ein Wendepunkt in der Bürgerrechtsbewegung der LGBTQ+-Gemeinschaft. Die historischen Ereignisse markierten den Beginn einer neuen Ära des Widerstands und der Forderung nach Gleichberechtigung, die bis heute anhält.
So entstand die Gay Pride
In den 1960er Jahren war in den USA ein gesellschaftlicher Aufbruch spürbar, von dem Homosexuelle jedoch zunächst kaum profitierten. Auf der Grundlage der so genannten „Sodomie-Gesetze“ wurden sie in vielen Bundesstaaten strafrechtlich verfolgt und in verschiedenen Lebensbereichen – etwa auf dem Wohnungsmarkt oder am Arbeitsplatz – diskriminiert.
Der Widerstand gegen diese Diskriminierung begann symbolisch mit den Stonewall-Unruhen in der New Yorker Christopher Street vor 55 Jahren, ein Ereignis, das die LGBTQ+-Bewegung bis heute prägt.
Razzia als Auslöser der Stonewall-Unruhen
In den 1960er Jahren konnten sich Homosexuelle in New York nur an bestimmten Orten treffen. Bars, die als solche Treffpunkte bekannt waren, erhielten von den Behörden keine Alkohollizenz. Dies machte sich die Mafia zunutze und betrieb diese Orte als „Privatclubs“ ohne Lizenz.

It was a rebellion, it was an uprising, it was a civil rights disobedience—it wasn’t no damn riot.Stormé DeLarverie über die Stonewall-Unruhen
So kam es dort regelmäßig zu Razzien der Polizei, die oft mit Übergriffen endeten oder auch die Identitäten der Homosexuellen öffentlich machten. Die Razzia in der Bar „Stonewall Inn“ am 28. Juni 1969 eskalierte schließlich, als sich die Gäste gegen die Polizeikontrollen wehrten, vermutlich ermutigt durch den Widerstand der lesbischen Sängerin Stormé DeLarverie. Die darauf folgende Solidarisierung innerhalb der homosexuellen Community und der Nachbarschaft führte zu tagelangen Auseinandersetzungen mit der Polizei in der Christopher Street.
Grundstein für weltweite Bewegung
Schon vor Stonewall hatten sich Homosexuelle in den USA organisiert, doch die Ereignisse von 1969 markierten einen entscheidenden Wendepunkt für die amerikanische Schwulen- und Lesbenbewegung. Es folgte der erste „Christopher Street Liberation Day“ mit einer Parade am 28. Juni 1970, an der rund 4000 Menschen teilnahmen.
Daraus entwickelte sich schnell eine weltweite Bewegung, die unter dem Namen „Gay Pride“ die Forderung nach gleichen Rechten für Homosexuelle auf der ganzen Welt unterstützte.
In Deutschland kämpfte die Schwulen- und Lesbenbewegung in den 1960er Jahren vor allem gegen das Sexualstrafrecht, das Homosexualität unter Strafe stellte. Der erste „Christopher Street Day“ in Deutschland fand dann am 28. Juni 1979 in Berlin statt, genau zehn Jahre nach den Stonewall-Unruhen. Er wurde zum Symbol des Widerstands und der Forderung nach Gleichberechtigung in Deutschland.
Noch immer Opfer von Diskriminierung und Gewalt
Obwohl sich der Christopher Street Day als Bewegung weltweit etabliert hat und wir im Juni den Pride Month feiern, sind Homosexuelle auch heute noch Opfer von Diskriminierung und Gewalt. So wurden im Juni 2016 bei einem der schlimmsten Anschläge in der Geschichte der USA in einem LGBT-Club in Orlando/Florida 49 Menschen getötet.
Deshalb ist es wichtig und notwendig, nicht nur die Erfolge der Bewegung zu feiern, sondern auch auf die anhaltenden Kämpfe für Gleichberechtigung und Akzeptanz aufmerksam zu machen. Es geht um mehr als das Hissen einer Regenbogenfahne.
Denn heute steht der Pride Month für das kontinuierliche Streben nach einer inklusiven Gesellschaft, in der jeder Mensch unabhängig von seiner sexuellen Orientierung oder Geschlechtsidentität die gleichen Rechte und Chancen genießt. Es geht darum, die Stimmen derer zu stärken, die oft am Rande der Gesellschaft stehen, und Strategien zu fördern, die nachhaltige Veränderungen bewirken können.
Empowerment: Wohlbefinden und Sichtbarkeit verbessern
Dieses Jahr möchten wir die Gelegenheit nutzen, um auf spezifische Empowerment-Strategien hinzuweisen, die darauf abzielen, die Rechte, das Wohlbefinden und die Sichtbarkeit von LGBTQ+-Personen zu stärken. In unserem Lernangebot „Diversify!“ der HAW Hamburg findest du viele interessante Informationen zum Thema Diversity – und auch zum Thema Empowerment.

Der Begriff Empowerment kommt aus dem Englischen. Empowerment bedeutet, die politische, soziale, wirtschaftliche und spirituelle Kraft einer Person oder Gemeinschaft zu stärken. Dies ist besonders wichtig für Menschen, die von anhaltender und alltäglicher Diskriminierung betroffen sind, zum Beispiel durch Rassismus, Sexismus oder Klassismus. Empowerment von marginalisierten Personen und Gemeinschaften (die wenig Macht haben) ist wichtig, um Kraft zu schöpfen. Für eine diskriminierungssensible Gesellschaft braucht es gleichzeitig Machtteilung durch diejenigen, die viel Macht haben.
Ein zentraler Aspekt von Empowerment während des Pride Month ist Bildung. Aufklärungsarbeit in Schulen, am Arbeitsplatz und in der Gemeinschaft kann dazu beitragen, Mythen zu entkräften und ein tieferes Verständnis für die Herausforderungen der LGBTQ+-Gemeinschaft zu schaffen. Bildungsinitiativen tragen dazu bei, eine Kultur der Akzeptanz und des Respekts zu fördern, die für das Wohlergehen aller Mitglieder der Gesellschaft unerlässlich ist.
Sichtbarkeit schafft Bewusstsein
Ein weiterer wichtiger Punkt ist die Erhöhung der Sichtbarkeit. Die Veranstaltungen und Kampagnen des Pride Month bieten eine Plattform, auf der LGBTQ+-Personen ihre Geschichten teilen und feiern können. Diese Sichtbarkeit ist entscheidend, um Stereotypen zu durchbrechen und ein breiteres Bewusstsein für die Vielfalt menschlicher Erfahrungen zu schaffen.
In unserem Lernangebot „Diversify!“ findest du viele Werkzeuge, um dich selbst und andere zu empowern. Dabei geht es nicht nur um sexuelle Vielfalt, sondern auch um den Kampf gegen Rassismus, Antisemitismus oder Ableismus.
Sensibilisierung, Empowerment und Positionierung
In dem Lernangebot stellen wir uns selbst bestimmte Fragen, um andere Menschen, die von Diskriminierung betroffen sind, zu unterstützen.
- Wie kann ich wenig sichtbare Menschen durch meine Medienarbeit empowern?
- Welche Strategien gibt es, den eigenen, manchmal eingeschränkten Blickwinkel zu reflektieren?
- Können Medien für alle zugänglich gemacht werden?
- Wie manifestieren sich Stereotype in Sprache, Bild und Ton? Wie können wir sie verändern?
Diversify!
Lasse uns diesen und alle weiteren Pride Months als Mahnung und Inspiration nutzen, jeden Tag aufs Neue für Gleichberechtigung, Akzeptanz und Empowerment zu kämpfen. Unser Angebot „Diversify!“ der HAW Hamburg hilft uns dabei. So können wir gemeinsam eine inklusive Zukunft gestalten, in der jeder Mensch die Freiheit hat, sich voll zu entfalten.

01.12.2022 | HOOU
Hamburg hOERt ein HOOU! Spiele EDDI!

Die Folge zu EDDI von Oktober 2022
Portrait: Juliane Bönecke
Lizenz: Juliane Bönecke, CC BY-SA 4.0
Portrait: Mail Helfrich
Foto von Leonie Saremba, 2020
Der Tusch
„Trumpet/Cornet Flourish.mp3“ by dominictreis is marked with CC0 1.0

19.10.2022 | HOOU
Hamburg hOERt ein HOOU! Mit Serious Games Epidemien verstehen

Nach längerer Sommerpause startet Hamburg hOERt ein HOOU in die neue Podcast-Saison: Christian Friedrich spricht mit Juliane Bönecke und Maik Helfrich über das von Ihnen und ihren Teams entwickelte Spiel EDDI (Epidemic Disease Detectives Hamburg). Spielende haben die Aufgabe, die Auswirkungen einer sich ausbreitenden Epidemie einzudämmen und detektivisch zu erspüren, was der Erreger der Epidemie sein könnte. Das Szenario basiert auf einem realen Fall aus der Stadt Hamburg.
Das Podcast-Team freut sich sehr über Feedback und Empfehlungen!
Shownotes
Projekt EDDI bei hoou.de: https://www.hoou.de/projects/eddi-epidemic-disease-detectives-hamburg/preview
EDDI im Gamesmaster Wiki: https://wiki.gamesmaster-hamburg.de/display/EDDI/EDDi+-+Epidemic+Disease+Detective+Hamburg
Juliane Bönecke @ Twitter: twitter.com/jlnbnck / @jlnbnck
Juliane Bönecke: https://www.haw-hamburg.de/hochschule/beschaeftigte/detail/person/person/show/juliane-boenecke/
Maik Helfrich: https://www.haw-hamburg.de/hochschule/beschaeftigte/detail/person/person/show/maik-helfrich/172/
GamesLab der HAW Hamburg: http://www.gamesmaster-hamburg.de/
Instagram-Account vom GamesLab
https://www.instagram.com/gamesmasterhamburg/
Weitere Spiele auf hoou.de
Hausarbeit mit Horst https://blogs.hoou.de/horst/
Abenteuer Rechtsmedizin – Können Sie den Fall lösen?
https://www.hoou.de/projects/63cf2148-9669-4d84-be8b-decefa28e08e-1/preview
Portrait: Juliane Bönecke
Lizenz: Juliane Bönecke, CC BY-SA 4.0
Portrait: Mail Helfrich
Foto von Leonie Saremba, 2020
Weitere Links
Hamburg hOERt ein HOOU! Exponentielles Wachstum verstehen und damit umgehen: https://www.hoou.de/blog/episodes/hamburg-hoert-ein-hoou-exponentielles-wachstum-verstehen-und-damit-umgehen
Ralf Reintjes, HAW Hamburg: https://www.haw-hamburg.de/hochschule/beschaeftigte/detail/person/person/show/ralf-reintjes/
Kooperationspartner
Bernhard-Nocht-Institut füt Tropenmedizin (International Teaching and Capacity Building): https://www.bnitm.de/forschung/forschungsgruppen/epidemiologie-und-diagnostik/abteilung-infektionsepidemiologie/international-teaching-and-capacity-building-itcb
Feedback
Feedback und Kommentare gern an @HOOU_HAW via Twitter oder per Mail an team_hoou@haw-hamburg.de und wir freuen uns über Empfehlungen im Freundes- oder Bekanntenkreis und überall, wo Podcasts empfohlen werden können.

13.01.2021 | HOOU
4215: Julia Zwick – Digitalisierung und Nachhaltigkeit
Wie vertragen sich Digitalisierung und Nachhaltigkeit?
Julia Zwick hat in München Management sozialer Innovationen und in Hamburg Soziologie studiert. In ihrem Leben davor war sie als gelernte Erzieherin an einer bilingualen Grundschule als Hortleitung tätig. Das Bildungsthema hat sie auch in ihrer Freizeit nie losgelassen, weshalb sie im Rahmen der evangelischen Jugend Bayern jugendpolitisch – mit den Schwerpunkten Bildungspolitik und Netzpolitik – tätig war.
Zwei Jahre lang konzipierte und organisierte sie den Bildungsbereich des sozialen Kunst- und Kulturfestivals Millerntor Gallery. Ann-Kathrin Watolla und Stephan Dublasky sprechen mit ihr über das Lernangebot “Digitalisierung und Nachhaltigkeit” der Hamburg Open Online University, das Julia bei der Agentur J&K – Jören & Konsorten mit auf den Weg gebracht hat.
Notes:
Der ökologische Fußabdruck als Marketingidee
Zum Lernangebot: Digitalisierung und Nachhaltigkeit
Vorankündigung: Digitalisierung und Nachhaltigkeit


Podcast Hamburg hOERt ein HOOU mit Oliver Tacke zu H5P
23.08.2020 | HOOU
Hamburg hOERt ein HOOU: Oliver Tacke - h5p

Der H5P Augmented Reality Scavenger
Aufzeichnungsdatum: 20.08.2020
Gast: Oliver Tacke
Christian Friedrich im Gespräch mit Oliver Tacke. Oliver hat mit HOOU Fördergeldern einen H5P Augmented Reality Inhaltstyp entwickelt. Was H5P genau ist, was damit möglich ist und was es mit dem Augmented Reality Inhaltstyp auf sich hat, hier im Podcast.
Feedback sehr gern an das Team der HOOU HAW unter @ HOOU_HAW oder per Mail an team_hoou@haw-hamburg.de.
Shownotes
Oliver Tacke im Web:
https://www.olivertacke.de/ – https://twitter.com/otacke
HOOU Unpodcast https://www.hoou.de/blog/episodes/hamburg-hoert-ein-hoou-unpodcast-und-auftakt-startcamp-meets-hoou
Podcast: Bldg-Alt-Entf https://bldg-alt-entf.de/
Edufunk Netzwerk https://edufunk.fm/
H5P.org https://h5p.org/
Podcast: Was wir von Norwegen lernen können https://www.hoou.de/blog/episodes/hamburg-hoert-ein-hoou-was-wir-von-norwegen-lernen-koennen-frank-j-mueller-im-interview
Joubel https://joubel.com/
Augmented Reality https://de.wikipedia.org/wiki/Erweiterte_Realit%C3%A4t
Der H5P AR Scavenger in Olivers Blog: https://www.olivertacke.de/labs/2020/08/02/arrrrrr-ar/
Video-Demo: H5P AR Scavenger https://www.youtube.com/watch?time_continue=1&v=MzhsQLem4uM
4 Fragen – 4 Antworten zum Projekt „H5P AR-Scavenger“ https://open-educational-resources.de/tag/augmented-reality-ar/
OER for Augmented Reality (AR) Education https://open-educational-resources.de/oer-for-augmented-reality-ar-education/
AR und VR in der Lehre https://hochschulforumdigitalisierung.de/de/blog/virtual-und-augmented-reality-in-der-lehre
AR für Lehrprojekte in der Wirtschaftsinformatik https://createmixedreality.blogs.uni-hamburg.de/augmented-reality/
Kollaborative AR in der Hochschule