26.02.2026 | Christian Friedrich

LLMs angreifen! OWASP’s Top 10

avatar
Prof. Dr. Volker Skwarek
avatar
Prof. Dr. Ingo Timm
avatar
Monina Schwarz

LLM Verwundbarkeiten und deren Absicherung: Wir besprechen die OWASP Top 10!

Eigentlich ist das Open Web Application Security Projects (OWASP) als amerikanische NGO international im Bereich von Web-Anwendungen und deren Sicherheit unterwegs. Da LLMs mit ihrer Bedienung, Verfügbarkeit und Lernbasis aber auch irgendwie im Web anzusiedeln sind, hat OWASP ein Projekt, das sich um LLM-Verwundbarkeiten und deren Absicherung kümmert. An dieser Dokumentation in der Version 2025 vom 18. Nov. 2024 orientieren wir uns im Gespräch heute. Und wir verlinken sie euch in den Shownotes.

OWASP Top 10 for LLM Applications 2025

Unsere Folge zur (Un-)Sicherheit von LLMs, insbesondere in Sicherheitsbehörden

Podcast App Empfehlungen

Unsere Kapitelbilder könnt ihr mit einer guten Podcast App sehen. Zum Beispiel mit:

Antenna Pod (Android)

Pocket Casts (Android & iOS)

Overcast (iOS)

Die Sicherheits_lücke im Netz

Abonniere Die Sicherheits_lücke überall, wo es Podcasts gibt, oder über unsere Website: https://www.sicherheitsluecke.fm

Die Sicherheits_lücke bei Mastodon

Die Sicherheits_lücke bei LinkedIn

Die Sicherheits_lücke bei Pixelfed

Feedback oder Kritik? Wünsche? Schreib uns: post@sicherheitsluecke.fm

Die Sicherheits_lücke ist ein Podcast der Hamburg Open Online University (HOOU).

Monina Schwarz, LSI Bayern

Ingo Timm beim DFKI

Volker Skwarek an der HAW Hamburg

Produktion und Musik: Christian Friedrich

Das in dieser Episode verwendete Bildmaterial steht unter der Lizenz CC-BY 4.0, Urheberin ist Anne Vogt.

Podcast Design: Anne Vogt

29.01.2026 | Christian Friedrich

(Un-)sicher mit LLMs?

avatar
Prof. Dr. Volker Skwarek
avatar
Prof. Dr. Ingo Timm
avatar
Monina Schwarz
avatar
Dr. Tobias Wirth

Untertitel

Zu Gast: Dr. Tobias Wirth, Leiter des Transferlabors Innere Sicherheit am DFKI

Beschreibung

Mit Tobias Wirth haben wir über die (Un-)Sicherheit von LLMs und KI Anwendungen in Sicherheitsbehörden gesprochen. Er ist Themenfeldleiter für generative und transparente KI im Forschungsbereich smarte Daten- und Wissensdienste am DFKI und leitet das Transferlabor KI-Forschung für die Polizei KI4POL.

Im Gespräch geht es um Möglichkeiten, LLMs auszutricksen, darum, wie Sicherheitsbehörden sich gegen die größten Angriffsvektoren schützen können und darum, was wir daraus auch auf den Alltag außerhalb von Sicherheitsbehörden lernen können.

Dr. Tobias Wirth (DFKI)

Dr. Tobias Wirth (LinkedIn)

BSI-Publikationen

BSI: Generative KI-Modelle – Chancen und Risiken für Industrie und Behörden (PDF)

BSI: Evasion-Angriffe auf LLMs – Gegenmaßnahmen (PDF)

Sicherheit und Schwachstellen

Malwarebytes: ChatGPT Deep Research Zero-Click Vulnerability

OWASP Top 10 for Large Language Model Applications

Agentic LLM Vulnerabilities (arXiv, Stanford HAI)

Tools und Ressourcen

GARAK – LLM Vulnerability Scanner

JailbreakChat (GitHub)

Prompt Injection in the Wild (Kaggle Dataset)

Podcast App Empfehlungen

Unsere Kapitelbilder könnt ihr mit einer guten Podcast App sehen. Zum Beispiel mit:

Antenna Pod (Android)

Pocket Casts (Android & iOS)

Overcast (iOS)

Die Sicherheits_lücke im Netz

Abonniere Die Sicherheits_lücke überall, wo es Podcasts gibt, oder über unsere Website: https://www.sicherheitsluecke.fm

Die Sicherheits_lücke bei Mastodon

Die Sicherheits_lücke bei LinkedIn

Die Sicherheits_lücke bei Pixelfed

Feedback oder Kritik? Wünsche? Schreib uns: post@sicherheitsluecke.fm

Die Sicherheits_lücke ist ein Podcast der Hamburg Open Online University (HOOU).

Monina Schwarz, LSI Bayern

Ingo Timm beim DFKI

Volker Skwarek an der HAW Hamburg

Produktion und Musik: Christian Friedrich

Das in dieser Episode verwendete Bildmaterial steht unter der Lizenz CC-BY 4.0, Urheberin ist Anne Vogt.

Podcast Design: Anne Vogt

18.12.2025 | Christian Friedrich

Brandbeschleuniger KI?

avatar
Monina Schwarz
avatar
Prof. Dr. Ingo Timm
avatar
Prof. Dr. Volker Skwarek
avatar
Christian Friedrich

Ist KI der Brandbeschleuniger in der Cybersicherheit? Wir sprechen über (vermeintliche) Angriffe mit KI-Systemen und darüber, was wir aus ihnen lernen können.

Ist KI der Brandbeschleuniger in der Cybersicherheit? Wir sprechen über (vermeintliche) Angriffe mit KI-Systemen und darüber, was wir aus ihnen lernen können.

Anthropic: Disrupting the First Reported AI-Orchestrated Cyber-Espionage Campaign

BleepingComputer: Anthropic Claims of Claude AI-Automated Cyberattacks Met with Doubt

The Hacker News: Chinese Hackers Use Anthropic’s AI to Launch Automated Cyber Espionage Campaign

Heise: Autonome KI-Cyberattacke: Hat sie wirklich so stattgefunden?

BSI Studie, DFKI Müller Vogt, Nonnengart, Kusch, Meyer-Vitali: Security of AI-Systems: Fundamentals Security Considerations for Symbolic and Hybrid AI

EU AI Act – Offizieller Text

EU AI Act Explorer – Article 15: Accuracy, Robustness and Cybersecurity

OpenAI: Attacking Machine Learning with Adversarial Examples

Wikipedia: Adversarial Machine Learning

IEEE: Explainable AI in Cybersecurity – A Comprehensive Framework

Cybersecurity Tribe: An Introduction to Agentic AI in Cybersecurity

Podcast App Empfehlungen

Unsere Kapitelbilder könnt ihr mit einer guten Podcast App sehen. Zum Beispiel mit:

Antenna Pod (Android)

Pocket Casts (Android & iOS)

Overcast (iOS)

Die Sicherheits_lücke im Netz

Abonniere Die Sicherheits_lücke überall, wo es Podcasts gibt, oder über unsere Website: https://www.sicherheitsluecke.fm

Die Sicherheits_lücke bei Mastodon

Die Sicherheits_lücke bei LinkedIn

Die Sicherheits_lücke bei Pixelfed

Feedback oder Kritik? Wünsche? Schreib uns: post@sicherheitsluecke.fm

Die Sicherheits_lücke ist ein Podcast der Hamburg Open Online University (HOOU).

Monina Schwarz, LSI Bayern

Ingo Timm beim DFKI

Volker Skwarek an der HAW Hamburg

Produktion und Musik: Christian Friedrich

Das in dieser Episode verwendete Bildmaterial steht unter der Lizenz CC-BY 4.0, Urheberin ist Anne Vogt.

Podcast Design: Anne Vogt

09.12.2025 | Christian Friedrich

Zamina Ahmad

avatar
Christian Friedrich
avatar
Nicola Wessinghage
avatar
Zamina Ahmad

Gründerin und Beraterin Zamina Ahmad im Gespräch mit Christian Friedrich über faire und verantwortungsvolle KI

Zamina Ahmad ist Expertin für maschinelles Lernen und hilft Unternehmen, KI Anwendungen sinnvoll einzusetzen. Sie setzt sich für Faire KI ein und in dieser Folge geht es auch darum, was das für sie und andere bedeuten kann.

Zamina hat ein Beratungsunternehmen gegründet, dass sich mit Fragen rund um Fairness und Ethik von KI-Anwendungen befasst. Sie hat einen eigenen Podcast, hält regelmäßig Vorträge, gibt Workshops zum Thema KI und ihrem verantwortungsbewusster Einsatz in Organisationen und in Unternehmen. Im Gespräch teilt Zamina auch Tipps, was einzelne Nutzende in ihrer privaten Nutzung von Chatbots wie ChatGPT tun können, um Vorurteile, Stereotypen und vielleicht auch unerwünschte Ergebnisse ein Stück weit zu minimieren.

Website: Zamina Ahmad

Website: shades & contrast

LinkedIn: Zamina Ahmad

Instagram: Zamina Ahmad

Sinus Milieus (Wikipedia)

Podcast: Halbe Katoffel

Programmiersprache Python (Wikipedia)

Zaminas Buchempfehlung: Bas Kast, Wie der Bauch dem Kopf beim Denken hilft

Fair Tech, Fair Society (Podcast)

HOOU Lernangebote

KI und Diversität

Design Thinking

Diversify

Credits

Moderation: Nicola Wessinghage und Christian Friedrich

Musik: Jakob Kopczynski

Produktion: Christian Friedrich

Die Angebote zum Selbstlernen auf der Online-Plattform der Hamburg Open Online University stehen allen Interessierten frei zur Verfügung.

Um unsere Lernangebote zu nutzen, brauchst du weder zu studieren noch bestimmte Voraussetzungen zu erfüllen. Schau einfach online vorbei. Unsere Internetadresse ist www.hoou.de

Feedback, Anregungen und Kommentare zum Podcast erreichen uns per E-Mail unter waswillstduwissen@haw-hamburg.de

Hamburg, was willst du wissen? bei Instagram

Hamburg, was willst du wissen? bei Mastodon

Symbolbild KISS*

Zwei junge Menschen haben in ihrer Mitte einen Roboter an der Hand.

24.08.2021 | Katrin Schröder

Projektabschluss KISS*

KISS* hat nichts etwa mit Küssen oder der Rock-Band zu tun, sondern ist ein Lernangebot mit dem Namen Künstliche Intelligenz für Schüler:innen und Studierende.

Symbolbild KISS*
Zwei junge Menschen haben in ihrer Mitte einen Roboter an der Hand.

Das Lernangebot ist ein Produkt des Hackathon Hacks&Tools im Februar 2020. 
Werner Bogula konnte mit seinem Konzept, ein offen lizenziertes Online-Bildungsangebot zu dem Thema Künstliche Intelligenz zu schaffen, die Jury überzeugen. 

Zum Glück, denn herausgekommen sind 14 Lerneinheiten, die sowohl für interessierte Selbstlerner:innen, als auch in geführten Lerngruppen (z. B. im Unterricht oder Seminar) bearbeitet werden können. 

Lernende können sich durch die Bearbeitung der OER ein breites Wissen zu Künstlicher Intelligenz aneignen: So werden neben der Technik und Anwendung auch beleuchtet, wer verantwortlich für die Entscheidungen von KI und deren Einsatz in der Gesellschaft ist. Viele Beispiele werfen Fragen auf: Wer überwacht die Maschinen? Wenn die Maschine immer besser ist als der Mensch, wofür ist der Mensch dann noch da? Und wie funktioniert maschinelles Lernen überhaupt?

Die anschaulich aufbereitete OER wechselt zwischen Input als Text, H5P-Abfragen und Videos ab.

HOOU@HAW: Wie kamst Du auf die Idee, ein Lernangebot zu künstlicher Intelligenz zu machen? 

Werner: Ich arbeite seit langem als Trainer für Journalist:innnen und Aktivist:innen und habe damals festgestellt, dass es zum Thema Künstliche Intelligenz wenig gutes Lehrmaterial für Einsteiger:innen gegeben hat. Dazu kommt, dass Mathematik und Informatik viele Wissbegieriege abschreckt. Daher dachte ich, es wäre einen gute Idee, das Thema einmal von der Alltagserfahrung junger Leute aufzuziehen und so Schüler*innen und Studierende an das Thema heranzuführen.

HOOU@HAW: Du warst bei den Anfängen des Internets in den 90ern mittendrin. Hättest Du Dir diese steile Entwicklung damals vorstellen können?

Werner: Es ist wirklich atemberaubend, was in meiner Lebenszeit an digitalen Revolutionen stattgefunden hat. Als ich studiert habe, ging es gerade um den Übergang vom Bleisatz auf Digitaldruck, dann kann das Internet mit dem Online-Journalismus und in den letzten Jahren nun die KI-Revolution. 

HOOU@HAW: Was fasziniert Dich an künstlicher Intelligenz und was macht Dir vielleicht auch Angst?

Werner: Als Softwareentwickler war ich es immer gewohnt, dass man Maschinen haarklein sagen muss, was sie tun sollen. Mit der KI gibt es nun völlig neue Möglichkeiten, dass Maschinen aus Beispielen lernen und damit Bereiche erschlossen werden, die vorher nicht maschinell bearbeitet werden konnten. Am meisten fasziniert mich die Spracherkennung und Sprachverarbeitung, weil es die komplexesten Probleme mit sich bringt. Angst habe ich keine. Aber es stimmt mich bedenklich, dass viele sich eine Meinung zu KI bilden oder auch Angst davor entwicklen, ohne genauer informiert zu sein, was KI kann oder nicht kann. Ich hoffe mit KISS* einen Baustein beitragen zu können, sich eine informierte Meinung über KI zu bilden.

HOOU@HAW: Warst Du bereits vor dem Hackathon in der OER Community unterwegs und welche Vorteile siehst Du in der Entwicklung und Bereitstellung von offen lizensierten Bildungsmaterialien?

Werner: Der Hackathon war meine erste Begegnung mit der OER Community. Aber da ich als Softwareentwickler ein riesiger Fan von Open Source Software bin, hat mich der OER-Gedanke gleich angesprochen, und der Wunsch das Prinzip der freien Verfügbarkeit einmal auf Wissen anzuwenden war sofort da. Mithilfe der Förderung durch die HOOU konnte ich das dann glücklicherweise gleich umsetzen und die Erfahrung war wirklich fantastisch. Ich finde es super, dass die Universitäten über die HOOU mit den OERs Wissen für alle bereitstellen, damit in die Gesellschaft hineinwirken und zu eigenen Lehr- und Lernprojekten anregen. 

Hier geht es zum Lernangebot.

An dieser Stelle sagen wir noch: Vielen Dank, für diese schöne und gute Zusammenarbeit, lieber Werner. Wir sind gespannt, welche Entwicklungen die Technologie in der Zukunft noch nimmt.