Das Bild zeigt zwei Hände, die einander fast berühren. Das eine ist eine menschliche Hand, das andere eine Roboterhand.

Bild: MMKH/KI-generiert

23.04.2024 | Meena Stavesand

Ethik-Professor über KI: Warum wir als Gesellschaft Technologien besser verstehen sollten  

In den Maschinenraum der KI-Entwicklung möchte Prof. Dr. Maximilian Kiener die Nutzerinnen und Nutzer seines Lernangebots „Ethics by Design“ entführen. Warum es der Ethik-Professor und Leiter des „Institute for Ethics in Technology“ an der TU Hamburg für nötig hält, dass mehr Menschen verstehen, wie KI funktioniert und wie sie unser Leben beeinflusst, erklärt er uns im Interview. Spannende Themenfelder sind für ihn: Daten, Demokratie, Fairness, Verantwortung und Sicherheit. Aber es geht auch um die existenzielle Frage, welche Rolle eigentlich der Mensch noch spielt, wenn immer mehr Aufgaben an die KI gehen.

Prof. Kiener, welche Frage beschäftigt Sie aktuell am meisten, wenn es um KI und Ethik geht?

Prof. Dr. Maximilian Kiener: Ich sehe, wie leistungsfähig neue KI-Systeme sind. Es sind unheimlich komplexe Systeme, die mit uns sprechen, sie ersetzen teilweise sogar unsere menschlichen Ärztinnen und Ärzte. Und die Entwicklung zeigt nur nach oben. Ich frage mich also: Wie können wir es schaffen, dass diese so leistungsfähigen KI-Systeme ethischen Standards genügen, dass Macht und Werte Hand in Hand gehen können, dass wir eine technologische Innovation haben, die nachhaltig im doppelten Wortsinn ist? Damit meine ich, dass sie nachhaltig ist, weil es möglich ist, sie in die Zukunft zu tragen, aber auch, weil sie es wert ist, sie in die Zukunft zu tragen.

Ethische Fragestellungen sollten also bei der KI-Entwicklung direkt mitgedacht werden?

Kiener: Ja, keine Technologie ist vollkommen neutral. Es gibt immer Hintergrund- oder Wertannahmen, die die Technologie beeinflussen. Künstliche Intelligenz ist hier keine Ausnahme. Im Gegenteil, KI scheint in besonderem Maße durch ethische Weichenstellungen formbar. Wir müssen uns daher der Frage annehmen, wie wir Ethik effektiv in die KI integrieren.

Haben Sie dafür ein Beispiel?

Kiener: Wenn KI in der Arbeitswelt beim Einstellungsprozess zum Einsatz kommt, müssen wir dafür sorgen, dass bestimmte Personengruppen nicht systematisch ausgeschlossen werden. Wenn KI in autonomen Fahrzeugen eingesetzt wird, müssen wir Sicherheit von Anfang an mitdenken. Und wenn KI anfängt, unseren gesellschaftlichen Diskurs zu beeinflussen, müssen wir über das Verhältnis von Technologie und Demokratie nachdenken.

Wie kann das gelingen?

Kiener: Ethik muss als Disziplin von der bloßen Resultatsbewertung in eine Prozessbegleitung der KI-Entwicklung überführt werden. Ethik soll nicht der Zeigefinger oder der Zaungast sein, der sagt: „Nein, das dürft ihr nicht!“ Oder: „Ja, das geht schon.“ Sie soll die Begleitung in allen Entwicklungsschritten einer KI sein; begonnen mit der Frage, wofür brauchen wir diesen Algorithmus überhaupt? Was wollen wir damit erreichen? Welche Daten wollen wir sammeln? Wie dürfen wir diese Daten eigentlich sammeln? Wie können wir testen, ob ein KI System nicht nur einer Personengruppe zugute kommt, sondern allen?

Wie kann man sich diesen Prozess bildlich vorstellen?

Kiener: Diesen Prozess kann man sich ein bisschen wie die Zubereitung eines guten Essens vorstellen. Es gibt verschiedene Zutaten, bestimmte Zubereitungsprozesse: Man schneidet etwas, man rührt um, man knetet und schiebt vielleicht auch etwas in den Ofen. Und im Grunde entstehen bei jedem Schritt andere oder neue Fragen. So ist es auch in der Technologie: die verschiedenen „Zubereitungsschritte“ in der Küche entsprechen verschiedenen Entwicklungsstadien in der KI-Entwicklung. Und auch in letzterer gibt es so etwas wie Zutaten, beispielsweise Daten, und Verarbeitungsprozesse wie etwa maschinelles Lernen. Exzellente Technologie zeigt ethische Sensibilität und Knowhow in all diesen Stadien, ebenso wie ein Maître de Cuisine den kulinarischen Prozess allumfassend versteht.

ChatGPT ist wahrscheinlich das bekannteste KI-Tool. Der Chatbot spuckt in Sekundenschnelle Antworten aus, richtig sind die allerdings nicht immer. (Bild: Emiliano Vittorios/Unsplash)

Stichwort: Generative KI. Sehr viele Menschen können sie unmittelbar erleben. Dennoch gibt es Schlagzeilen wegen diskriminierender Antworten. Ethische Fragestellungen wurden wohl zu wenig mitgedacht. Wie lässt sich das beheben?

Kiener: Die Zugänglichkeit zu dieser Technologie sehe ich zunächst positiv. Während es vor wenigen Jahren für viele Menschen noch Science-Fiction war, können wir nun alle im Alltag erleben, welche Leistungen und welchen Mehrwert KI leisten kann. Aber es ist eben auch eine Herausforderung und mitunter ein Spiegel bestehender gesellschaftlicher Vorurteile und Probleme. Wir müssen uns in einem umfassenden gesellschaftlichen Diskurs fragen, wie wir neben den Ressourcen akademischer Ethik auch die Erfahrung der Menschen mit dieser Technologie als Feedback effektiv nutzen können, um – wie wir das an der TUHH sehen – auch Technik für den Menschen zu schaffen.

Wie finden Sie die Entwicklung von KI generell?

Kiener: Insgesamt sehe ich die Entwicklung von KI positiv, es ist eine Art Demokratisierung der Technologie, weil viele Menschen einen Zugang dazu bekommen. Aber es geht auch eine sehr große Macht von Unternehmen aus. Diese Technologien werden oftmals nicht nur, oder nicht einmal primär, an Universitäten oder öffentlichen Forschungseinrichtungen entwickelt, sondern von einer Handvoll sehr mächtiger Technologieunternehmen. Von den zehn größten Unternehmen der Welt spielen sieben bei der KI-Entwicklung mit. Einige sprechen daher bereits von „privaten Supermächten“, die dann beispielsweise im Bereich Social Media bestimmen könnten, was eigentlich als Meinungsfreiheit bei uns zählt, was man sagen darf. Doch das sind Aufgaben, die klassischerweise dem Staat zukommen.

Dieses Video zeigt die Antrittsvorlesung von Prof. Dr. Maximilian Kiener an der TU Hamburg mit spannenden Beiträgen von etwa Prof. Dominic Wilkinson und Dr. Andrew Graham (beide Oxford).

Wie könnte das gelingen?

Kiener: Ein wichtiger Schritt sind sicherlich Regulierungen. In diesem Jahr gab es beispielsweise die Verabschiedung des AI Act der EU. Was ich ebenfalls sehr begrüße, ist die Bemühung, die Erklärbarkeit von KI-Systemen zu stärken und auch den Menschen Rechte zu geben, wenn KI-Systeme in wichtige Entscheidungen involviert sind, also etwa in Fragen, ob ich den Job, den Kredit oder das Krankenhausbett bekomme.

Sie meinen eine höhere Transparenz der KI-Entscheidungen, also dass mehr Menschen einen Einblick bekommen, was da hinter den verschlossenen Türen der Technologieunternehmen passiert?

Kiener: Ja, so könnte man das sagen. Allerdings könnte der Begriff Transparenz in diesem Zusammenhang oftmals nur darauf hinweisen, dass es eine Auskunft darüber gibt, dass KI verwendet wird. „Erklärbarkeit“ geht einen Schritt weiter und versucht zu erläutern, wie die konkreten Entscheidungen getroffen werden.

Wie können wir Ethik in die Technologie bringen? Was ist Ethik eigentlich genau?

Kiener: Ethik ist eine akademische Disziplin, die Fragen danach stellt, wie wir gut und richtig handeln, wie wir gut leben wollen als Individuum und als Gemeinschaft. Es geht dabei aber nicht darum, nur Checklisten abzuhaken oder Kommissionen einzusetzen. Es ist eine wirkliche Reflexion: gemeinsam nachdenken – mit den Fakten, die wir haben, und mit den Werten, denen wir uns verbunden fühlen wie Freiheit und Gleichheit.  Aus den Schlussfolgerungen daraus ergeben sich Empfehlungen für den Umgang mit Technologie. Dabei gibt es einige Kernthemen in der KI, die uns vor Herausforderungen stellen.

Können Sie uns ein Beispiel geben?

Kiener: Im Kern vieler Fragen gibt es ein Datenproblem, da KI im Training oftmals sehr viele Daten benötigt. Meistens werden wir gefragt: Stimmen Sie der Datennutzung zu? Dies geschieht in vielen Interaktionen im Internet. Doch niemand liest wohl je alle ‚terms and conditions‘ wirklich durch. Also müssen wir uns die Frage stellen, ob diese Art der Zustimmung noch ein geeignetes Instrument ist, unsere Daten hinreichend zu schützen oder ob wir diesen Bereich täglicher Praxis grundlegend neu bewerten müssen. Wir müssen uns also damit beschäftigen, wie wir unsere personenbezogenen Daten schützen, die die KI oftmals braucht, oder gegebenenfalls die Bereiche der KI beschränken. Eine weitere Herausforderung ist, dass die Verarbeitung und Nutzung großer Datenmengen, einschließlich personenbezogener Daten, nicht nur unser individuelles Leben betrifft, sondern auch unsere Demokratie angreifen kann.

Der Cambridge-Analytica-Skandal hat gezeigt, dass Datenmissbrauch auch zum Risiko für demokratische Wahlen werden kann. Was passiert also mit unserer Demokratie, mit unserer Gesellschaft, wenn Daten es ermöglichen, Verhalten präzise vorauszusagen und ebenso präzise Einfluss auf Wählerverhalten zu nehmen? Welche Art von Macht entsteht hier und entscheidet diese über unser Zusammenleben als Gesellschaft? Ein weiterer schwieriger Bereich ist die Frage nach der Fairness; auch die beste KI wird nicht perfekt sein. Immer dort, wo die KI auf Grundlage vergangener Daten lernt, lernt sie auch die bestehenden Vorurteile in unserer Gesellschaft, führt diese fort oder verschärft sie sogar. 

Wer entscheidet darüber, ob jemand zu einem Vorstellungsgespräch eingeladen wird. Mensch oder bald doch KI? Wie garantieren Unternehmen Bewerberinnen und Bewerbern dann, dass niemand diskriminiert wird? (Bild: Gabrielle Henderson/Unsplash)

Wir haben also das Problem mit den Daten und einer möglichen Einflussnahme auf unsere Demokratie und die kaum vorhandene Fairness von KI-Systemen, weil sie zu viele diskriminierende Daten enthält. Gibt es einen weiteren Punkt?

Kiener:  Ein zentrales Element ist für mich die Frage der Verantwortung. Gerade weil KI so viele Bereiche unseres Lebens betreffen wird, ist es wichtig, dass die Verteilung der Verantwortung klar geregelt ist. Ein Aspekt der Verantwortung erscheint mir dabei besonders wichtig, nämlich der des Ablegens von Rechenschaft. Entwickler:innen und Unternehmen, aber auch Politiker:innen und Nutzer:innen müssen Klarheit darüber haben, welche Pflichten sie bei der Entwicklung, Regulierung und Nutzung von KI haben und inwieweit sie anderen dafür Rechenschaft schuldig sind.

Das stimmt. Dann geht es um sehr existenzielle Fragen.

Kiener: Ja. Was macht uns Menschen eigentlich aus? KI erledigt viele Aufgaben für uns. Dennoch sind Menschen immer noch wichtig. Worin aber genau besteht das, was uns als Menschen ausmacht? Ist es Kreativität, Empathie, Moralität? Und wie können wir diese Aspekte im technologischen Fortschritt erhalten und weiterentwickeln?

Sie konzipieren derzeit ein Lernangebot für die HOOU. „Ethics by Design“ dreht sich auch um KI. Worum wird es gehen?

Kiener: „Ethics by Design“ ist der Versuch, Ethik in alle Entwicklungsphasen leistungsstarker KI zu integrieren. In unserem Lehrangebot soll gezeigt werden, wie das an verschiedenen Punkten möglich ist, welche Gestaltungsspielräume wir in der Entwicklung verschiedener Technologien haben können, also auch in welcher Beziehung Regulation und Innovation stehen.

Für welche Richtung soll man sich entscheiden? In dem Lernangebot „Ethics by Design“ möchte Prof. Kiener verschiedene Szenarien aufwerfen, die die Nutzerinnen und Nutzer durchspielen können. (Bild: Brendan Church/Unsplash)

Wie hilft Ihr Lernangebot dabei?

Kiener: Wir haben Szenarien, die die Lernenden aus ihrem Alltag kennen und in unserem Lehrangebot noch einmal aus ethischer Perspektive durchspielen können. Dies könnte beispielsweise unsere Nutzung von Smartphones betreffen, wo  wir oft der Sammlung von Daten zustimmen, oder auch unsere Interaktion mit ChatGPT. Wir beginnen mit Bekanntem und führen die Lernenden sozusagen in den „Maschinenraum“ der KI,  also in die Entwicklung, und zeigen, wie es eigentlich zu den uns bekannten Situationen gekommen ist, ob diese so sein müssen und wie wir über mögliche Alternativen ethisch nachdenken können. Im Grunde ist es wie eine Dokumentation über Nahrung. Wir essen jeden Tag, aber wir wissen nicht genau, wie unser Essen eigentlich hergestellt wird. Aber wenn wir es wissen, essen wir bewusster. Wir wollen also auch hier ein größeres Bewusstsein für die Vorgänge der KI schaffen.

Wie soll das Lernangebot aussehen?

Kiener: Wir haben eine ganze Reihe an interaktiven Ideen. Unsere Lerninhalte gehen über das bloße Lesen und Konsumieren hinaus. Sie ermöglichen aktives Entscheiden in konkreten Fällen und machen so die Gestaltungsmöglichkeiten in der Technologie erlebbar. Im November wollen wir damit an den Start gehen.

Sie sind als Ethik-Professor neu an der TU Hamburg und beschäftigen sich dort mit dem Zusammenspiel von Technologie und Ethik. Was wäre Ihre Idealvorstellung für dieses Feld?

Kiener: Meine große Hoffnung ist, Ethik zum Innovationsmotor zu machen. Ich wünsche mir, dass Ethik es schafft, Technologie nachhaltig voranzutreiben und dabei unsere Werte reflektiert. Ich bin ebenso gespannt auf die zukünftige Wechselwirkung zwischen Ethik und Technologie, besonders inwiefern Erkenntnisse eines Bereichs den Fortschritt im jeweils anderen beeinflussen können.

Zur Person:

Prof. Dr. Maximilian Kiener ist Juniorprofessor für Philosophie und Ethik in der Technik an der TU Hamburg, wo er das Institut für Ethik in der Technik leitet. Er hat sich auf Moral- und Rechtsphilosophie spezialisiert, mit einem besonderen Fokus auf Einwilligung, Verantwortung und KI. Außerdem ist er assoziiertes Mitglied der Philosophischen Fakultät der Universität Oxford, an der er von 2015 bis 2022 tätig war, sowie assoziierter Forschungsstipendiat am Institut für Ethik der Künstlichen Intelligenz in Oxford. Zuvor erwarb er den BPhil (2017) und DPhil (PhD / 2019) in Philosophie an der University of Oxford und arbeitete als Extraordinary Junior Research Fellow (2019-2021) und als Leverhulme Early Career Fellow in Oxford (2021-2022). Neben seiner akademischen Forschung ist er auch als Ethikberater für politische Entscheidungsträger und Industriepartner tätig, insbesondere in den Bereichen digitale Kommunikation, gute medizinische Praxis und verantwortungsvolle künstliche Intelligenz.

Eine diverse Gruppe von Menschen sitzt an einem Tisch und schaut auf einen PC Monitor

Titelbild: Jason Goodman/Unsplash

28.03.2024 | Meena Stavesand

KI und Ethik: „Wir müssen bei Innovationen interdisziplinäre Teams bilden“

„Code is law“ ist ein bekanntes Zitat von Lawrence Lessig, einem Tech-Vordenker aus den USA. Entwickler:innen haben durch ihren Code die Macht über Gesetzmäßigkeiten und lassen so auch ihre Wertvorstellungen in die Software einfließen. Das ist ein Grund, warum es eine ethische Betrachtung von Technologie geben muss. Axel Dürkop, Experte der TU Hamburg, erklärt im Interview, warum wir interdisziplinäre Teams brauchen und was aus ethischer Sicht bei dem bekannten KI-Tool ChatGPT schiefgelaufen ist.

Axel, wie bist du privat und beruflich in der letzten Zeit mit technologischen Innovationen in Berührung gekommen?

Axel Dürkop: Privat habe ich mir im letzten Jahr ein Balkonkraftwerk an die Wand geschraubt. Es ist faszinierend, am Stromzähler direkt zu sehen, wie viel Energie die Sonne an meiner Hauswand spendet. Das Thema Erneuerbare Energien habe ich dann auch bei unseren WATTwanderungen mit verschiedenen Veranstaltungen wie einem Workshop, bei dem die Teilnehmenden die Technik hinter einem Balkonkraftwerk verstehen, oder einem Kinoabend am KulturEnergieBunker – realisiert durch Energie, die wir vorher in einer Biogasanlage an den Wilhelmsburger Zinnwerken selbst herstellten und nach Altona gebracht haben. 

Ansonsten diskutiere ich in einer Informatik-Veranstaltung mit angehenden Berufsschullehrkräften die Gestaltbarkeit von Künstlicher Intelligenz. Wir setzen uns dabei praktisch mit KI auseinander – aber jenseits von ChatGPT oder Prompting. Mir geht es in der Veranstaltung um die Frage: Wie können wir für KI ethische und gesellschaftlich relevante Implikationen schaffen? Als Beispiel: Wir beschäftigen uns mit einer automatisierten Moderation von Hasskommentaren auf Social Media und diskutieren dabei Klassifikationen von Hatespeech.

Künstliche Intelligenz und Ethik sind zwei wichtige Stichwörter. Aktuell wird diskutiert, wie wir ethisch mit KI umgehen. Wie kann beides miteinander kombiniert werden?

Axel Dürkop: Im Idealfall klären wir ethische Fragestellungen zu einer neuer Technologie wie ChatGPT und Co. vor der Entwicklung. Sie lassen sich aber auch begleitend diskutieren. Wir sollten die Ethik aber nicht nachschalten. Denn: Code is law – also Code ist Gesetz. Das sagte US-Tech-Vordenker Lawrence Lessig Anfang dieses Jahrtausends. Das heißt: Die Wertevorstellungen der Entwickler:innen fließen in die Software. Wer den Code kontrolliert, hat sozusagen die Macht über Gesetzmäßigkeiten. Da braucht es eine ethische Begleitung.

Wie lässt sich das realisieren?

Axel Dürkop: Wir wissen jetzt: Bei ChatGPT hat das Zusammenspiel von Softwareentwicklung und Ethik nicht gut geklappt. OpenAI, das Unternehmen hinter dem Chatbot, hat für die Entwicklung Menschen im Globalen Süden ausgebeutet – das wäre mit einer vorgeschalteten oder begleitenden Ethik-Debatte vielleicht besser gelaufen. Es ist also wichtig, dass wir bei technologischen Innovationen interdisziplinäre Teams bilden, in denen Entwickler:innen und Ethiker:innen zusammenarbeiten.

Wie könnte eine Zusammenarbeit aussehen?

Axel Dürkop: Wenn eine Innovation wie beispielsweise ChatGPT entwickelt wird, sind dann auch Ethiker:innen an diesem Prozess beteiligt. Bei den Diskussionen, wie die Technologie oder die Software aufgebaut wird, wie sie funktionieren und wie das Qualitätsmanagement und auch das Testing aussehen soll – das sind Fragen, die auch einer ethischen Reflexion bedürfen. Dafür gibt es bestimmte Frameworks, die man heranziehen kann. Ich halte das von Sebastian Hallersleben (und weiteren) für besonders sinnvoll und belastbar. Darin gibt es sechs Kriterien, anhand derer wir eine Technologie beurteilen können.

  • Transparenz
  • Verantwortlichkeit
  • Privatsphäre
  • Recht
  • Sicherheit
  • Nachhaltigkeit

Mit diesem Framework zum Beispiel lassen sich die Wertvorstellung einer Technologie diskutieren. Das Interessante daran ist, dass wir je nach Technologie Abstufungen bei den einzelnen Punkten machen können. Bei Technik in der Landwirtschaft ist Privatsphäre nicht so entscheidet wie etwa beim Einsatz in der Medizin, wo es um vertrauensvolle Daten geht. Außerdem ist auch das Thema Nachhaltigkeit aufgegriffen, was wir nicht mehr vernachlässigen dürfen. Heutige Technologie wie etwa ChatGPT benötigt Unmengen an Kühlwasser – das können wir in unserer Bewertung nicht ignorieren. Das Framework bietet daher einen idealen Leitfaden.

Wird deiner Meinung nach aktuell genug über ethische Fragen bei Technologie gesprochen?

Axel Dürkop: Bei ChatGPT haben wir das, wie bereits gesagt, versäumt, vorher darüber zu diskutieren. Aber klar ist auch, dass eine (ethische) Regulierung mit dem technologischen Fortschritt nicht mithalten kann. Da ist Eile mit Weile geboten. Meiner Meinung nach hat der Deutsche Ethikrat eine gute Ausgangsbasis geschaffen. Generell müssen wir dahinkommen, dass wir auch in unseren Studiengängen zu Technik und Ingenieurwissenschaften das Thema Ethik von Anfang an mitdenken. Ethik gehört ins digitale Zeitalter. Darum haben wir an der TU Hamburg mit Prof. Dr. Maximilian Kiener einen Juniorprofessor für Ethik in Technologie. Das Thema gehört in unsere Ausbildungen.

Aber das sollte keine rein akademische Diskussion bleiben. Alle Menschen haben Sorgen und Befindlichkeiten, die wir ernstnehmen müssen. Wir müssen daher den Diskurs auch außerhalb der Hochschulen führen. Die Menschen sollen mitgestalten, ihre Fragen einbringen. Das war ein Grund, warum wir an der TU Hamburg das HOOU-Lernangebot „tekethics“ gestartet haben. Noch vor der Corona-Pandemie haben wir regelmäßige Treffen in den Hamburger Bücherhallen veranstaltet, um mit Bürger:innen über ethische Herausforderungen bei Künstlicher Intelligenz zu diskutieren. Wir möchten dieses Thema auch im nächsten Jahr aufgreifen: Maximilian Kiener wird sich 2024 in einem neuen HOOU-Lernangebot mit ethischem Design von KI beschäftigen. Das wird sehr spannend!

Wer sich für das Thema Ethik und KI interessiert, kann sich die aktuellen Vortragsmaterialien von Axel Dürkop anschauen. Hier gibt es auch weiteres Material von ihm – unter anderem zu dem Thema „Souverän mit KI umgehen“.

Das Bild zeigt eine Person, die auf ein Post-it schreibt.

Bild: Brands&People/Unsplash

21.02.2024 | Meena Stavesand

Workshop beim OERCamp: Was OER für Forschung und Transfer an Hochschulen tun können

In unserem Workshop beim OERCamp in Hamburg möchten wir mit den Teilnehmenden analysieren, welche Potenziale und welche Grenzen es bei der Nutzung von OER im Kontext von Forschung und Transfer gibt. Wir haben mit Ellen Pflaum und Paula Guglielmi darüber gesprochen.

Es reicht nicht, wenn die Wissenschaft neue Erkenntnisse und Ergebnisse produziert. Diese müssen auch die Öffentlichkeit erreichen. Darum stellen Ellen Pflaum von der HAW Hamburg, Dr. Paula Guglielmi von der TU Hamburg und weitere Expertinnen und Experten des HOOU-Kosmos die Frage: „Was können OER für den Bereich Forschung und Transfer an Hochschulen tun?“ Es ist ein Workshop beim OERCamp am 6. März in Hamburg. Eine Anmeldung ist noch möglich.

Wie läuft der Workshop ab? 

Ellen Pflaum: In unserem Workshop führen wir in das Thema der Transferfelder des Stifterverbandes ein und erklären, welche vier wir ausgewählt haben. Dazu geben wir einen kurzen allgemeinen Input. Danach arbeiten wir zweimal in zwei parallelen Sessions zu je einem Transferfeld. Es wird jeweils ein konkretes Beispiel vorgestellt und diskutiert. Dann sammeln wir Ideen, wie man mit Hilfe von OER die Arbeit in diesem Transferfeld leichter oder besser gestalten kann. Am Ende tragen wir im Plenum die Ergebnisse aus den vier Sessions zusammen. Die von uns ausgewählten Transferfelder sind:

  • Wissenschaftsdialog
  • Forschen und Entwickeln mit der Gesellschaft
  • Entrepreneurship
  • Transferorientierte Lehre und Weiterbildung

Dr. Paula Guglielmi: Ich gebe mit Axel Dürkop eine der angesprochenen Sessions – die zum Wissenschaftsdialog. Wir werden Kurzimpulse zu den Definitionen von Wissenschaftsdialog und OER geben, denn wir gehen davon aus, dass nicht alle Teilnehmenden OER-Expert:innen sind. Nachfolgend wollen wir in unserer Session etwa folgende Fragen diskutieren:

  • Wie können OER den Wissenschaftsdialog fördern?
  • Welche offenen Bildungsformate gibt es schon, die den Wissenschaftsdialog fördern?
  • Wo gibt es besonderes Entwicklungspotenzial? Wo werden Schwierigkeiten erwartet?

Im Anschluss diskutieren wir die gesammelten Ergebnisse.

Dr. Paula Guglielmi ist für die Wissenschaftskommunikation der HOOU tätig. Bild: Stephan Dublasky

An wen richtet sich der Workshop?

Ellen Pflaum: Der Workshop richtet sich vorrangig an Menschen an Hochschulen, Lehrende, Beratende und Menschen aus der Verwaltung, die sich eher im Bereich Forschung und Transfer sehen. Denn in Forschungsprojekten wird es immer wichtiger, dass die Ergebnisse und ihre Relevanz an die Öffentlichkeit kommuniziert werden. Das geht nicht, indem Forschung einfach Open Access gestellt wird, sondern setzt häufig voraus, dass Sachverhalte noch einmal anders aufbereitet, niedrigschwellig erklärt und visualisiert werden. Letztlich ist es ja auch ein Ziel von Forschung, dass die Ergebnisse in eine (möglichst breite) Nutzung gehen.

Dr. Paula Guglielmi: Wir möchten mit unserer Session zum Wissenschaftsdialog all jene ansprechen, die Interesse an Wissenschaftskommunikation haben und offen für neue Formate sind, die den Dialog zwischen Wissenschaftler:innen und der Gesellschaft fördern. Wir begrüßen auch gerne Menschen, die lernen wollen, wie sie offene Materialien für partizipative Veranstaltungsformate nutzen können. Hier sind Learning Circles ein Beispiel, die die HAW Hamburg und die TU Hamburg in Kooperation mit den Bücherhallen schon veranstaltet haben. Bei Learning Circles müssen die Veranstaltenden nicht selbst die Urheber:innen der Materialien sein. Es sind selbstverständlich auch Menschen willkommen, die ihre individuelle Neugier oder das Erkenntnisinteresse ihres Vereins oder ihrer Organisation im Allgemeinen mit Hochschulen verknüpfen wollen, um gemeinsam zum Thema zu arbeiten.

Wie können sich Interessierte auf den Workshop vorbereiten? 

Dr. Paula Guglielmi: Wir fänden es spannend zu hören, was die Teilnehmenden unter Wissenschaftsdialog verstehen, welche Formen sie bereits kennen und wie man OER nutzen könnte, um den Dialog zwischen Wissenschaftler:innen und Gesellschaft zu fördern.

Ellen Pflaum: Generell wäre es toll, wenn sich die Teilnehmenden im Vorfeld überlegen, was sie bereits in den Transferfeldern tun (selbst oder an ihrer Hochschule generell).

Welche Potenziale gibt es bei der Nutzung von OER im Kontext von Forschung und Transfer?

Ellen Pflaum: Die Potenziale sind vielfältig. Denn OER können auf Kontexte angepasst und verändert werden. Das heißt, dass z.B. als OER lizenzierte Artefakte, die Forschung kommunizieren, besser von anderen Forschenden oder Medien aufgegriffen werden können, an Kontexte angepasst, ergänzt oder verwendet werden können. Über OER-Lernangebote wie etwa das Angebot Science2Startup der HAW Hamburg, das pünktlich zum OERCamp veröffentlicht wird, können Personen, die aus der Hochschule oder ihrer Forschung ein Start-up gründen, mit Lernmodulen begleitet werden. So wird ihnen der Start in die Selbständigkeit erleichtert. Weitere Potenziale diskutieren wir gerne in dem Workshop.

Ellen Pflaum ist Teamleiterin der HOOU an der HAW Hamburg.

Welchen Herausforderungen muss man sich bei OER stellen?

Dr. Paula Guglielmi: Wissenschaftler:innen fühlen sich oft unwohl, wenn sie die komplexen Themen ihrer Forschung in einfachen Worten erklären müssen. Sie befürchten, dass dies ihre Reputation innerhalb der wissenschaftlichen Gemeinschaft beeinträchtigen könnte, was wiederum einen reibungslosen Dialog mit Bürger:innen verhindern könnte. Außerdem wird Wissenschaftskommunikation meistens nur in eine Richtung betrieben: von der Wissenschaft an die Gesellschaft. Es ist schwer abzuschätzen, wie offen Wissenschaftler:innen für einen echten Dialog wären und inwieweit sie Anmerkungen und Anregungen der Gesellschaft in ihre Forschung integrieren würden.

Ellen Pflaum: Ich sehe weitere Zielkonflikte. Im Bereich der Forschung gibt es etwa Auftragsforschung, es gibt Patente, die (Teil-)Ergebnisse schützen, es gibt Weiterbildung, die kostendeckend arbeiten muss. Das kann zum Beispiel die Nutzung als OER (insbesondere bei Lizenzen mit NC) ausschließen.

Wer sich für das Thema OER und die vier Transferfelder Wissenschaftsdialog, Forschen und Entwickeln mit der Gesellschaft, Entrepreneurship und Transferorientierte Lehre und Weiterbildung interessiert, ist herzlich zu unserem HOOU-Workshop eingeladen. Die Anmeldung erfolgt über die Homepage des OERCamps.

Aus Lebensmittelabfällen werden Biogas und Flüssigdünger. Steffen Walk (links) und René Hansen (rechts) sortieren den Abfall, bevor er geschreddert wird und in die Anlage kommt.

Foto: Stephan Dublasky

09.02.2024 | Meena Stavesand

Alternative Energiekonzepte: Diese Biogasanlage fütterst du mit deinen Abfällen

René Hansen hat seine Masterarbeit zu der nachhaltigen Biogasanlage in Wilhelmsburg geschrieben. Nun berichtet er über seine Forschung.

Häufig erzeugen Biogasanlagen Energie mit eigens dafür produziertem Mais. Die Biogasanlage der TU Hamburg an den Wilhelmsburger Zinnwerken geht einen anderen Weg. Sie nutzt Lebensmittelabfälle wie Bananenschalen oder Apfelreste, die sowieso bereits im Kreislauf sind. In verschiedenen Veranstaltungen der Hamburger WATTwanderungen haben wir gezeigt, wie dieses alternative Prinzip funktioniert, und mit der erzeugten Energie bereits einen Kinoabend und mehrere gemeinsame Dinner veranstaltet.

Am Freitag, 16. Februar, um 17 Uhr spricht nun René Hansen an den Zinnwerken, Am Veringhof 7 in Wilhelmsburg, über die Ergebnisse seiner Masterarbeit im Studienfach Regenerative Energien. Er hat die Biogasanlage in den vergangenen Monaten analysiert. In dem Vortrag geht er nochmals auf die Nutzung und Technik ein – aufbereitet für alle Menschen, die sich für das Thema nachhaltige Energie interessieren. Vorkenntnisse sind also nicht nötig. Der Vortrag findet zwar drinnen statt, winterliche Kleidung für die Erkundung der Anlage und für weitere Diskussionen wird aber empfohlen.

Wir haben mit René über die Ergebnisse seiner Masterarbeit und die Veranstaltung am 16. Februar gesprochen.

René Hansen, du hast deine Masterarbeit über die Biogasanlage an den Wilhelmsburger Zinnwerken geschrieben. Zu welchen Ergebnissen bist du gekommen?

René Hansen: Ich habe die Biogasanlage von April bis November 2023 untersucht und mich mit der Massen- und Energiebilanz beschäftigt. Insbesondere bei der Energiebilanz ist in meiner Analyse ein wichtiger Punkt aufgefallen: Während des Betriebs im vergangenen Jahr haben wir weniger Energie aus der Anlage gewonnen, als wir an Strom hineingesteckt haben. Das liegt an dem Aufbau der Biogasanlage, der – wie sich nun gezeigt hat – nicht ideal gelöst ist. Darum arbeiten wir an einer Verbesserung, die im März oder April umgesetzt sein sollte. Denn aktuell ist es zu kalt, die Anlage ist derzeit nicht in Betrieb.

Am 16. Februar sprichst du über die Ergebnisse deiner Arbeit. Was können die Besucherinnen und Besucher erwarten?

René Hansen: Ich gehe bei meinem 30-minütigen Vortrag auf die wichtigsten Ergebnisse meiner Masterarbeit ein, erläutere, was wir bei dem Betrieb der Biogasanlage an den Wilhelmsburger Zinnwerken im vergangenen Jahr gelernt haben, spreche über die Technik und das Nutzungskonzept der Anlage und über die bereits erwähnte Energiebilanz. Was für uns wichtig ist: Der Vortrag ist auch für Interessierte ohne technische Vorkenntnisse. Fragen sind immer willkommen. Wir möchten mit unserer Veranstaltung in den Dialog kommen, unser Wissen weitergeben und miteinander diskutieren. Außerdem werden wir mit unserem eigenen Biogas aus 2023, das wir in Säcken gespeichert haben, kochen. Es gibt also für alle Teilnehmenden auch eine leckere Stärkung.

Warum sind Biogasanlagen für eine nachhaltige Zukunft interessant?

René Hansen: Die Biogasanlage, die wir in Wilhelmsburg gebaut haben, ist ja etwas Besonderes. Wir haben hier ein anderes, innovatives und besonders nachhaltiges Konzept ausprobiert, indem wir häusliche beziehungsweise kommunale Lebensmittelabfälle verwerten. Wir nutzen also Abfälle, die sowieso da sind, energetisch weiter. Übliche landwirtschaftliche Biogasanlagen nutzen beispielsweise eigens angebauten Mais für die Energieproduktion. Von diesem Prinzip wollten wir weg.

Es geht uns bei den Veranstaltungen der Hamburger WATTwanderungen, mit denen wir die Biogasanlage und deren Nutzung begleitet haben, um alternative Konzepte für eine nachhaltige Zukunft. Wir wollen Ideen mit den Menschen diskutieren und mit ihnen gemeinsam an Lösungen arbeiten. Die Wissenschaft öffnet sich so in besonders spannender Weise. Und die Interessierten verstehen die Zusammenhänge. Wir nennen das „Erlebnislernen“. Darum freuen uns, wenn viele Hamburgerinnen und Hamburger am Freitag, 16. Februar, zu uns an die Wilhelmsburger Zinnwerke kommen und mit uns in den Dialog treten.

Wer bei der Veranstaltung bei sein möchte, kann sich bis zum Dienstag, 13. Februar, bei René Hansen anmelden – per E-Mail an: rene.hansen@tuhh.de. Wer mehr über das Thema wissen möchte, kann auch in unser Lernangebot „BioCycle“ reinschauen. Dort gibt es viele spannende Informationen.

Headerfoto: Aus Lebensmittelabfällen werden Biogas und Flüssigdünger. Steffen Walk (links) und René Hansen (rechts) sortieren den Abfall, bevor er geschreddert wird und in die Anlage kommt.

Das Bild ist KI-generiert und zeigt eine Stadt, die vor allem grün und nachhaltig ist. Solarpanels und viele Bäume sind zu sehen. (Bild: Stable Diffusion SDXL Turbo)

Bild: Stable Diffusion SDXL Turbo

02.02.2024 | Meena Stavesand

Hamburgs Vision einer grünen Zukunft: Ideen für eine nachhaltige Metropole

Mit viel Fantasie und mithilfe von KI-Tools entwickeln Menschen bei unserem Workshop der WATTwanderungen in Hamburg spannende Ideen, wie Städte nachhaltig werden können.

Manchmal muss man auch träumen dürfen, um Ideen für die Realität zu entwickeln. Und so veranstaltete das Team der Hamburger WATTwanderungen der TU Hamburg einen spannenden Workshop zum Thema Klimawandel und Nachhaltigkeit, bei dem es um die nachhaltige Zukunft der Hansestadt ging. Dabei herausgekommen sind kreative und grüne Visionen für die Stadt. Sie wurden entwickelt von Bürgerinnen und Bürgern.

Nachhaltigkeit: Symbiose von Mensch, Natur und Technologie

In einer Mischung aus Diskussion, Kunst und Technologie tauchten die Teilnehmenden auf dem Jupiter-Campus in die Welt des „Solarpunks“ ein, einer Bewegung, die eine positive und nachhaltige Zukunft durch die Symbiose von Mensch, Natur und fortschrittlicher Technologie vorwegnimmt. Die Veranstaltung war eine Feier der Möglichkeiten: Gemeinsam mit den Besucherinnen und Besuchern gelang es dem Team, durch die kollektive Vorstellungskraft und mithilfe von KI-Tools Ideen für eine ökologisch nachhaltige Lebensweise zu kreieren.

Die kreative Arbeit begann mit einer Frage: „Stell dir vor, du hast Hamburg gesehen, nachdem sich Erneuerbare Energien umfassend durchgesetzt haben. Was genau hast du gesehen?“ In den nächsten 30 Minuten passierte Folgendes:

  1. Das Team der WATTWanderungen führte mit den Interessierten im Einzelgespräch ein Interview zur nachhaltigen Zukunft Hamburgs.
  2. Die Notizen wurden zu einem englischsprachigen Prompt aufbereitet. Eine Bild-KI sollte daraus ein Bild genieren.
  3. Im nächsten Schritt wies das Team die Sprach-KI ChatGPT an, eine Geschichte daraus zu erschaffen.
  4. Mit einem QR-Code machten wir den Interessierten die Geschichten zugänglich. Sie musste nur den QR-Code mit ihrem Smartphone scannen.
  5. Wir druckten die Geschichte, hängten sie an Wäscheleinen und machten sie so für die breite Öffentlichkeit auf dem Jupiter-Campus zugänglich.
Das Bild zeigt die ausgedruckten Ideen für Geschichten - aufgehängt an einer Wäscheleine. So können alle Besucherinnen und Besucher die Geschichten lesen.
Die Geschichten der Teilnehmenden wurden ausgedruckt und aufgehängt. Bild: TU Hamburg

Das sind Geschichte und Ideen der Teilnehmenden:

Energieautarkes Hamburg

Hamburg ist nicht nur energieautark, sondern auch ein Vorreiter in Sachen Umweltschutz und Gemeinschaftsgeist. Die Bewohner haben gelernt, ihre Ressourcen zu schätzen und miteinander zu teilen. Der Überschuss an Energie wurde in das nationale Netz eingespeist, wodurch auch andere Regionen von den nachhaltigen Praktiken der Stadt profitierten.

Dächer als lebendige Energiequellen

Eine Firma namens „Solardach Bremen“ begann damit, die Dächer von Mehrfamilienhäusern in lebendige Energiequellen umzuwandeln. Die Bremer Architektur erhielt durch die grünen Dächer eine neue Dimension: Die Bewohnerinnen und Bewohner der Häuser freuten sich zum einen über die vermietbare nachhaltige Solarnutzung und zum anderen über das grüne, lebendige Umfeld über ihren Köpfen.

Die perfekte Stadt

Keine Autos, keine Massentierhaltung. Dafür gibt es Windräder, die zu Skulpturen geworden waren. Energiebetriebene Campingmobile, die sich durch die grüne Stadt bewegen. Ein Netzwerk von Beamern, betrieben durch erneuerbare Energien, die es den Menschen erlebten, sich in Sekundenschnelle an jeden Ort der Welt zu teleportieren. So könnte die perfekte, nachhaltige Stadt aussehen.

Auf dem Bild ist der TU-Mitarbeiter Stephan Dublasky mit einem der Teilnehmenden im Gespräch zu sehen.
Hier spricht Stephan Dublasky von der TU Hamburg mit einem der Teilnehmenden. Bild: TU Hamburg

Weiterer Workshop geplant

Es sind spannende Ideen in dem Workshop entstanden, den es nun zu reflektieren gilt. Klar ist aber bereits: Es wird eine Fortsetzung der Arbeit geben. Das Team möchte sich dann mehr Zeit für die Einführung in die Arbeit, vorrangig mit den KI-Tools, und Interpretationen nehmen.

Eine Frau zeigt zwei Kindern ChatGPT an einem Notebook

Titelbild: Maximilian Glas

27.10.2023 | hoouadmin

Nutze diesen Tag und erzähle eine Geschichte – mit ChatGPT und unserem Lernangebot

Heute – am 27. Oktober – wird vor allem in Großbritannien der Erzähl-eine-Geschichte-Tag gefeiert. Und welche Jahreszeit wäre besser geeignet, um sich mit den Themen Geschichten, Märchen und Fantasiewelten zu beschäftigen, als der Herbst?

Mündliche Überlieferungen sind die älteste Form der Unterhaltung. Unterhaltung im Sinne der Kommunikation und der Aufrechterhaltung eines gesellschaftlichen Gedächtnisses auf der einen Seite, jedoch auch im Sinne von Zeitvertreib auf der anderen Seite. Uralte Götter- und Heldensagen, Zaubermärchen und Legenden bereichern bis heute unseren Alltag und unsere Sprache. Thor, der Donnergott, hat es nicht nur geschafft, dass wir jeden vierten Tag der Woche seines Namens gedenken. Seit einigen Jahren besetzt er zusätzlich in regelmäßigen Abständen unsere Kinoleinwände. Der gute Mann hält sich seit 1500 Jahren in unserem Gedächtnis!

Nach der Keilschrift kommen Feder und Tinte – und heute tippen wir

Vor etwa 5000 Jahren beginnt die Geschichte der Schrift. Dies war der Startschuss für die Bewahrung von Göttergeschichten und noch viel älteren mündlichen Überlieferungen. Seitdem ist viel passiert: Aus geritzter eckiger Keilschrift wurden im Laufe der Zeit mit Feder und Tinte geschwungene Buchstaben. Heute tippen wir auf der Tastatur und automatische Transkriptionssoftware lässt gesprochenes Wort auf unsere Bildschirme schreiben. Auch die Entstehung von Geschichten, Anekdoten, Handlungen und Co. ist heute eine andere. Nicht umsonst streiken die Autor:innen und Schauspieler:innen in Hollywood wegen veränderten Arbeitsbedingungen.

Geschichten zu entwickeln und zu erzählen, ist ununterbrochen ein wesentlicher Baustein der Menschheitsgeschichte. In diesem Kontext möchten wir ein Angebot der HOOU vorstellen.

Aktuell schreibt Künstliche Intelligenz (KI) selbst Geschichte. In sämtlichen Medien ist KI eines der Top-Themen. Aus diesem Grund entwickelt die HAW Hamburg ein neues Angebot für die HOOU-Lernplattform. Es richtet sich an Schüler:innen und Lehrende, die das Thema KI auf spielerische Weise in ihren Unterricht integrieren möchten.

Schritt-für-Schritt-Anleitung für ChatGPT

Chatti hilft dir dabei, eine Geschichte zu schreiben.

Mit dem Lernangebot können Schüler:innen ihre ganz eigene Geschichte entwickeln. Eine Schritt-für-Schritt-Anleitung erklärt, wie dies – mit und ohne initiale Idee für eine Story – in Zusammenarbeit mit dem KI-Sprach-Tool ChatGPT funktioniert. Dafür existieren zusätzliche Hilfestellungen zur Anregung der eigenen Fantasie und viele Inspirationsquellen. Die Anleitung soll ein Leitfaden zur Orientierung sein. Gewünscht ist zudem ein freies und kreatives Ausprobieren, ein Austesten dessen, was geht und wo es aktuell mit dem Large-Language-Modell ChatGPT eventuell noch hapert.

Um das Angebot ganz ohne Sicherheitsbedenken ausprobieren zu können, ist der Chatbot für die nächste Zeit sogar direkt auf der Seite testbar. Ganz ohne Anmeldung und somit ohne Kontaktdaten hinterlassen zu müssen.

Testrunden zum wachsenden Lernangebot

Hierfür möchten die Entwickler:innen des HOOU-Angebotes möglichst viel Feedback von Teilnehmenden sammeln und dieses in das endgültige Produkt einfließen lassen. Erste Testrunden fanden im Juni am deutschlandweiten Digitaltag sowie zum Bürgerfest am 2. und 3. Oktober in Hamburg statt. Bei den Feierlichkeiten zum Tag der deutschen Einheit flanierten rund 700.000 Interessierte rund um die Binnenalster und informierten sich zum Motto „Horizonte öffnen“. Horizonte zu öffnen, beinhaltet für die HOOU nicht nur Bildung für alle zu öffnen, sondern diese auch für jeden Menschen zugänglich zu machen.

HOOU präsentiert sich auf dem Bürgerfest

Aus diesem Grund war die Hamburg Open Online University mit einem Stand beim Bürgerfest mit dabei. Die HOOU stellte sich vor und zeigte, was es auf der Lernplattform alles zu erleben gibt. Neben dem Angebot der HAW Hamburg zu „Geschichten schreiben mit ChatGPT“ konnten mit der HfMT ungewöhnliche Instrumente wie das Đàn bầu ausprobiert und sich darüber informiert werden, wie Inklusion in der Musikpädagogik stattfinden kann. Mit der TUHH wurde Mechanik hautnah erlebbar und auch ein kniffeliges Müll-Sortier-Spiel im Rahmen der WATTwanderungen stieß auf großes Interesse.

Besonders schön waren die vielen Gespräche auf dem Bürgerfest – hier spricht Stephan Dublasky mit zwei Besucherinnen. Bild: Maximilian Glas

Fantastische Geschichten vom Bürgerfest

Mit unserem Angebot „Geschichten schreiben mit ChatGPT“ erlebten wir am Bürgerfest magische Welten und abenteuerlustige Helden. Wir lernten zum Beispiel lyrisch veranlagte Androiden kennen, die unsere Welt mit magischen Gedichten retteten. Fantastisch wurde es hingegen mit einem Telefon, das mit Tieren sprechen konnte. Mit den Sonnensuchern, einer Gruppe von Jugendlichen, befreiten wir unser Zentralgestirn vor einem bösen Zauber und mit magischen Stiften und Wünsche erfüllenden Würfeln gingen wir auf Streifzug.

Wir wurden von einem KI-Programm (wie passend!) bedroht, welches Gedanken und Gefühle der Menschen manipulierte und waren mit einer außerirdischen Zivilisation namens Corona konfrontiert, die uns einen gewaltigen Sonnensturm auf die Erde jagte und flogen unbeschadet zum Planeten Xylon-7. Eine durch die Zeit wandernde Frau hatte jedoch weniger Glück: Ihre Zeitreisebrille ließ sie immer älter werden. Aber auch den Menschen, die ihre Körper in holografische Projektionen hochluden, erging es nicht viel besser: Sie wurden Opfer eines Hackerangriffs.

Dennoch: Schlussendlich, nach all diesen abwechslungsreichen Abenteuern, freuten wir uns immer über ein glückliches Happy End, die Rettung der Welt und das Fortbestehen der Menschheit.

Unser Lernangebot vor Live-Publikum in Bonn

Anfang November findet eine dritte Testrunde zum Lernangebot „Geschichten schreiben mit ChatGPT“ mit Live-Publikum statt. Am 8. und 9. November wird die HAW Hamburg in Bonn beim DIGITAL@School Campus 2023 – Digitale Welten zum Anfassen mit vertreten sein. Das Ziel ist es, das Angebot zusammen mit Schüler:innen weiter auszutesten, zu verbessern und anzupassen.

Text: Dr. Nicole Hagen

Auf blauen Hintergrund steht die Zahl 23

13.09.2023 |

4223: Ann-Kathrin Watolla – Lehrkräftebildung und Digitalität


Wir sprechen mit Ann-Kathrin Watolla zum einen über die Schwierigkeit, den passenden Beruf zu finden, und zum anderen über ihre Dissertation. Darin beschäftigt sie sich mit dem Thema Lehrerbildung, das eng mit der Digitalisierung verknüpft ist, denn digitale Kompetenzen sind für Lehrerinnen und Lehrer heute unerlässlich. Dazu gehört nicht nur die Beherrschung der digitalen Werkzeuge, sondern auch die Fähigkeit, diese sinnvoll im Unterricht einzusetzen und den Schülerinnen und Schülern Medienkompetenz zu vermitteln. Eine kontinuierliche Fortbildung und Unterstützung der Lehrkräfte in diesem Bereich ist für eine zeitgemäße Bildung unerlässlich.

Cover von dem Podcast 42. Mit weißer Schrift steht auf blau die Zahl 22

10.03.2023 |

4222: Steffen Walk – Bioabfall als Ressource

avatar
Steffen Walk
avatar
Dorothee Schielein
avatar
Stephan Dublasky

Lebensmittelabfälle sind wertvoll. Wieso? Sie sind ein wichtiger Baustein des „BioCycle“, also dem Kreislauf von Lebensmitteln zu Lebensmittelabfällen und wieder zu Lebensmitteln. Wie? Durch richtiges sortieren im Haushalt, angepasste Sammelsysteme und eine wertschöpfende Aufbereitung hin zu Biogas und Kompost. Während ersteres ein wichtiger Baustein in der nachhaltigen und erneuerbaren Energieautarkie darstellt, dient Kompost als wertvoller Bodenverbesserer für die Landwirtschaft und schließt somit den BioCycle zur Lebensmittelproduktion. Vielleicht fragst du dich wie diese Schritte zusammenhängen, oder wie viele Lebensmittelabfälle wir eigentlich produzieren oder wie sie sich zusammensetzen? Am besten findest du das heraus, wenn du mit diesem Lernangebot beginnst. Du wirst nicht nur vieles über den BioCycle lernen, sondern auch selbst erfahren können, was du persönlich machen kannst, um diesen effizient zu schließen.

Shownotes:

Hier geht es zum Lernangebot:
https://lernen.hoou-tuhh.de/overview/biocycle

Modellanlage in Hamburg-Willhelmsburg
http://zinnwerke.de/zinnwerke/biogasanlage

Mathematische Gebilde: Kugeln, Quadrate, welche zusammengefügt sind

Pontifex

30.11.2022 | Katrin Schröder

Pontifex: Mathematik besser verstehen

Ob gezielter Studienwunsch, notwendiges Begleitübel oder grundsätzliche Neugier auf die Materie: Mathematik lässt sich besser im Kontext verstehen. Genau da setzt die Lernplattform Pontifex an.

Informatik? Klar. Wirtschaftswissenschaften? Sehr wahrscheinlich. Psychologie? Ja, auch. Philosophie? Nee, oder! – Mathematik spielt in vielen Fächern zumindest im Grundstudium eine wichtige Rolle. Das gilt für MINT-Fächer ohnehin, aber auch für manche Sozial- und Geisteswissenschaft. Ob gezielter Studienwunsch, notwendiges Begleitübel oder grundsätzliche Neugier auf die Materie: Mathematik lässt sich besser im Kontext verstehen. Genau da setzt die Lernplattform Pontifex an.

Context matters

Entwickelt wurde Pontifex von Fabian Gabel und Dr. Julian Großmann. Die rein englischsprachige Plattform spiegelt die Überzeugung der beiden Mathematiker wider: In der Mathematik geht es nicht um isolierte Formeln oder Rechenverfahren, sondern um Konzepte und die Brücken zwischen den Konzepten. Bei Pontifex – von lat. pons (Brücke) und facere (machen) – stellen sie dieses Netzwerk der Mathematik in den Fokus. Auf diese Weise macht Pontifex Lernenden wichtiges Zusammenhangswissen besser verfügbar und hilft ihnen nicht nur einzuschätzen, welche Wissens-Voraussetzungen sie für bestimmte Aufgabenstellungen benötigen. Die Vernetzung der Themen untereinander erlaubt es zusätzlich, weiterführende Themen zu entdecken und über unerwartete Lernbrücken zu gehen.

How to Pontifex

Und wie genau funktioniert Pontifex jetzt? Zum Beispiel so:

1. Lernthema finden

Auf der Startseite finden Nutzende eine thematisch sortierte Navigation zum Ausklappen sowie eine Suchleiste. Damit können sie genau das Thema finden, das sie interessiert oder zu dem sie gerade mehr Wissen brauchen. Wer offener nach Themen suchen möchte, kann auch einfach auf eines der Themen im Flussdiagramm auf der Startseite klicken.

Als ehemalige Philosophie-Studentin konnte ich mich vor dem Grundkurs Logik drücken. Jetzt nutze ich die Chance: Ich entscheide mich für das Thema „Logical Statements and Operations“.

2. Brücken bauen

Nach der Themenauswahl öffnet sich die zugehörige Lernseite. Ganz oben zeigt eine Grafik unter der Überschrift „Discover Bridges“ gleich die „Brücken“ zu weiteren Themen an, die in Verbindung zu logischen Aussagen und logischen Operationen stehen.

Wer sich doch mit einer Tabelle wohler fühlt, klickt einfach den Reiter „Table“ an.

Eine Brücke führt zum Heine-Borel-Theorem. Mittels Klick auf den gestrichelten Pfeil erfahre ich schon einmal, welche Verbindung zwischen beiden Themen besteht: Das Heine-Borel-Theorem ist selbst eine logische Aussage.

Mit einem zweiten Klick – diesmal auf den Kreis – gelange ich auf die Lernseite zum Heine-Borel-Theorem. Aha, es geht um metrische Räume. Das führt mir hier zu weit, darum klicke ich mich zurück – nicht ohne zu registrieren, dass diese Lernseite mir ihrerseits nahebringt, in welchen anderen Themenfeldern nun wiederum das Heine-Borel-Theorem eine Rolle spielt.

3. Eintauchen

Zurück zu „meiner“ Lernseite, den logischen Aussagen und logischen Operationen: Im mittleren Teil der Seite kann ich nun in das ausgewählte Thema eintauchen. Ich lese Zusammenfassungen, lerne formale Definitionen kennen und finde Beispiele, die mir den Weg zum Verständnis ebnen. Außerdem kann ich ein Lernvideo aufrufen und Fragen an die Community stellen. Dafür benötigen Nutzende ein Profil bei GitHub.

Gut zu wissen:

Zu den Lernmaterialen gehören auf allen Seiten Zusammenfassungen und Anwendungsbeispiele, je nach Verfügbarkeit zum Thema auch Lernvideos oder Podcasts. Die Frage-Funktion gibt es ebenfalls als Standard auf allen Lernseiten.

4. Lernerfolg checken

A und B. A oder B. Weder A noch B … Habe ich denn nun verstanden, was logische Aussagen und logische Operationen sind – und kann ich sie anwenden? Ja. Nein. Vielleicht. Ich muss nicht im Ungewissen bleiben: Auf jeder Lernseite bietet Pontifex als Abschluss eine Aufgabe an, mit der Nutzende ihr gewonnenes Wissen testen können.

Ich soll eine Wahrheitstabelle ausfüllen – natürlich habe ich vorher gelernt, wie das geht.

Das Ergebnis verrate ich aber nicht – einfach selbst einmal ausprobieren!

Hier geht es zum Lernangebot Pontifex auf der Webseite der HOOU:

https://www.hoou.de/projects/pontifex/preview

Hier geht es direkt zu Pontifex:

www.pntfx.com

Podcastcover. Auf blauen Hintergrund steht Mein Weg zu KI Folge 3

14.07.2022 | Katrin Schröder

03 | Werner Bogula, Digital Enabler

avatar
Axel Dürkop
avatar
Werner Bogula

Kreativität und Künstliche Intelligenz

Gast der dritten Folge unserer Reihe ist Werner Bogula. Er versteht sich als Digital Enabler, der andere unterstützt, Zugang zu aktuellen digitalen Technologien zu erlangen. Der Schwerpunkt seiner Arbeit ist Kreativität und Künstliche Intelligenz, die er z. B. mit dem KISS-Projekt Schüler*innen und Studierenden näherbringen möchte. Im Juni 2022 hat er für das Artificial Intelligence Center Hamburg (ARIC) das Creative-AI-Symposium in Hamburg veranstaltet.

Werner Bogula ist Musiker und spielt die Laute, für die er mit Unterstützung einer KI neue Stücke komponiert hat. Tonbeispiele gibt’s im Podcast sowie viel Inspiration zum Quereinstieg in das Thema.

Aufnahmedatum: 28. Juni 2021
Moderation: Axel Dürkop
Gast: Werner Bogula

Lernangebot auf hoou.de besuchen

Besuche jetzt das Lernangebot auf hoou.de

Lernanregungen

Hast du Lust bekommen, noch tiefer einzusteigen? Wir haben ein paar Vorschläge für dich zusammengestellt:

Grundlagen

Was sind Linguistik und Natural Language Processing (NLP)?

Sprachanalyse und Textgenerierung sind gegenwärtig spannende und stark anwendungsorientierte Forschungsfelder im Bereich Künstlicher Intelligenz. Der Fachbegriff, unter dem im Netz Informationen zu finden sind, lautet Natural Language Processing (NLP), was auf Deutsch häufig mit Computerlinguistik übersetzt wird. Zum Einstieg in das Thema haben wir für dich einige Links und Informationen ausgewählt:

OER zum Thema

Welche Bildungsmaterialien und Tools gibt es, um selbst in die Materie einzusteigen?

Werner Bogula hat sich mit offenen Bildungsmaterialien (engl.: Open Educational Resources (OER)) im Selbststudium für aktuelle Technologien weitergebildet. Wir haben für euch einige zusammengestellt:

Was ist KISS?

KISS heißt “KI für Schüler*innen und Studierende” und ist ein Projekt, das Werner Bogula für die HOOU zusammen mit der HAW Hamburg entwickelt hat.

Musik und Kunst

Wo kann ich mehr Musik von Werner Bogula hören?

Werner Bogula hat die Kompositionen für die Laute auf Soundcloud veröffentlicht. Auf YouTube erläutert er in seinem Vortrag AI and Music Generation, wie diese Musik entsteht.

Zudem hat Werner Bogula einen zweiteiligen Blogpost veröffentlicht, indem er weiteres Material aus seiner Arbeit zeigt.

Was ist Aleatorik?

Neben anderen Komponisten hat Wolfgang Amadeus Mozart ein musikalisches Würfelspiel entwickelt.

Wie sieht die Kunst aus, die in der Zusammenarbeit von Peezmo, Werner Bogula und einer KI entstanden ist?

Credits

Musik: Fat Caps von Jason Shaw auf Free Music Archive, CC BY 3.0 United States License


Jingle: Game Sound Intro To Game von Bertrof auf freesound, CC BY 3.0; Stimmen generiert mit Scratch

Feedback

Feedback, Fragen und Vorschläge unter meinwegzuki.hoou@tuhh.de