Hacking und Härtung von Machine Learning-Modellen

In der heutigen digitalen Landschaft spielen Künstliche Intelligenz (KI) und Machine Learning (ML) eine zentrale Rolle in zahlreichen Anwendungen. Doch mit ihrer wachsenden Verbreitung entstehen auch neue Angriffsvektoren, die die Integrität und Vertraulichkeit dieser Systeme bedrohen können. Gezielte Attacken, wie das Poisoning von Trainingsdaten oder Adversarial Attacks, können dazu führen, dass Klassifikatoren falsche Entscheidungen treffen. Zudem besteht die Gefahr, dass Angreifer vertrauliche Informationen aus den Trainingsdaten oder dem trainierten ML-Modell extrahieren, beispielsweise durch Membership Inference oder Model Stealing. Um diesen Herausforderungen zu begegnen, bietet unser Seminar fundiertes Wissen über Security und Privacy von KI-Systemen und ML-Modellen. Die Teilnehmer:innen lernen verschiedene Angriffsarten, wie Adversarial Evasion, Model Stealing, Data Poisoning, Membership Inference und Model Inversion, kennen und verstehen deren potenzielle Auswirkungen.

Ein besonderer Fokus liegt darauf, wie solche Angriffe abgewehrt und geeignete Gegenmaßnahmen in Python implementiert werden können. Das Seminar kombiniert theoretisches Wissen mit praxisnahen Programmierübungen, die es den Teilnehmer:innen ermöglichen, das Erlernte direkt anzuwenden. Durch den Austausch mit Expert:innen und anderen Kursteilnehmer:innen wird zudem ein tieferes Verständnis für aktuelle Forschungsergebnisse im Bereich der KI-Sicherheit gefördert. Nach Abschluss des Seminars sind die Teilnehmer:innen in der Lage, die genannten Angriffsarten zu erkennen, einzuordnen und entsprechende Schutzmaßnahmen zu ergreifen, um die Cyber-Resilienz ihrer KI-Systeme zu erhöhen. Dieses Seminar richtet sich an Fachkräfte, die bereits über Kenntnisse im Bereich Machine Learning verfügen und ihre Systeme gegen aktuelle Bedrohungen absichern möchten. Es bietet einen tiefen Einblick in die Sicherheitsaspekte von ML-Modellen und vermittelt praxisrelevante Fähigkeiten zur Implementierung von Schutzmaßnahmen

 

Nach dem Seminar können Sie:

  • Gefahren der Angriffsarten Adversarial Evasion, Model Stealing, Data Poisoning, Membership Inference und Model Inversion verstehen und einordnen.
  • Security-Attacks und Privacy-Attacks auf ML-Modelle abwehren.
  • Angriffe sowie geeignete Gegenmaßnahmen in Python implementieren.
ÜBERBLICK
Veranstaltungstyp
Online-Seminar, Präsenz-Seminar, Inhouse-Format
Format
Online oder Präsenz
Abschluss
Teilnahmebescheinigung
Zugangsvoraussetzung
Sie bringen Kenntnisse in Machine Learning (z.B. Neuronale Netze, Gütemaße) sowie Programmierkenntnisse in Standard-Python mit. Es wäre außerdem von Vorteil, wenn Sie praktische Erfahrung mit ML-Klassifikatoren haben.
Dauer/ Ablauf
mögliche Dauer in Tagen: 4 Kursdauer in Stunden: 28 Stunden Tag 1: 9:00 - 17:00 Uhr Tag 2: 9:00 - 17:00 Uhr Tag 3: 9:00 - 17:00 Uhr Tag 4: 9:00 - 17:00 Uhr
Sprache
Deutsch
Veranstaltungsort
Fraunhofer-Institut für Sichere Informationstechnologie SIT, Rheinstr. 75, 64295 Darmstadt
ZIELGRUPPE - dieses Seminar ist genau richtig für:
  • IT‑Sicherheitsexpert*innen
  • Fachkräfte für KI
  • Machine Learning
  • Data Science / Data Analytics
  • Product Owner und Software-Entwickler*innen für KI-gestützte Lösungen
KURSINHALTE - diese Themen erarbeiten Sie im Seminar:
  • Einführung und Motivation
  • Review zu neuronalen Netzen / Backpropagation
  • Übersicht Security Attacks
  • Whitebox-, Blackbox- und Graybox-Angriffe
  • Adversarial Evasion Attacks (z.B. FGSM und Cleverhans)
  • Jailbreaks auf LLMs
  • Model Stealing
  • Data Poisoning
  • Synthetisch generierte Daten (z.B. Deepfakes, Large Language Models)
  • Übersicht Privacy-Preserving Machine Learning
  • Membership / Property / Attribute Inference
  • Model Inversion

Hierbei werden Angriffe auf ML-Modelle und die Gegenmaßnahmen hierzu behandelt, z.B. Retraining, Regularisierung, Distillation bei Evasion-Angriffen.

Kursteile mit Vorträgen, Demos und Programmierübungen in Python wechseln sich ab. Die Übungen behandeln unterschiedliche Modalitäten, wie z.B. digitale Bilddaten, Audio oder Text/Sprache.

WEITERE INFORMATIONEN

In Kürze finden Sie hier noch weiterführende Informationen zu diesem Seminar.

IHRE TRAINER:INNEN

Verena Battis und Lukas Graner

Die Trainer*innen verfügen über langjährige Erfahrung im Bereich künstliche Intelligenz und Machine Learning. Sie sind  wissenschaftlich und beratend in Forschungs- und Industrieprojekten tätig. 

Referenzen:


Dr. Nicolas Müller

Nicolas Müller ist seit 2017 als wissenschaftlicher Mitarbeiter in der Abteilung Cognitive Security Technologies des Fraunhofer AISEC tätig. Seine Forschungsschwerpunkte liegen im Bereich Machine Learning und Anomaly Detection für Cyber Security. Herr Müller hat zuvor am Fraunhofer ISE als Softwareentwickler gearbeitet und an der Universität Freiburg Mathematik und Informatik studiert und abgeschlossen.

 

Diese Kurse könnten Sie auch interessieren:

 

Learning Nugget

Schwachstellen finden mit ChatGPT: Möglichkeiten der Automatisierung und Grenzen

Entdecken Sie, wie ChatGPT Code-Schwachstellen aufspürt und erweitern Sie Ihr Cybersicherheitswissen.

 

Online oder Präsenz

Maschinelles Lernen für mehr Sicherheit

Das Seminar zeigt, wie Maschinelles Lernen zur Erkennung von Anomalien in Log-Dateien und Netzwerkverkehr genutzt wird. Teilnehmende lernen, unbekannte Angriffe zu identifizieren und anwenden. Praktische Übungen vertiefen das Wissen. 

 

Online

Mastering Large Language Models: Chancen nutzen, Risiken managen

Lernen Sie, LLMs sicher in Unternehmensprozesse zu integrieren. Unser praxisnaher Kurs vermittelt Ihnen alles zu Sicherheitsrisiken, Abwehrstrategien und Open-Source-Tools. Ideal für Fachkräfte, die KI-Anwendungen sicher und effizient nutzen möchten.

 

Blended: Online und Präsenz

Certified Security Champion Training

Software sicher entwickeln: Dieser Kurs vermittelt, wie Security by Design und Defensive Coding Risiken minimieren. Lernen Sie, Sicherheitslücken zu erkennen, Schutzmaßnahmen umzusetzen und Ihr Team für Security zu sensibilisieren – praxisnah und sofort anwendbar.

Kontakt

Ansprechpartner Fachliches

Lukas Graner

Fraunhofer SIT

Telefon +49 6151 869-296

 

Ansprechpartner Organisatorisches

Adem Salgin

 

Fraunhofer Academy

Telefon: +49 89 1205-1555