In der heutigen digitalen Landschaft spielen Künstliche Intelligenz (KI) und Machine Learning (ML) eine zentrale Rolle in zahlreichen Anwendungen. Doch mit ihrer wachsenden Verbreitung entstehen auch neue Angriffsvektoren, die die Integrität und Vertraulichkeit dieser Systeme bedrohen können. Gezielte Attacken, wie das Poisoning von Trainingsdaten oder Adversarial Attacks, können dazu führen, dass Klassifikatoren falsche Entscheidungen treffen. Zudem besteht die Gefahr, dass Angreifer vertrauliche Informationen aus den Trainingsdaten oder dem trainierten ML-Modell extrahieren, beispielsweise durch Membership Inference oder Model Stealing. Um diesen Herausforderungen zu begegnen, bietet unser Seminar fundiertes Wissen über Security und Privacy von KI-Systemen und ML-Modellen. Die Teilnehmer:innen lernen verschiedene Angriffsarten, wie Adversarial Evasion, Model Stealing, Data Poisoning, Membership Inference und Model Inversion, kennen und verstehen deren potenzielle Auswirkungen.
Ein besonderer Fokus liegt darauf, wie solche Angriffe abgewehrt und geeignete Gegenmaßnahmen in Python implementiert werden können. Das Seminar kombiniert theoretisches Wissen mit praxisnahen Programmierübungen, die es den Teilnehmer:innen ermöglichen, das Erlernte direkt anzuwenden. Durch den Austausch mit Expert:innen und anderen Kursteilnehmer:innen wird zudem ein tieferes Verständnis für aktuelle Forschungsergebnisse im Bereich der KI-Sicherheit gefördert. Nach Abschluss des Seminars sind die Teilnehmer:innen in der Lage, die genannten Angriffsarten zu erkennen, einzuordnen und entsprechende Schutzmaßnahmen zu ergreifen, um die Cyber-Resilienz ihrer KI-Systeme zu erhöhen. Dieses Seminar richtet sich an Fachkräfte, die bereits über Kenntnisse im Bereich Machine Learning verfügen und ihre Systeme gegen aktuelle Bedrohungen absichern möchten. Es bietet einen tiefen Einblick in die Sicherheitsaspekte von ML-Modellen und vermittelt praxisrelevante Fähigkeiten zur Implementierung von Schutzmaßnahmen.
Nach dem Seminar können Sie:
- Gefahren der Angriffsarten Adversarial Evasion, Model Stealing, Data Poisoning, Membership Inference und Model Inversion verstehen und einordnen.
- Security-Attacks und Privacy-Attacks auf ML-Modelle abwehren.
- Angriffe sowie geeignete Gegenmaßnahmen in Python implementieren.