Aufgaben
- Durchführung von offensiven AI-Security-Tests auf Systeme, Modelle und Infrastrukturen
- Planung und Umsetzung von Advanced-AI-Red-Team-Exercises sowie länger laufenden Offensive-Operations
- Bewertung von AI-Security-Produkten sowie Offensive-Testing gegen kommerzielle und Open-Source-Lösungen
- Entwicklung und Erweiterung von AI-Red-Teaming-Tools, Angriffsskripten und neuen TTPs (z.B. PyRIT, Garak, HexStrike, Giskard)
- Erstellung strukturierter Risiko- und Schwachstellenanalysen inkl. Schweregrad, Ausnutzbarkeit, Impact und Priorisierung der Maßnahmen
- Dokumentation aller Angriffsaktivitäten, Ergebnisse und Empfehlungen für technische und nicht-technische Stakeholder
Profil
- Fundierte Erfahrung in offensiven Security-Engagements (Red Teaming, Penetration Testing, Vulnerability Research, Exploit-Development)
- Nachweisbare praktische Erfahrung im AI-Red-Teaming sowie tiefes Verständnis AI-spezifischer Bedrohungen und TTPs (z.B. MITRE ATLAS, OWASP LLM Top 10)
- Fundierter Ausbeutungs-Background, inkl. Web-Exploitation und Verständnis moderner AI-Frameworks, AI-Stacks sowie adversarial ML-Techniken
- Sehr gute Coding-/Scripting-Skills zur Entwicklung eigener Offensive-Tools und Automatisierungen
Benefits
- Aussicht auf Folgeprojekte
- Aussicht auf Projektverlängerung
- Betreuung im gesamten Bewerbungsprozess
- Betreuung im laufenden Projekt durch unser Team