(Please find an English version below!)
Der Lehrstuhl für Verifikation und formale Garantien des maschinellen
Lernens an der Informatik-Fakultät der TU Dortmund sucht mehrere
hochmotivierte und talentierte Doktorandinnen und Doktoranden. Die
Promotionsstellen sind in Vollzeit zu besetzen (Teilzeit ist möglich),
werden nach TV-L E13 bezahlt (ca. 50.000 Euro brutto, je nach Erfahrung)
und beinhalten ein umfassendes Leistungspaket (Krankenversicherung,
Altersvorsorge, etc.). Außergewöhnlich qualifizierte Bewerber für
Postdoc-Stellen können ebenfalls berücksichtigt werden.
Unsere Forschung konzentriert sich auf die Entwicklung formaler Methoden
zur Gewährleistung der Robustheit, Zuverlässigkeit und Sicherheit
moderner KI-Systeme. Als erfolgreicher Kandidat oder erfolgreiche
Kandidatin werden u. A. folgende Themen zu Ihren Aufgaben gehören:
* Der Entwurf von Algorithmen, die Korrektheits-, Sicherheits- oder
Vertrauenswürdigkeitszertifikate für das maschinelle Lernen unter
verschiedenen Annahmen oder Benchmarks liefern.
* Die Entwicklung sicherer Methoden des maschinellen Lernens,
insbesondere für das Reinforcement-Learning, die nachprüfbare Garantien
bieten, Erklärbarkeit und Transparenz berücksichtigen oder
Unsicherheiten und unzuverlässige Eingaben einbeziehen können.
Die Promotionsstellen sind am Zentrum für Trustworthy Data Science and
Security (rc-trust.ai) angesiedelt und bieten einzigartige Möglichkeiten
zur interdisziplinären Forschung im Schnitt von Informatik, Statistik,
IT-Sicherheit und Psychologie. Kandidaten mit Erfahrung in formalen
Methoden (z. B. Logik, Automated-Reasoning oder Constraint-Solving) sind
besonders angehalten, sich zu bewerben.
Weitere Informationen finden Sie unter
https://static.rc-trust.ai/Open-PhD-Positions-RC-Trust.pdf. Bewerbungen
werden entgegengenommen, bis die Stellen besetzt sind. Für weitere
Fragen wenden Sie sich bitte an Prof. Daniel Neider
(daniel.neider(a)tu-dortmund.de).
===== English version =====
The Chair for Verification and Formal Guarantees of Machine Learning at
the Computer Science Faculty of TU Dortmund University (Germany) is
recruiting several highly-motivated and talented Ph.D. students. The
positions are full-time (part-time is possible), competitively paid
according to the TV-L E13 wage scale (about 50,000 Euros gross,
depending on experience), and include a comprehensive benefits package
(healthcare, unemployment, retirement, etc.). Exceptionally qualified
applicants for postdoc positions may be considered as well.
Our research focuses on developing formal methods for ensuring the
robustness, reliability, and safety of modern AI-enabled systems. As a
successful candidate, your key responsibilities include but are not
limited to:
* Designing algorithms that provide certificates of correctness, safety,
or trustworthiness for machine learning models under different
assumptions or benchmarks.
* Developing safe machine learning methods, specifically for
reinforcement learning, that achieve verifiable guarantees for safety
and performance metrics, address explainability and transparency
concerns, or account for uncertainty and unreliable inputs.
The positions are co-located at the Center for Trustworthy Data Science
and Security (rc-trust.ai) and provide unique interdisciplinary training
opportunities with researchers from computer science, statistics, IT
security, and psychology. Candidates with a strong background in formal
methods (e.g., logic, automated reasoning, or constraint solving) are
particularly encouraged to apply.
More information can be found at
https://static.rc-trust.ai/Open-PhD-Positions-RC-Trust.pdf. Applications
will be reviewed until the positions are filled. For further questions,
please get in touch with Prof. Daniel Neider (daniel.neider(a)tu-dortmund.de).