Die SAIGE Pivot Track

Entwickelt für Berufstätige, die daran interessiert sind, in die KI-Sicherheit zu wechseln


Du fängst nicht bei Null an. Du bringst das fehlende Puzzleteil mit.



Mid-/Senior-Professionals: Die größten Flaschenhälse der KI-Sicherheit

In dem aktuellsten Artikel von 80.000 Hours, basierend auf einem Gespräch mit Ryan Kidd, Co-Executive Director bei MATS, sehen wir einige der derzeit am meisten übersehenen Rollen im AI-Sicherheitsökosystem. Konkret teilte er mit:


  1. Forschungsmanagement ist oft ein Engpass: Diese Rollen sind schwer zu besetzen, da sie sowohl Vertrautheit mit der AI Safety-Forschung als auch starke zwischenmenschliche Fähigkeiten und Managementerfahrung erfordern. Zudem wollen wirkungsorientierte Menschen, die sich für AI Safety interessieren, meist selbst forschen – anstatt die Forschung anderer zu managen! Entscheidend ist jedoch: Du musst oft selbst nicht in der Forschung brillieren, um exzellent im Forschungsmanagement zu sein. Menschen mit Erfahrung als Projektmanager:innen, People Manager:innen und Executive Coaches eignen sich oft hervorragend dafür.


  2. Es mangelt an Führungskräften: Das technische Feld der AI Safety könnte sehr von mehr Menschen mit Hintergrund in Strategie, Management und Operations profitieren. Wenn du Erfahrung darin hast, ein Team von mehr als 30 Personen zu leiten und weiterzuentwickeln, könntest du in einer führenden AI Safety-Organisation einen großen Unterschied machen – auch wenn du wenig direkte Erfahrung mit KI hast.


  3. Wir brauchen Gründer:innen, Gestalter:innen des Ökosystems und Kommunikator:innen: Es gibt viel Raum, um neue Organisationen zu gründen und das Ökosystem zu erweitern. Zudem gibt es viel verfügbare Finanzierung, besonders im gewinnorientierten Bereich für AI Interpretability und Sicherheit. Unsere Arbeit am Job Board profitiert ebenfalls davon, wenn Leute neue Organisationen starten: Sie schaffen neue Rollen, auf die wir unsere Nutzer:innen vermitteln können!


  4. Wir brauchen mehr Berufserfahrene: Da immer mehr Arbeit an KI delegiert wird, sind wir zunehmend auf erfahrene Manager:innen angewiesen. Sie können KI-generierte Ergebnisse (Outputs) überwachen, andere im Umgang mit KI-Tools schulen und Teams aus Menschen und KIs koordinieren.


  5. Wir brauchen Menschen, die sich für „Support“-Rollen begeistern: Es mag weniger aufregend wirken, nicht direkt an den Kernproblemen zu arbeiten. Doch gerade in Rollen wie Operations und Management vervielfachst du den Impact anderer. Diese Bereiche werden oft vernachlässigt, obwohl sie sehr wirkungsvoll sind. Und als jemand, dessen Job es ist, anderen zu Jobs zu verhelfen, finde ich diese Art von Arbeit ziemlich spannend!



  1. Forschungsmanagement ist oft ein Engpass: Diese Rollen sind schwer zu besetzen, da sie sowohl Vertrautheit mit der AI Safety-Forschung als auch starke zwischenmenschliche Fähigkeiten und Managementerfahrung erfordern. Zudem wollen wirkungsorientierte Menschen, die sich für AI Safety interessieren, meist selbst forschen – anstatt die Forschung anderer zu managen! Entscheidend ist jedoch: Du musst oft selbst nicht in der Forschung brillieren, um exzellent im Forschungsmanagement zu sein. Menschen mit Erfahrung als Projektmanager:innen, People Manager:innen und Executive Coaches eignen sich oft hervorragend dafür.


  2. Es mangelt an Führungskräften: Das technische Feld der AI Safety könnte sehr von mehr Menschen mit Hintergrund in Strategie, Management und Operations profitieren. Wenn du Erfahrung darin hast, ein Team von mehr als 30 Personen zu leiten und weiterzuentwickeln, könntest du in einer führenden AI Safety-Organisation einen großen Unterschied machen – auch wenn du wenig direkte Erfahrung mit KI hast.


  3. Wir brauchen Gründer:innen, Gestalter:innen des Ökosystems und Kommunikator:innen: Es gibt viel Raum, um neue Organisationen zu gründen und das Ökosystem zu erweitern. Zudem gibt es viel verfügbare Finanzierung, besonders im gewinnorientierten Bereich für AI Interpretability und Sicherheit. Unsere Arbeit am Job Board profitiert ebenfalls davon, wenn Leute neue Organisationen starten: Sie schaffen neue Rollen, auf die wir unsere Nutzer:innen vermitteln können!


  4. Wir brauchen mehr Berufserfahrene: Da immer mehr Arbeit an KI delegiert wird, sind wir zunehmend auf erfahrene Manager:innen angewiesen. Sie können KI-generierte Ergebnisse (Outputs) überwachen, andere im Umgang mit KI-Tools schulen und Teams aus Menschen und KIs koordinieren.


  5. Wir brauchen Menschen, die sich für „Support“-Rollen begeistern: Es mag weniger aufregend wirken, nicht direkt an den Kernproblemen zu arbeiten. Doch gerade in Rollen wie Operations und Management vervielfachst du den Impact anderer. Diese Bereiche werden oft vernachlässigt, obwohl sie sehr wirkungsvoll sind. Und als jemand, dessen Job es ist, anderen zu Jobs zu verhelfen, finde ich diese Art von Arbeit ziemlich spannend!



  1. Forschungsmanagement ist oft ein Engpass: Diese Rollen sind schwer zu besetzen, da sie sowohl Vertrautheit mit der AI Safety-Forschung als auch starke zwischenmenschliche Fähigkeiten und Managementerfahrung erfordern. Zudem wollen wirkungsorientierte Menschen, die sich für AI Safety interessieren, meist selbst forschen – anstatt die Forschung anderer zu managen! Entscheidend ist jedoch: Du musst oft selbst nicht in der Forschung brillieren, um exzellent im Forschungsmanagement zu sein. Menschen mit Erfahrung als Projektmanager:innen, People Manager:innen und Executive Coaches eignen sich oft hervorragend dafür.


  2. Es mangelt an Führungskräften: Das technische Feld der AI Safety könnte sehr von mehr Menschen mit Hintergrund in Strategie, Management und Operations profitieren. Wenn du Erfahrung darin hast, ein Team von mehr als 30 Personen zu leiten und weiterzuentwickeln, könntest du in einer führenden AI Safety-Organisation einen großen Unterschied machen – auch wenn du wenig direkte Erfahrung mit KI hast.


  3. Wir brauchen Gründer:innen, Gestalter:innen des Ökosystems und Kommunikator:innen: Es gibt viel Raum, um neue Organisationen zu gründen und das Ökosystem zu erweitern. Zudem gibt es viel verfügbare Finanzierung, besonders im gewinnorientierten Bereich für AI Interpretability und Sicherheit. Unsere Arbeit am Job Board profitiert ebenfalls davon, wenn Leute neue Organisationen starten: Sie schaffen neue Rollen, auf die wir unsere Nutzer:innen vermitteln können!


  4. Wir brauchen mehr Berufserfahrene: Da immer mehr Arbeit an KI delegiert wird, sind wir zunehmend auf erfahrene Manager:innen angewiesen. Sie können KI-generierte Ergebnisse (Outputs) überwachen, andere im Umgang mit KI-Tools schulen und Teams aus Menschen und KIs koordinieren.


  5. Wir brauchen Menschen, die sich für „Support“-Rollen begeistern: Es mag weniger aufregend wirken, nicht direkt an den Kernproblemen zu arbeiten. Doch gerade in Rollen wie Operations und Management vervielfachst du den Impact anderer. Diese Bereiche werden oft vernachlässigt, obwohl sie sehr wirkungsvoll sind. Und als jemand, dessen Job es ist, anderen zu Jobs zu verhelfen, finde ich diese Art von Arbeit ziemlich spannend!



Der lokale Kontext: Das deutsche Ökosystem

Abgesehen von der oben genannten globalen Situation ist Deutschland der europäische Motor für technische Talente: Laut dem Statistischen Bundesamt (Destatis) hält Deutschland den höchsten Anteil an MINT-Masterabschlüssen in der EU (35 %) und liegt damit deutlich über dem EU-Durchschnitt von 25 %. Darüber hinaus gibt es in Deutschland jährlich ca. 300.000 MINT-Studierende (Quelle) und über 110.000 Jura-Studierende (Quelle).


Wir sehen einen massiven strukturellen Engpass im lokalen Ökosystem: So gut wie keines dieser Spitzentalente findet den Weg in den Bereich AI Safety. Stattdessen fließt diese „stille Reserve“ an Industrie-Expert:innen fast ausschließlich in traditionelle Rollen (z. B. Maschinenbau mit 1,3 Millionen Beschäftigten). Wenn du einen Hintergrund in Software Engineering, ML oder technischer Forschung & Entwicklung (F&E) hast, sind deine Fähigkeiten bestens übertragbar. Wir laden dich ausdrücklich dazu ein, deine ingenieurwissenschaftliche Disziplin für die Herausforderungen in den Bereichen AI Alignment und Robustheit einzusetzen.


Auch an nicht-technischen Talenten mangelt es uns: Deutschland ist ein Hauptarchitekt des EU AI Act, doch bei der nationalen Umsetzung herrscht ein gravierender Mangel an Expert:innen für Governance und Policy. Wenn du Erfahrung in den Bereichen Compliance, DSGVO oder Regulatory Affairs hast, bist du einzigartig positioniert, um dieses Problem zu lösen. Wir brauchen deine Erfahrung, um technische Sicherheitsanforderungen in kohärente nationale Politik zu übersetzen.


Während Städte wie London und San Francisco über etablierte Netzwerke von AI Safety-Organisationen verfügen, ist die Landschaft in Deutschland zudem fragmentiert (was die Motivation hinter SAIGE war). Wir brauchen hier mehr Menschen, die das Feld aufbauen – darunter Gründer:innen, Operations Leads und Programm-Manager:innen –, um lokale Kapazitäten zu schaffen (z. B. Inkubatoren, Think Tanks, Sicherheitsteams).



Wie SAIGE deinen Umstieg unterstützt

SAIGE agiert als zentrale Drehscheibe für erfahrene Fachkräfte, die in dieses Feld wechseln möchten. Nach deiner Bewerbung für unseren Pivot Track prüfen wir dein Profil, um den Einstiegspunkt zu finden, an dem deine Fähigkeiten die größte Hebelwirkung erzielen.

Basierend auf deinen Angaben werden wir:

  • Dich an unsere spezialisierten Partner im Ökosystem weiterleiten (z. B. High Impact Professionals, Impact Academy), und/oder

  • Dich mit einer internen SAIGE-Berater:in vernetzen, um 1:1-Strategien und lokalen Kontext zu besprechen.

Wir freuen uns auf den ersten Schritt deines Umstiegs!



SAIGE agiert als zentrale Drehscheibe für erfahrene Fachkräfte, die in dieses Feld wechseln möchten. Nach deiner Bewerbung für unseren Pivot Track prüfen wir dein Profil, um den Einstiegspunkt zu finden, an dem deine Fähigkeiten die größte Hebelwirkung erzielen.

Basierend auf deinen Angaben werden wir:

  • Dich an unsere spezialisierten Partner im Ökosystem weiterleiten (z. B. High Impact Professionals, Impact Academy), und/oder

  • Dich mit einer internen SAIGE-Berater:in vernetzen, um 1:1-Strategien und lokalen Kontext zu besprechen.

Wir freuen uns auf den ersten Schritt deines Umstiegs!


SAIGE agiert als zentrale Drehscheibe für erfahrene Fachkräfte, die in dieses Feld wechseln möchten. Nach deiner Bewerbung für unseren Pivot Track prüfen wir dein Profil, um den Einstiegspunkt zu finden, an dem deine Fähigkeiten die größte Hebelwirkung erzielen.

Basierend auf deinen Angaben werden wir:

  • Dich an unsere spezialisierten Partner im Ökosystem weiterleiten (z. B. High Impact Professionals, Impact Academy), und/oder

  • Dich mit einer internen SAIGE-Berater:in vernetzen, um 1:1-Strategien und lokalen Kontext zu besprechen.

Wir freuen uns auf den ersten Schritt deines Umstiegs!