Unsere Mission
Von Jessica P. Wang (Direktorin von SAIGE), März 2026
SAIGE (Safe AI Germany) ist eine nationale Research- und Field-Building-Initiative, die im Januar 2026 gestartet ist. Wir glauben, dass die Entwicklung fortgeschrittener KI wahrscheinlich eines der folgenreichsten Ereignisse der Geschichte sein wird und Deutschland dabei eine entscheidende Rolle spielt. Deutschlands Weltklasse-Talente sind entscheidend für die globalen Bemühungen, katastrophale Risiken durch künstliche Intelligenz zu reduzieren. SAIGE existiert, um diesen Beitrag möglich zu machen. Wir bieten unser Inkubator-Programm, Ressourcen, professionelle Unterstützung und Events an, um deutschen Researcher:innen, Ingenieur:innen und Policymaker:innen dabei zu helfen, daran zu arbeiten, dass die Entwicklung von KI sicher verläuft.
Hinweis: Zum Zeitpunkt des Schreibens ist SAIGE komplett durch seine Director (mich) eigenfinanziert. Wenn dir gefällt, was wir bisher gemacht haben, und du Funding-Leads hast, kontaktiere mich bitte unter info@safeaigermany.org. Wenn dir nicht gefällt, was wir bisher gemacht haben, oder du Feedback hast, kontaktiere mich bitte ebenfalls unter info@safeaigermany.org.
Eine Zusammenfassung von SAIGE
Wir zielen darauf ab, eine drängende Ineffizienz in der aktuellen Landschaft zu beheben: den Mangel an Personen aus Deutschland, die so positioniert sind, dass sie die Entwicklung von fortgeschrittener KI positiv beeinflussen können.
In Bezug auf Geopolitik: Deutschland besitzt das politische und wirtschaftliche Gewicht, um das KI-Ökosystem der EU zu beeinflussen. Zum Beispiel fungierte Deutschland in der Endphase des EU AI Acts als entscheidende Swing-Vote, während einige große Mitgliedsstaaten sich gegen die vorläufige Einigung stellten. Dies stellte die erfolgreiche Verabschiedung der Gesetzgebung sicher.
Allein in Bezug auf technische Talente: Laut dem Statistischen Bundesamt (Destatis) hat Deutschland den höchsten Anteil an MINT-Masterabschlüssen in der EU (35 %) und übertrifft damit den EU-Durchschnitt von 25 % deutlich. Darüber hinaus verfügt Deutschland über einen Weltklasse-Ingenieursektor, zusammen mit jährlich ca. 300.000 Studierenden in MINT-Fächern (Quelle) und >110.000 Studierenden der Rechtswissenschaften (Quelle). Dennoch bleibt die globale Kapazität im Bereich Technical Safety und Governance kritisch begrenzt.
Wir sehen einen massiven strukturellen Engpass im lokalen Ökosystem: Praktisch keines dieser Top-Talente fließt in den Bereich AGI Safety. Stattdessen fließt diese verborgene Reserve an Industrie-Expert:innen fast ausschließlich in traditionelle Rollen (z. B. Maschinenbau mit 1,3 Millionen Beschäftigten), einfach weil ihnen der Kontext und die Infrastruktur fehlen, um ihre Skills auf AGI Safety anzuwenden.
Unsere Mission ist es, die zentralisierte Infrastruktur aufzubauen, die erforderlich ist, um diese Lücke zu schließen. Wir bewegen uns über unbeständige studentische Initiativen hinaus, um eine stabile nationale Organisation zu schaffen, die beide Gruppen unterstützt durch:
Upskilling: Wir haben unser erstes SAIGE Inkubator-Programm gestartet und bieten damit eine Abdeckung für Städte, denen derzeit lokale Hubs fehlen. Dies stellt sicher, dass High-Potential-Studierende und Professionals einen klaren Weg in das Feld finden. Wir haben 66 Mentorship-Bewerbungen für die Frühjahrs-Kohorte 2026 erhalten, konnten aber aus Kapazitätsgründen (da wir erst im Januar 2026 gestartet sind!) nur 21 davon aufnehmen (Annahmequote ≈ 32 %). Dies war keineswegs eine leichte Entscheidung. Der Project-Reviewing-Prozess wurde mit Hilfe unserer Board Advisors durchgeführt, von denen alle Expert:innen in ihren jeweiligen Feldern sind, einschließlich Technical/Governance Research, Communication und Field-Building. Zusammen mit dem Inkubator-Programm organisieren wir auch Events wie Diskussionen über „AI Middle Powers“, Networking-Meetups und Talks von globalen Expert:innen, damit unsere Community aktuelle Informationen und Networking-Möglichkeiten im Bereich AI Safety erhält.
Career Support: Für Career-Professionals sind wir eine Partnerschaft mit High Impact Professionals und Impact Academy eingegangen, um Netzwerk und Career Guidance zu bieten. Siehe unseren Pivot Track für weitere Details. Darüber hinaus arbeiten wir mit Successif für Workshops zusammen, in denen es darum geht, wie man seine Karriere in Richtung AI Safety pivotieren kann, wie zum Beispiel bei diesem.
Wir zielen darauf ab, eine drängende Ineffizienz in der aktuellen Landschaft zu beheben: den Mangel an Personen aus Deutschland, die so positioniert sind, dass sie die Entwicklung von fortgeschrittener KI positiv beeinflussen können.
In Bezug auf Geopolitik: Deutschland besitzt das politische und wirtschaftliche Gewicht, um das KI-Ökosystem der EU zu beeinflussen. Zum Beispiel fungierte Deutschland in der Endphase des EU AI Acts als entscheidende Swing-Vote, während einige große Mitgliedsstaaten sich gegen die vorläufige Einigung stellten. Dies stellte die erfolgreiche Verabschiedung der Gesetzgebung sicher.
Allein in Bezug auf technische Talente: Laut dem Statistischen Bundesamt (Destatis) hat Deutschland den höchsten Anteil an MINT-Masterabschlüssen in der EU (35 %) und übertrifft damit den EU-Durchschnitt von 25 % deutlich. Darüber hinaus verfügt Deutschland über einen Weltklasse-Ingenieursektor, zusammen mit jährlich ca. 300.000 Studierenden in MINT-Fächern (Quelle) und >110.000 Studierenden der Rechtswissenschaften (Quelle). Dennoch bleibt die globale Kapazität im Bereich Technical Safety und Governance kritisch begrenzt.
Wir sehen einen massiven strukturellen Engpass im lokalen Ökosystem: Praktisch keines dieser Top-Talente fließt in den Bereich AGI Safety. Stattdessen fließt diese verborgene Reserve an Industrie-Expert:innen fast ausschließlich in traditionelle Rollen (z. B. Maschinenbau mit 1,3 Millionen Beschäftigten), einfach weil ihnen der Kontext und die Infrastruktur fehlen, um ihre Skills auf AGI Safety anzuwenden.
Unsere Mission ist es, die zentralisierte Infrastruktur aufzubauen, die erforderlich ist, um diese Lücke zu schließen. Wir bewegen uns über unbeständige studentische Initiativen hinaus, um eine stabile nationale Organisation zu schaffen, die beide Gruppen unterstützt durch:
Upskilling: Wir haben unser erstes SAIGE Inkubator-Programm gestartet und bieten damit eine Abdeckung für Städte, denen derzeit lokale Hubs fehlen. Dies stellt sicher, dass High-Potential-Studierende und Professionals einen klaren Weg in das Feld finden. Wir haben 69 Mentorship-Bewerbungen für die Frühjahrs-Kohorte 2026 erhalten, konnten aber aus Kapazitätsgründen (da wir erst im Januar 2026 gestartet sind!) nur 22 davon aufnehmen (Annahmequote ≈ 32 %). Dies war keineswegs eine leichte Entscheidung. Der Project-Reviewing-Prozess wurde mit Hilfe unserer Board Advisors durchgeführt, von denen alle Expert:innen in ihren jeweiligen Feldern sind, einschließlich Technical/Governance Research, Communication und Field-Building. Zusammen mit dem Inkubator-Programm organisieren wir auch Events wie Diskussionen über „AI Middle Powers“, Networking-Meetups und Talks von globalen Expert:innen, damit unsere Community aktuelle Informationen und Networking-Möglichkeiten im Bereich AI Safety erhält.
Career Support: Für Career-Professionals sind wir eine Partnerschaft mit High Impact Professionals und Impact Academy eingegangen, um Netzwerk und Career Guidance zu bieten. Siehe unseren Pivot Track für weitere Details. Darüber hinaus arbeiten wir mit Successif für Workshops zusammen, in denen es darum geht, wie man seine Karriere in Richtung AI Safety pivotieren kann, wie zum Beispiel bei diesem.
Wir zielen darauf ab, eine drängende Ineffizienz in der aktuellen Landschaft zu beheben: den Mangel an Personen aus Deutschland, die so positioniert sind, dass sie die Entwicklung von fortgeschrittener KI positiv beeinflussen können.
In Bezug auf Geopolitik: Deutschland besitzt das politische und wirtschaftliche Gewicht, um das KI-Ökosystem der EU zu beeinflussen. Zum Beispiel fungierte Deutschland in der Endphase des EU AI Acts als entscheidende Swing-Vote, während einige große Mitgliedsstaaten sich gegen die vorläufige Einigung stellten. Dies stellte die erfolgreiche Verabschiedung der Gesetzgebung sicher.
Allein in Bezug auf technische Talente: Laut dem Statistischen Bundesamt (Destatis) hat Deutschland den höchsten Anteil an MINT-Masterabschlüssen in der EU (35 %) und übertrifft damit den EU-Durchschnitt von 25 % deutlich. Darüber hinaus verfügt Deutschland über einen Weltklasse-Ingenieursektor, zusammen mit jährlich ca. 300.000 Studierenden in MINT-Fächern (Quelle) und >110.000 Studierenden der Rechtswissenschaften (Quelle). Dennoch bleibt die globale Kapazität im Bereich Technical Safety und Governance kritisch begrenzt.
Wir sehen einen massiven strukturellen Engpass im lokalen Ökosystem: Praktisch keines dieser Top-Talente fließt in den Bereich AGI Safety. Stattdessen fließt diese verborgene Reserve an Industrie-Expert:innen fast ausschließlich in traditionelle Rollen (z. B. Maschinenbau mit 1,3 Millionen Beschäftigten), einfach weil ihnen der Kontext und die Infrastruktur fehlen, um ihre Skills auf AGI Safety anzuwenden.
Unsere Mission ist es, die zentralisierte Infrastruktur aufzubauen, die erforderlich ist, um diese Lücke zu schließen. Wir bewegen uns über unbeständige studentische Initiativen hinaus, um eine stabile nationale Organisation zu schaffen, die beide Gruppen unterstützt durch:
Upskilling: Wir haben unser erstes SAIGE Inkubator-Programm gestartet und bieten damit eine Abdeckung für Städte, denen derzeit lokale Hubs fehlen. Dies stellt sicher, dass High-Potential-Studierende und Professionals einen klaren Weg in das Feld finden. Wir haben 69 Mentorship-Bewerbungen für die Frühjahrs-Kohorte 2026 erhalten, konnten aber aus Kapazitätsgründen (da wir erst im Januar 2026 gestartet sind!) nur 22 davon aufnehmen (Annahmequote ≈ 32 %). Dies war keineswegs eine leichte Entscheidung. Der Project-Reviewing-Prozess wurde mit Hilfe unserer Board Advisors durchgeführt, von denen alle Expert:innen in ihren jeweiligen Feldern sind, einschließlich Technical/Governance Research, Communication und Field-Building. Zusammen mit dem Inkubator-Programm organisieren wir auch Events wie Diskussionen über „AI Middle Powers“, Networking-Meetups und Talks von globalen Expert:innen, damit unsere Community aktuelle Informationen und Networking-Möglichkeiten im Bereich AI Safety erhält.
Career Support: Für Career-Professionals sind wir eine Partnerschaft mit High Impact Professionals und Impact Academy eingegangen, um Netzwerk und Career Guidance zu bieten. Siehe unseren Pivot Track für weitere Details. Darüber hinaus arbeiten wir mit Successif für Workshops zusammen, in denen es darum geht, wie man seine Karriere in Richtung AI Safety pivotieren kann, wie zum Beispiel bei diesem.
Theory of Change / Was ist der Plan und wie führt er zu unserem gewünschten Ergebnis?
Wir zielen darauf ab, eine drängende Ineffizienz in der aktuellen Landschaft zu beheben: den Mangel an Personen aus Deutschland, die so positioniert sind, dass sie die Entwicklung von fortgeschrittener KI positiv beeinflussen können.
In Bezug auf Geopolitik: Deutschland besitzt das politische und wirtschaftliche Gewicht, um das KI-Ökosystem der EU zu beeinflussen. Zum Beispiel fungierte Deutschland in der Endphase des EU AI Acts als entscheidende Swing-Vote, während einige große Mitgliedsstaaten sich gegen die vorläufige Einigung stellten. Dies stellte die erfolgreiche Verabschiedung der Gesetzgebung sicher.
Allein in Bezug auf technische Talente: Laut dem Statistischen Bundesamt (Destatis) hat Deutschland den höchsten Anteil an MINT-Masterabschlüssen in der EU (35 %) und übertrifft damit den EU-Durchschnitt von 25 % deutlich. Darüber hinaus verfügt Deutschland über einen Weltklasse-Ingenieursektor, zusammen mit jährlich ca. 300.000 Studierenden in MINT-Fächern (Quelle) und >110.000 Studierenden der Rechtswissenschaften (Quelle). Dennoch bleibt die globale Kapazität im Bereich Technical Safety und Governance kritisch begrenzt.
Wir sehen einen massiven strukturellen Engpass im lokalen Ökosystem: Praktisch keines dieser Top-Talente fließt in den Bereich AGI Safety. Stattdessen fließt diese verborgene Reserve an Industrie-Expert:innen fast ausschließlich in traditionelle Rollen (z. B. Maschinenbau mit 1,3 Millionen Beschäftigten), einfach weil ihnen der Kontext und die Infrastruktur fehlen, um ihre Skills auf AGI Safety anzuwenden.
Unsere Mission ist es, die zentralisierte Infrastruktur aufzubauen, die erforderlich ist, um diese Lücke zu schließen. Wir bewegen uns über unbeständige studentische Initiativen hinaus, um eine stabile nationale Organisation zu schaffen, die beide Gruppen unterstützt durch:
Upskilling: Wir haben unser erstes SAIGE Inkubator-Programm gestartet und bieten damit eine Abdeckung für Städte, denen derzeit lokale Hubs fehlen. Dies stellt sicher, dass High-Potential-Studierende und Professionals einen klaren Weg in das Feld finden. Wir haben 66 Mentorship-Bewerbungen für die Frühjahrs-Kohorte 2026 erhalten, konnten aber aus Kapazitätsgründen (da wir erst im Januar 2026 gestartet sind!) nur 21 davon aufnehmen (Annahmequote ≈ 32 %). Dies war keineswegs eine leichte Entscheidung. Der Project-Reviewing-Prozess wurde mit Hilfe unserer Board Advisors durchgeführt, von denen alle Expert:innen in ihren jeweiligen Feldern sind, einschließlich Technical/Governance Research, Communication und Field-Building. Zusammen mit dem Inkubator-Programm organisieren wir auch Events wie Diskussionen über „AI Middle Powers“, Networking-Meetups und Talks von globalen Expert:innen, damit unsere Community aktuelle Informationen und Networking-Möglichkeiten im Bereich AI Safety erhält.
Career Support: Für Career-Professionals sind wir eine Partnerschaft mit High Impact Professionals und Impact Academy eingegangen, um Netzwerk und Career Guidance zu bieten. Siehe unseren Pivot Track für weitere Details. Darüber hinaus arbeiten wir mit Successif für Workshops zusammen, in denen es darum geht, wie man seine Karriere in Richtung AI Safety pivotieren kann, wie zum Beispiel bei diesem.
Derzeit ist der Weg des geringsten Widerstands für deutsche High-Potential-Talente, in klassische Industrie-Rollen zu strömen. Unsere Theory of Change konzentriert sich darauf, AI Safety-Talente durch Umleitung (Redirection) zu skalieren.
Ein Link zu unserem Theory of Change-Diagramm ist hier zu finden. Hinweis, dass "Sufficient funding" zum Zeitpunkt des Schreibens noch aussteht.
Wir definieren ein erfolgreiches „AI Safety Role“-Ergebnis so, dass es eines der folgenden Dinge umfasst:
Employment: Unbefristete Vollzeitstellen, befristete Kurzzeitstellen oder projektbasierte Contractor-Positionen bei etablierten Labs und Organisationen (z. B. MATS Fellowship);
Entrepreneurial Roles: Gründung neuer AI Safety-Initiativen oder Non-Profits;
Civic & Ecosystem Contribution: High-Impact Pro-Bono-Arbeit, wie die Beratung von Policymaker:innen oder das Halten von Educational Talks.
Hinweis: Da SAIGE gerade erst am Anfang steht und wir viele Aktivitäten in unserer Theory of Change aufgelistet haben, ist es notwendig festzulegen, welche wir entsprechend unserem Ziel zuerst priorisieren. Siehe die unten geplanten Aktivitäten für weitere Details.
Wir zielen darauf ab, eine drängende Ineffizienz in der aktuellen Landschaft zu beheben: den Mangel an Personen aus Deutschland, die so positioniert sind, dass sie die Entwicklung von fortgeschrittener KI positiv beeinflussen können.
In Bezug auf Geopolitik: Deutschland besitzt das politische und wirtschaftliche Gewicht, um das KI-Ökosystem der EU zu beeinflussen. Zum Beispiel fungierte Deutschland in der Endphase des EU AI Acts als entscheidende Swing-Vote, während einige große Mitgliedsstaaten sich gegen die vorläufige Einigung stellten. Dies stellte die erfolgreiche Verabschiedung der Gesetzgebung sicher.
Allein in Bezug auf technische Talente: Laut dem Statistischen Bundesamt (Destatis) hat Deutschland den höchsten Anteil an MINT-Masterabschlüssen in der EU (35 %) und übertrifft damit den EU-Durchschnitt von 25 % deutlich. Darüber hinaus verfügt Deutschland über einen Weltklasse-Ingenieursektor, zusammen mit jährlich ca. 300.000 Studierenden in MINT-Fächern (Quelle) und >110.000 Studierenden der Rechtswissenschaften (Quelle). Dennoch bleibt die globale Kapazität im Bereich Technical Safety und Governance kritisch begrenzt.
Wir sehen einen massiven strukturellen Engpass im lokalen Ökosystem: Praktisch keines dieser Top-Talente fließt in den Bereich AGI Safety. Stattdessen fließt diese verborgene Reserve an Industrie-Expert:innen fast ausschließlich in traditionelle Rollen (z. B. Maschinenbau mit 1,3 Millionen Beschäftigten), einfach weil ihnen der Kontext und die Infrastruktur fehlen, um ihre Skills auf AGI Safety anzuwenden.
Unsere Mission ist es, die zentralisierte Infrastruktur aufzubauen, die erforderlich ist, um diese Lücke zu schließen. Wir bewegen uns über unbeständige studentische Initiativen hinaus, um eine stabile nationale Organisation zu schaffen, die beide Gruppen unterstützt durch:
Upskilling: Wir haben unser erstes SAIGE Inkubator-Programm gestartet und bieten damit eine Abdeckung für Städte, denen derzeit lokale Hubs fehlen. Dies stellt sicher, dass High-Potential-Studierende und Professionals einen klaren Weg in das Feld finden. Wir haben 66 Mentorship-Bewerbungen für die Frühjahrs-Kohorte 2026 erhalten, konnten aber aus Kapazitätsgründen (da wir erst im Januar 2026 gestartet sind!) nur 21 davon aufnehmen (Annahmequote ≈ 32 %). Dies war keineswegs eine leichte Entscheidung. Der Project-Reviewing-Prozess wurde mit Hilfe unserer Board Advisors durchgeführt, von denen alle Expert:innen in ihren jeweiligen Feldern sind, einschließlich Technical/Governance Research, Communication und Field-Building. Zusammen mit dem Inkubator-Programm organisieren wir auch Events wie Diskussionen über „AI Middle Powers“, Networking-Meetups und Talks von globalen Expert:innen, damit unsere Community aktuelle Informationen und Networking-Möglichkeiten im Bereich AI Safety erhält.
Career Support: Für Career-Professionals sind wir eine Partnerschaft mit High Impact Professionals und Impact Academy eingegangen, um Netzwerk und Career Guidance zu bieten. Siehe unseren Pivot Track für weitere Details. Darüber hinaus arbeiten wir mit Successif für Workshops zusammen, in denen es darum geht, wie man seine Karriere in Richtung AI Safety pivotieren kann, wie zum Beispiel bei diesem.
Unsere Aktivitäten
Wir zielen darauf ab, eine drängende Ineffizienz in der aktuellen Landschaft zu beheben: den Mangel an Personen aus Deutschland, die so positioniert sind, dass sie die Entwicklung von fortgeschrittener KI positiv beeinflussen können.
In Bezug auf Geopolitik: Deutschland besitzt das politische und wirtschaftliche Gewicht, um das KI-Ökosystem der EU zu beeinflussen. Zum Beispiel fungierte Deutschland in der Endphase des EU AI Acts als entscheidende Swing-Vote, während einige große Mitgliedsstaaten sich gegen die vorläufige Einigung stellten. Dies stellte die erfolgreiche Verabschiedung der Gesetzgebung sicher.
Allein in Bezug auf technische Talente: Laut dem Statistischen Bundesamt (Destatis) hat Deutschland den höchsten Anteil an MINT-Masterabschlüssen in der EU (35 %) und übertrifft damit den EU-Durchschnitt von 25 % deutlich. Darüber hinaus verfügt Deutschland über einen Weltklasse-Ingenieursektor, zusammen mit jährlich ca. 300.000 Studierenden in MINT-Fächern (Quelle) und >110.000 Studierenden der Rechtswissenschaften (Quelle). Dennoch bleibt die globale Kapazität im Bereich Technical Safety und Governance kritisch begrenzt.
Wir sehen einen massiven strukturellen Engpass im lokalen Ökosystem: Praktisch keines dieser Top-Talente fließt in den Bereich AGI Safety. Stattdessen fließt diese verborgene Reserve an Industrie-Expert:innen fast ausschließlich in traditionelle Rollen (z. B. Maschinenbau mit 1,3 Millionen Beschäftigten), einfach weil ihnen der Kontext und die Infrastruktur fehlen, um ihre Skills auf AGI Safety anzuwenden.
Unsere Mission ist es, die zentralisierte Infrastruktur aufzubauen, die erforderlich ist, um diese Lücke zu schließen. Wir bewegen uns über unbeständige studentische Initiativen hinaus, um eine stabile nationale Organisation zu schaffen, die beide Gruppen unterstützt durch:
Upskilling: Wir haben unser erstes SAIGE Inkubator-Programm gestartet und bieten damit eine Abdeckung für Städte, denen derzeit lokale Hubs fehlen. Dies stellt sicher, dass High-Potential-Studierende und Professionals einen klaren Weg in das Feld finden. Wir haben 66 Mentorship-Bewerbungen für die Frühjahrs-Kohorte 2026 erhalten, konnten aber aus Kapazitätsgründen (da wir erst im Januar 2026 gestartet sind!) nur 21 davon aufnehmen (Annahmequote ≈ 32 %). Dies war keineswegs eine leichte Entscheidung. Der Project-Reviewing-Prozess wurde mit Hilfe unserer Board Advisors durchgeführt, von denen alle Expert:innen in ihren jeweiligen Feldern sind, einschließlich Technical/Governance Research, Communication und Field-Building. Zusammen mit dem Inkubator-Programm organisieren wir auch Events wie Diskussionen über „AI Middle Powers“, Networking-Meetups und Talks von globalen Expert:innen, damit unsere Community aktuelle Informationen und Networking-Möglichkeiten im Bereich AI Safety erhält.
Career Support: Für Career-Professionals sind wir eine Partnerschaft mit High Impact Professionals und Impact Academy eingegangen, um Netzwerk und Career Guidance zu bieten. Siehe unseren Pivot Track für weitere Details. Darüber hinaus arbeiten wir mit Successif für Workshops zusammen, in denen es darum geht, wie man seine Karriere in Richtung AI Safety pivotieren kann, wie zum Beispiel bei diesem.
Aufgrund von Funding-Einschränkungen teilen wir unsere Aktivitäten in zwei Phasen auf. Diejenigen in Phase I werden bereits durchgeführt. Dazu gehören Aktivitäten, die relativ Low-Budget sind. Aktivitäten der Phase II bedeuten Skalierung und Institutionalisierung, was von einer Finanzierung abhängig ist.
Phase I:
Pivot Track für Career-Professionals
Low-Budget Online-Events
Basic Infrastructure Support für lokale Gruppen Wir unterstützen derzeit den Aufbau neuer lokaler Gruppen in Frankfurt, Bonn und Nürnberg.
Phase II:
In-Person Events/Retreats, inkl. eines nationalen Retreats für lokales Leadership alle 6 Monate, um sich gegenseitig und SAIGE Feedback zu geben
SAIGE Day
In-Person Hackathons (bereits vereinbarte Zusammenarbeit mit Apart Research)
Deployment eines zentralisierten Tech-Stacks, um lokale Organisator:innen von administrativen Aufgaben zu entlasten
Abhängig von der Kapazität könnten wir in Phase II auch Events einbeziehen, die wahrscheinlich zu unserer Outreach beitragen würden, aber derzeit nicht auf unserer Prioritätenliste stehen – wie etwa ein Einführungskurs in Partnerschaft mit AIS Collab, der in die deutschen Semesterzeiten passt, sowie die Etablierung eines Wochenend-Intensivprogramms für Career-Professionals, das besser zu deren Zeitplänen und zeitlichen Kapazitäten passt. Sie sind derzeit nicht in Phase I aufgeführt, da das Inkubator-Programm bereits darauf abzielt, einen Einführungskurs zu beinhalten, und wir derzeit nicht den genauen, quantitativen Impact eines solchen Programms kennen. Wenn wir jedoch positive Ergebnisse erzielen und ausreichend Funding erhalten, werden wir diese ebenfalls für Phase II in Betracht ziehen.
Wir zielen darauf ab, eine drängende Ineffizienz in der aktuellen Landschaft zu beheben: den Mangel an Personen aus Deutschland, die so positioniert sind, dass sie die Entwicklung von fortgeschrittener KI positiv beeinflussen können.
In Bezug auf Geopolitik: Deutschland besitzt das politische und wirtschaftliche Gewicht, um das KI-Ökosystem der EU zu beeinflussen. Zum Beispiel fungierte Deutschland in der Endphase des EU AI Acts als entscheidende Swing-Vote, während einige große Mitgliedsstaaten sich gegen die vorläufige Einigung stellten. Dies stellte die erfolgreiche Verabschiedung der Gesetzgebung sicher.
Allein in Bezug auf technische Talente: Laut dem Statistischen Bundesamt (Destatis) hat Deutschland den höchsten Anteil an MINT-Masterabschlüssen in der EU (35 %) und übertrifft damit den EU-Durchschnitt von 25 % deutlich. Darüber hinaus verfügt Deutschland über einen Weltklasse-Ingenieursektor, zusammen mit jährlich ca. 300.000 Studierenden in MINT-Fächern (Quelle) und >110.000 Studierenden der Rechtswissenschaften (Quelle). Dennoch bleibt die globale Kapazität im Bereich Technical Safety und Governance kritisch begrenzt.
Wir sehen einen massiven strukturellen Engpass im lokalen Ökosystem: Praktisch keines dieser Top-Talente fließt in den Bereich AGI Safety. Stattdessen fließt diese verborgene Reserve an Industrie-Expert:innen fast ausschließlich in traditionelle Rollen (z. B. Maschinenbau mit 1,3 Millionen Beschäftigten), einfach weil ihnen der Kontext und die Infrastruktur fehlen, um ihre Skills auf AGI Safety anzuwenden.
Unsere Mission ist es, die zentralisierte Infrastruktur aufzubauen, die erforderlich ist, um diese Lücke zu schließen. Wir bewegen uns über unbeständige studentische Initiativen hinaus, um eine stabile nationale Organisation zu schaffen, die beide Gruppen unterstützt durch:
Upskilling: Wir haben unser erstes SAIGE Inkubator-Programm gestartet und bieten damit eine Abdeckung für Städte, denen derzeit lokale Hubs fehlen. Dies stellt sicher, dass High-Potential-Studierende und Professionals einen klaren Weg in das Feld finden. Wir haben 66 Mentorship-Bewerbungen für die Frühjahrs-Kohorte 2026 erhalten, konnten aber aus Kapazitätsgründen (da wir erst im Januar 2026 gestartet sind!) nur 21 davon aufnehmen (Annahmequote ≈ 32 %). Dies war keineswegs eine leichte Entscheidung. Der Project-Reviewing-Prozess wurde mit Hilfe unserer Board Advisors durchgeführt, von denen alle Expert:innen in ihren jeweiligen Feldern sind, einschließlich Technical/Governance Research, Communication und Field-Building. Zusammen mit dem Inkubator-Programm organisieren wir auch Events wie Diskussionen über „AI Middle Powers“, Networking-Meetups und Talks von globalen Expert:innen, damit unsere Community aktuelle Informationen und Networking-Möglichkeiten im Bereich AI Safety erhält.
Career Support: Für Career-Professionals sind wir eine Partnerschaft mit High Impact Professionals und Impact Academy eingegangen, um Netzwerk und Career Guidance zu bieten. Siehe unseren Pivot Track für weitere Details. Darüber hinaus arbeiten wir mit Successif für Workshops zusammen, in denen es darum geht, wie man seine Karriere in Richtung AI Safety pivotieren kann, wie zum Beispiel bei diesem.
Unser Team (aber detaillierter)
Wir zielen darauf ab, eine drängende Ineffizienz in der aktuellen Landschaft zu beheben: den Mangel an Personen aus Deutschland, die so positioniert sind, dass sie die Entwicklung von fortgeschrittener KI positiv beeinflussen können.
In Bezug auf Geopolitik: Deutschland besitzt das politische und wirtschaftliche Gewicht, um das KI-Ökosystem der EU zu beeinflussen. Zum Beispiel fungierte Deutschland in der Endphase des EU AI Acts als entscheidende Swing-Vote, während einige große Mitgliedsstaaten sich gegen die vorläufige Einigung stellten. Dies stellte die erfolgreiche Verabschiedung der Gesetzgebung sicher.
Allein in Bezug auf technische Talente: Laut dem Statistischen Bundesamt (Destatis) hat Deutschland den höchsten Anteil an MINT-Masterabschlüssen in der EU (35 %) und übertrifft damit den EU-Durchschnitt von 25 % deutlich. Darüber hinaus verfügt Deutschland über einen Weltklasse-Ingenieursektor, zusammen mit jährlich ca. 300.000 Studierenden in MINT-Fächern (Quelle) und >110.000 Studierenden der Rechtswissenschaften (Quelle). Dennoch bleibt die globale Kapazität im Bereich Technical Safety und Governance kritisch begrenzt.
Wir sehen einen massiven strukturellen Engpass im lokalen Ökosystem: Praktisch keines dieser Top-Talente fließt in den Bereich AGI Safety. Stattdessen fließt diese verborgene Reserve an Industrie-Expert:innen fast ausschließlich in traditionelle Rollen (z. B. Maschinenbau mit 1,3 Millionen Beschäftigten), einfach weil ihnen der Kontext und die Infrastruktur fehlen, um ihre Skills auf AGI Safety anzuwenden.
Unsere Mission ist es, die zentralisierte Infrastruktur aufzubauen, die erforderlich ist, um diese Lücke zu schließen. Wir bewegen uns über unbeständige studentische Initiativen hinaus, um eine stabile nationale Organisation zu schaffen, die beide Gruppen unterstützt durch:
Upskilling: Wir haben unser erstes SAIGE Inkubator-Programm gestartet und bieten damit eine Abdeckung für Städte, denen derzeit lokale Hubs fehlen. Dies stellt sicher, dass High-Potential-Studierende und Professionals einen klaren Weg in das Feld finden. Wir haben 66 Mentorship-Bewerbungen für die Frühjahrs-Kohorte 2026 erhalten, konnten aber aus Kapazitätsgründen (da wir erst im Januar 2026 gestartet sind!) nur 21 davon aufnehmen (Annahmequote ≈ 32 %). Dies war keineswegs eine leichte Entscheidung. Der Project-Reviewing-Prozess wurde mit Hilfe unserer Board Advisors durchgeführt, von denen alle Expert:innen in ihren jeweiligen Feldern sind, einschließlich Technical/Governance Research, Communication und Field-Building. Zusammen mit dem Inkubator-Programm organisieren wir auch Events wie Diskussionen über „AI Middle Powers“, Networking-Meetups und Talks von globalen Expert:innen, damit unsere Community aktuelle Informationen und Networking-Möglichkeiten im Bereich AI Safety erhält.
Career Support: Für Career-Professionals sind wir eine Partnerschaft mit High Impact Professionals und Impact Academy eingegangen, um Netzwerk und Career Guidance zu bieten. Siehe unseren Pivot Track für weitere Details. Darüber hinaus arbeiten wir mit Successif für Workshops zusammen, in denen es darum geht, wie man seine Karriere in Richtung AI Safety pivotieren kann, wie zum Beispiel bei diesem.
Du kannst auf der "Unser Team"-Seite Informationen darüber finden, wer in unserem Core Team ist und wer unsere Board Advisors sind. Unten ist eine Liste mit weiteren Informationen zu allen.
Wir zielen darauf ab, eine drängende Ineffizienz in der aktuellen Landschaft zu beheben: den Mangel an Personen aus Deutschland, die so positioniert sind, dass sie die Entwicklung von fortgeschrittener KI positiv beeinflussen können.
In Bezug auf Geopolitik: Deutschland besitzt das politische und wirtschaftliche Gewicht, um das KI-Ökosystem der EU zu beeinflussen. Zum Beispiel fungierte Deutschland in der Endphase des EU AI Acts als entscheidende Swing-Vote, während einige große Mitgliedsstaaten sich gegen die vorläufige Einigung stellten. Dies stellte die erfolgreiche Verabschiedung der Gesetzgebung sicher.
Allein in Bezug auf technische Talente: Laut dem Statistischen Bundesamt (Destatis) hat Deutschland den höchsten Anteil an MINT-Masterabschlüssen in der EU (35 %) und übertrifft damit den EU-Durchschnitt von 25 % deutlich. Darüber hinaus verfügt Deutschland über einen Weltklasse-Ingenieursektor, zusammen mit jährlich ca. 300.000 Studierenden in MINT-Fächern (Quelle) und >110.000 Studierenden der Rechtswissenschaften (Quelle). Dennoch bleibt die globale Kapazität im Bereich Technical Safety und Governance kritisch begrenzt.
Wir sehen einen massiven strukturellen Engpass im lokalen Ökosystem: Praktisch keines dieser Top-Talente fließt in den Bereich AGI Safety. Stattdessen fließt diese verborgene Reserve an Industrie-Expert:innen fast ausschließlich in traditionelle Rollen (z. B. Maschinenbau mit 1,3 Millionen Beschäftigten), einfach weil ihnen der Kontext und die Infrastruktur fehlen, um ihre Skills auf AGI Safety anzuwenden.
Unsere Mission ist es, die zentralisierte Infrastruktur aufzubauen, die erforderlich ist, um diese Lücke zu schließen. Wir bewegen uns über unbeständige studentische Initiativen hinaus, um eine stabile nationale Organisation zu schaffen, die beide Gruppen unterstützt durch:
Upskilling: Wir haben unser erstes SAIGE Inkubator-Programm gestartet und bieten damit eine Abdeckung für Städte, denen derzeit lokale Hubs fehlen. Dies stellt sicher, dass High-Potential-Studierende und Professionals einen klaren Weg in das Feld finden. Wir haben 66 Mentorship-Bewerbungen für die Frühjahrs-Kohorte 2026 erhalten, konnten aber aus Kapazitätsgründen (da wir erst im Januar 2026 gestartet sind!) nur 21 davon aufnehmen (Annahmequote ≈ 32 %). Dies war keineswegs eine leichte Entscheidung. Der Project-Reviewing-Prozess wurde mit Hilfe unserer Board Advisors durchgeführt, von denen alle Expert:innen in ihren jeweiligen Feldern sind, einschließlich Technical/Governance Research, Communication und Field-Building. Zusammen mit dem Inkubator-Programm organisieren wir auch Events wie Diskussionen über „AI Middle Powers“, Networking-Meetups und Talks von globalen Expert:innen, damit unsere Community aktuelle Informationen und Networking-Möglichkeiten im Bereich AI Safety erhält.
Career Support: Für Career-Professionals sind wir eine Partnerschaft mit High Impact Professionals und Impact Academy eingegangen, um Netzwerk und Career Guidance zu bieten. Siehe unseren Pivot Track für weitere Details. Darüber hinaus arbeiten wir mit Successif für Workshops zusammen, in denen es darum geht, wie man seine Karriere in Richtung AI Safety pivotieren kann, wie zum Beispiel bei diesem.
Kernteam
Kernteam
Jessica P. Wang, Director
Hintergrund: Akademischer Hintergrund in Mathematik. Arbeitete bei Epoch AI an der Entwicklung und späteren Co-Organisation des FrontierMath-Projekts. Speziell als Outreach Coordinator, um Talente für Tier 4 zu sourcen, und co-organisierte das 2025 FrontierMath Symposium bei Constellation. Top 9 Global Contributor für Humanity's Last Exam. Arbeitete zuvor als Reviewer für den $18 Millionen schweren AI for Math Fund bei Renaissance Philanthropy. Ebenso als Global Operations Analyst bei Calastone, dem größten globalen Fondsnetzwerk. Arbeitete bei der Internationalen Mathematik-Olympiade als alleinige offizielle Fotografin mit über 1300 Teilnehmer:innen. War zudem Präsidentin der Durham University Maths Society und Ambassador für das Institute of Physics.
Verantwortlichkeiten: Überwacht den Gesamtfortschritt, das Design und die Ausführung der Aktivitäten. Kommuniziert mit bestehenden und potenziellen Kollaborateur:innen, um sicherzustellen, dass die Aktivitäten reibungslos ablaufen. Ebenso verantwortlich für Outreach, Fundraising und die gesamte Website.Manon Kempermann, Tech Lead
Hintergrund: Akademischer Hintergrund in Data Science und Artificial Intelligence. Gründerin von AI Safety Saarland. Schreibt derzeit ihre Thesis am Max-Planck-Institut für Softwaresysteme über Red-Teaming für Misalignment in AI-Agenten. Pathfinder-Mentor bei Kairos. Organisierte AI Safety Events, darunter einen Talk mit Anthropic mit über 300 Teilnehmer:innen. Arbeitet außerdem als Research Assistant am Interdisciplinary Institute for Societal Computing. Ihre aktuelle Forschung konzentriert sich auf Kontextsichtigkeit in AI Safety-Evaluationen. Präsentierte auf der IASEAI26 in Paris ihr Paper "Challenges of Evaluating LLM Safety for User Welfare".
Verantwortlichkeiten: Arbeitet mit der Director am landesweiten Rollout des Interdisciplinary Research Incubator-Modells und passt das erfolgreiche AIS Saarland-Framework für einen deutlich breiteren deutschen Kontext an. Überwacht das strategische Pairing von technischen Mentor:innen mit Teilnehmer:innen, um den Research-Output zu maximieren.Jessie Kelly, Governance Lead
Hintergrund: Akademischer Hintergrund in den Rechtswissenschaften. Entwarf und implementierte Realignment-Programme und nationale Policies für Regierungen, einschließlich der australischen Regierung. Über 15 Jahre Erfahrung in der Unterstützung von Regierungen bei neuen Programmen und Policies, einschließlich der Analyse von Technologietrends. Neben SAIGE arbeitet sie derzeit an einem Projekt mit den Vereinten Nationen und einem wissenschaftlichen Institut, um zu untersuchen, wie die Grundregeln für AI Governance in der Landwirtschaft aussehen sollten. Zuvor arbeitete sie mit der nationalen Wissenschaftsagentur Australiens (CSIRO), der australischen Botschaft in Berlin und dem Deutschen Roten Kreuz zusammen.
Verantwortlichkeiten: Überwacht und leitet den AI Governance-Track des SAIGE Research Inkubators. Identifiziert hochkarätige Mentor:innen und hilft Governance Research Fellows, in ihren Projekten und Karrieren voranzukommen. Arbeitet mit dem Tech Lead und der Director zusammen, um sicherzustellen, dass der SAIGE Inkubator reibungslos läuft.Franziska Heuschkel, Communications Manager
Hintergrund: Akademischer Hintergrund in International Management und Intercultural Communication. Verbrachte 7 Jahre damit, Marken- und Visibility-Initiativen für internationale Konzerne wie Coca-Cola und Lufthansa zu gestalten, bevor sie 7 Jahre als Beraterin arbeitete und Start-ups sowie KMUs im Bereich Hospitality/Prop-Tech zu nutzerzentrierter Positionierung und Nachhaltigkeit beriet. Co-Gründerin einer Berliner Agentur und eines Think Tanks, der Innovation Hubs und Co-Working Spaces basierend auf Human-Centered Design-Methoden konzipiert. Baute Programme auf, förderte funktionsübergreifende Zusammenarbeit und organisierte mehr als 30 Events, Talks und Workshops innerhalb der Berliner Start-up-Landschaft.
Verantwortlichkeiten: Arbeitet mit der Director an der Gestaltung von Promotionsmaterialien für wichtige Initiativen. Treibt kontinuierliche Verbesserungen voran, indem sie Feedback von Events sammelt und analysiert, um die Bedürfnisse der Zielgruppe besser zu verstehen und die Angebote von SAIGE zu verfeinern. Dient darüber hinaus als Repräsentantin von SAIGE vor Ort bei In-Person Events und Networking-Möglichkeiten im gesamten Berliner Ökosystem.
Jessica P. Wang, Director
Hintergrund: Akademischer Hintergrund in Mathematik. Arbeitete bei Epoch AI an der Entwicklung und späteren Co-Organisation des FrontierMath-Projekts. Speziell als Outreach Coordinator, um Talente für Tier 4 zu sourcen, und co-organisierte das 2025 FrontierMath Symposium bei Constellation. Top 9 Global Contributor für Humanity's Last Exam. Arbeitete zuvor als Reviewer für den $18 Millionen schweren AI for Math Fund bei Renaissance Philanthropy. Ebenso als Global Operations Analyst bei Calastone, dem größten globalen Fondsnetzwerk. Arbeitete bei der Internationalen Mathematik-Olympiade als alleinige offizielle Fotografin mit über 1300 Teilnehmer:innen. War zudem Präsidentin der Durham University Maths Society und Ambassador für das Institute of Physics.
Verantwortlichkeiten: Überwacht den Gesamtfortschritt, das Design und die Ausführung der Aktivitäten. Kommuniziert mit bestehenden und potenziellen Kollaborateur:innen, um sicherzustellen, dass die Aktivitäten reibungslos ablaufen. Ebenso verantwortlich für Outreach, Fundraising und die gesamte Website.Manon Kempermann, Tech Lead
Hintergrund: Akademischer Hintergrund in Data Science und Artificial Intelligence. Gründerin von AI Safety Saarland. Schreibt derzeit ihre Thesis am Max-Planck-Institut für Softwaresysteme über Red-Teaming für Misalignment in AI-Agenten. Pathfinder-Mentor bei Kairos. Organisierte AI Safety Events, darunter einen Talk mit Anthropic mit über 300 Teilnehmer:innen. Arbeitet außerdem als Research Assistant am Interdisciplinary Institute for Societal Computing. Ihre aktuelle Forschung konzentriert sich auf Kontextsichtigkeit in AI Safety-Evaluationen. Präsentierte auf der IASEAI26 in Paris ihr Paper "Challenges of Evaluating LLM Safety for User Welfare".
Verantwortlichkeiten: Arbeitet mit der Director am landesweiten Rollout des Interdisciplinary Research Incubator-Modells und passt das erfolgreiche AIS Saarland-Framework für einen deutlich breiteren deutschen Kontext an. Überwacht das strategische Pairing von technischen Mentor:innen mit Teilnehmer:innen, um den Research-Output zu maximieren.Jessie Kelly, Governance Lead
Hintergrund: Akademischer Hintergrund in den Rechtswissenschaften. Entwarf und implementierte Realignment-Programme und nationale Policies für Regierungen, einschließlich der australischen Regierung. Über 15 Jahre Erfahrung in der Unterstützung von Regierungen bei neuen Programmen und Policies, einschließlich der Analyse von Technologietrends. Neben SAIGE arbeitet sie derzeit an einem Projekt mit den Vereinten Nationen und einem wissenschaftlichen Institut, um zu untersuchen, wie die Grundregeln für AI Governance in der Landwirtschaft aussehen sollten. Zuvor arbeitete sie mit der nationalen Wissenschaftsagentur Australiens (CSIRO), der australischen Botschaft in Berlin und dem Deutschen Roten Kreuz zusammen.
Verantwortlichkeiten: Überwacht und leitet den AI Governance-Track des SAIGE Research Inkubators. Identifiziert hochkarätige Mentor:innen und hilft Governance Research Fellows, in ihren Projekten und Karrieren voranzukommen. Arbeitet mit dem Tech Lead und der Director zusammen, um sicherzustellen, dass der SAIGE Inkubator reibungslos läuft.Franziska Heuschkel, Communications Manager
Hintergrund: Akademischer Hintergrund in International Management und Intercultural Communication. Verbrachte 7 Jahre damit, Marken- und Visibility-Initiativen für internationale Konzerne wie Coca-Cola und Lufthansa zu gestalten, bevor sie 7 Jahre als Beraterin arbeitete und Start-ups sowie KMUs im Bereich Hospitality/Prop-Tech zu nutzerzentrierter Positionierung und Nachhaltigkeit beriet. Co-Gründerin einer Berliner Agentur und eines Think Tanks, der Innovation Hubs und Co-Working Spaces basierend auf Human-Centered Design-Methoden konzipiert. Baute Programme auf, förderte funktionsübergreifende Zusammenarbeit und organisierte mehr als 30 Events, Talks und Workshops innerhalb der Berliner Start-up-Landschaft.
Verantwortlichkeiten: Arbeitet mit der Director an der Gestaltung von Promotionsmaterialien für wichtige Initiativen. Treibt kontinuierliche Verbesserungen voran, indem sie Feedback von Events sammelt und analysiert, um die Bedürfnisse der Zielgruppe besser zu verstehen und die Angebote von SAIGE zu verfeinern. Dient darüber hinaus als Repräsentantin von SAIGE vor Ort bei In-Person Events und Networking-Möglichkeiten im gesamten Berliner Ökosystem.
Beiratsmitglieder
Beiratsmitglieder
Da unser Core Team die potenzielle Schwäche hat, relativ neu im Bereich AI Safety zu sein, sind wir sehr dankbar, eine Liste von Expert:innen aus verschiedenen Bereichen zu haben, die uns helfen, gute Entscheidungen zu treffen (einschließlich, aber nicht beschränkt auf: Mentorship Project Review für unseren Inkubator, Beratung bei Program Management, Leadership-Struktur usw.):
Leadership Advisors: Führen regelmäßige Calls mit der Director, um Feedback zu geben und sicherzustellen, dass die Aktivitäten von SAIGE mit dem größeren AI Safety-Ökosystem abgestimmt sind. Stellen außerdem sicher, dass die geplanten Aktivitäten im Hinblick auf die Kapazitäten des Core Teams realistisch sind.
Gergő Gáspár (Direktor, ENAIS & EA UK)
Tzu Kit Chan (Stabschef, Atlas Computing)
Trevor Lohrbeer (Auftragnehmer, Redwood Research)
Marcel Steimke (Community-Manager, EA Schweiz)
Operations Advisors: Beraten das Core Team bei der praktischen Umsetzung und logistischen Planung der Aktivitäten von SAIGE. Bieten konkrete Anleitung, wenn operative Unsicherheiten auftreten, wie z. B. bei der Bestimmung des optimalen Formats für Programme oder der Beratung zur Ressourcenzuteilung.
Anders Edson (Program Koordinator, CAIS)
Marta Krzeminska (Program Leiterin, FIG)
Callum Hinchcliffe (Programmmanager, Arcadia Impact)
Nico Hillbrand (Gründer, AI Safety Aachen)
Technical Advisors: Beraten das Core Team hinsichtlich der technischen Ausrichtung der Initiativen von SAIGE und greifen dabei auf jahrelange, tiefgehende Erfahrung im Bereich AI Alignment zurück. Bieten eine fachkundige Bewertung technischer Projektvorschläge für den Inkubator, um Mission Alignment sicherzustellen, identifizieren die kritischsten und relevantesten AI Safety-Themen für das heutige Ökosystem und lösen technische Unsicherheiten, auf die das Core Team stößt.
Justin Shenk (Forschungsingenieur, Redwood Research)
Steven Basart (Forschungsingenieur & Gründer, CAIS)
Robert Kralisch (Independent Alignment Researcher & Organisator, AI Safety Camp)
Adrià Garriga-Alonso (Forschungswissenschaftler, FAR.AI)
Governance Advisors: Analog zur Rolle der Technical Advisors, jedoch für die Governance- / Technical Governance-Ausrichtung der SAIGE-Initiativen.
Felix Frückel (KI-Politikberater, Stanford SAFE)
Yannick Mülhäuser (Politikberater, FLI)
Antonia Briel (Programm Koordinatorin, Talos Network)
Carolin Basilowski (Netzwerkstrategie Leiterin, Talos Network)
Obwohl wir stolz auf die Traktion sind, die unser Inkubator und der Pivot Track bereits erreicht haben (+ fast 300 Anmeldungen für unser Launch-Event), ist dies erst der Anfang von Phase I. Das Zeitfenster, um transformative KI positiv zu gestalten, ist eng, und Europas Top-Talente an der Seitenlinie stehen zu lassen, ist ein systemisches Versagen, das wir uns nicht länger leisten können.
Egal, ob du dich für AI Safety interessierst, ein Professional bist, der seine Karriere pivotieren möchte, eine Expert:in, die bereit ist, die nächste Generation zu mentoren, oder eine Funder:in, die uns helfen möchte, unsere Aktivitäten zu skalieren: Bitte nimm an unseren Aktivitäten teil und/oder kontaktiere uns!
Da unser Core Team die potenzielle Schwäche hat, relativ neu im Bereich AI Safety zu sein, sind wir sehr dankbar, eine Liste von Expert:innen aus verschiedenen Bereichen zu haben, die uns helfen, gute Entscheidungen zu treffen (einschließlich, aber nicht beschränkt auf: Mentorship Project Review für unseren Inkubator, Beratung bei Program Management, Leadership-Struktur usw.):
Leadership Advisors: Führen regelmäßige Calls mit der Director, um Feedback zu geben und sicherzustellen, dass die Aktivitäten von SAIGE mit dem größeren AI Safety-Ökosystem abgestimmt sind. Stellen außerdem sicher, dass die geplanten Aktivitäten im Hinblick auf die Kapazitäten des Core Teams realistisch sind.
Gergő Gáspár (Direktor, ENAIS & EA UK)
Tzu Kit Chan (Stabschef, Atlas Computing)
Trevor Lohrbeer (Auftragnehmer, Redwood Research)
Marcel Steimke (Community-Manager, EA Schweiz)
Operations Advisors: Beraten das Core Team bei der praktischen Umsetzung und logistischen Planung der Aktivitäten von SAIGE. Bieten konkrete Anleitung, wenn operative Unsicherheiten auftreten, wie z. B. bei der Bestimmung des optimalen Formats für Programme oder der Beratung zur Ressourcenzuteilung.
Anders Edson (Program Koordinator, CAIS)
Marta Krzeminska (Program Leiterin, FIG)
Callum Hinchcliffe (Programmmanager, Arcadia Impact)
Nico Hillbrand (Gründer, AI Safety Aachen)
Technical Advisors: Beraten das Core Team hinsichtlich der technischen Ausrichtung der Initiativen von SAIGE und greifen dabei auf jahrelange, tiefgehende Erfahrung im Bereich AI Alignment zurück. Bieten eine fachkundige Bewertung technischer Projektvorschläge für den Inkubator, um Mission Alignment sicherzustellen, identifizieren die kritischsten und relevantesten AI Safety-Themen für das heutige Ökosystem und lösen technische Unsicherheiten, auf die das Core Team stößt.
Justin Shenk (Forschungsingenieur, Redwood Research)
Steven Basart (Forschungsingenieur & Gründer, CAIS)
Robert Kralisch (Independent Alignment Researcher & Organisator, AI Safety Camp)
Adrià Garriga-Alonso (Forschungswissenschaftler, FAR.AI)
Governance Advisors: Analog zur Rolle der Technical Advisors, jedoch für die Governance- / Technical Governance-Ausrichtung der SAIGE-Initiativen.
Felix Frückel (KI-Politikberater, Stanford SAFE)
Yannick Mülhäuser (Politikberater, FLI)
Antonia Briel (Programm Koordinatorin, Talos Network)
Carolin Basilowski (Netzwerkstrategie Leiterin, Talos Network)
Obwohl wir stolz auf die Traktion sind, die unser Inkubator und der Pivot Track bereits erreicht haben (+ fast 300 Anmeldungen für unser Launch-Event), ist dies erst der Anfang von Phase I. Das Zeitfenster, um transformative KI positiv zu gestalten, ist eng, und Europas Top-Talente an der Seitenlinie stehen zu lassen, ist ein systemisches Versagen, das wir uns nicht länger leisten können.
Egal, ob du dich für AI Safety interessierst, ein Professional bist, der seine Karriere pivotieren möchte, eine Expert:in, die bereit ist, die nächste Generation zu mentoren, oder eine Funder:in, die uns helfen möchte, unsere Aktivitäten zu skalieren: Bitte nimm an unseren Aktivitäten teil und/oder kontaktiere uns!