
Wir sind nicht bereit
für Superintelligenz
Wir bei PauseAI Deutschland klären die Bevölkerung und Politik über KI Risiken auf, insbesondere über existenzielles Risiko.
Das Problem
KI-Labore arbeiten auf eine künstliche Superintelligenz zu – jedoch weiß niemand, wie diese kontrolliert werden kann. Viele Forscher warnen, dass dies zur Auslöschung der Menschheit führen könnte.
Die Lösung
Ein internationales Abkommen, das die Entwicklung von superintelligenter KI stoppt, bis diese sicher möglich ist. Wir unterstützen den Entwurf des Machine Intelligence Research Instituts.
Was du tun kannst
Folge unserem Newsletter.
Damit du über wichtige Neuigkeiten und Events informiert bleibst.
Trete unserem Discord bei
Werde Teil unserer Community und hilf mit.
Trete Microcommit.io bei
5min/Woche Aufwand die dennoch viel bewegen. Wenn du dich registriert hast, gehe auf “Profile”, scroll zu “Organizations You Follow”, und folge “Pause AI Germany”.
Spenden
Deine Spende bringt uns weiter. Bei Interesse kontaktiere: germany@pauseai.info