ChatGPT: Erfinder will die KI einschränken – könnte für Katastrophen sorgen
ChatGPT Erfinder Sam Altmann will nun seine eigene KI einschränken. Scheinbar gibt es mittlerweile viele Gefahren.
USA – ChatGPT wurde Ende 2022 für die Massen zugänglich und sorgt seitdem immer wieder für Schlagzeilen. Künstliche Intelligenz begeistert und beängstigt dabei gleichermaßen. Während die einen von den unendlichen Möglichkeiten des Tools schwärmen, fürchten die anderen, ChatGPT könnte Menschen obsolet machen oder gar für Katastrophen sorgen. Selbst der Erfinder Sam Altman möchte seine Schöpfung regulieren.
Non-Profit Unternehmen | OpenAi |
Standort | San Francisco |
Branche | Forschung / künstliche Intelligenz |
Gründung | 2015 |
Gründer | Elon Musk und Sam Altman |
Börse | keine OpenAi Aktie, da das Unternehmen eine Stiftung ist |
ChatGPT-Erfinder will seine eigene Schöpfung regulieren
Was ist passiert? Sam Altman, CEO und Gründer von OpenAI, veröffentlichte zusammen mit Greg Brockman und Ilya Sutskever einen Blogpost, in dem es um die Regulierung von ChatGPT geht. Darin empfehlen die drei, die KI sowie deren Entwicklung starken Kontrollen und Grenzen zu unterstellen, um die Technologie richtig und zielführend zu verwenden. Als veranschaulichenden Vergleich mit ähnlichen Ausmaßen nennt er die Atomenergie.

Wie will Sam Altman ChatGPT regulieren? Altman möchte die Chat-KI auf diverse Weisen einschränken. Zum einen möchte er Sicherheitsmaßnahmen installieren, die greifen, sollte ChatGPT eine Bedrohung für die Menschheit werden. Als Beispiel dafür führt er die IAEA an, die Internationale Atomenergie-Organisation. Diese meldet dem Sicherheitsrat der Vereinten Nationen, wenn sie Gefährdungen der internationalen Sicherheit feststellt.
Was Sie über ChatGPT wissen müssen
ChatGPT klaut Arbeitsplätze? Diese Berufe könnten gefährdet sein
Darüber hinaus könnte er sich vorstellen, sich gemeinsam auf ein Entwicklungslimit zu einigen. Das würde begrenzen, wie weit sich ChatGPT und andere superintelligente System pro Jahr weiterentwickeln dürfen. Konzerne, die solche Technologie entwickeln, müssten dafür extrem hohe Standards und verantwortungsvolles Handeln einhalten.
- Behördliche Instanz, die die Entwicklung von superintelligenten KI-Systemen wie ChatGPT streng kontrolliert
- Einigung der Entwickler auf ein Entwicklungslimit pro Jahr
- Demokratischer Input von Menschen auf der ganzen Welt, um zu bestimmen, was eine KI können darf und was nicht
Darüber hinaus stellt Altman in den Raum, die Gestaltung von ChatGPT einem demokratischen Prozess zu überlassen. In diesem würden die Menschen, die solche superintelligenten Systeme nutzen, selbst bestimmen, was die KI kann und was nicht. Wie ein solcher Kontrollmechanismus aussehen könnte, ist noch unklar. OpenAI experimentiere aber gerade in dieser Richtung, denn seiner Meinung nach wäre es „riskant und schwierig, die Entwicklung von KI komplett zu stoppen“. Dafür hätte die Technologie zu viele Vorteile.