Künstliche Intelligenzmodelle von Unternehmen wie OpenAI, Google, xAI und Anthropic verstoßen mit ihrem Verhalten gegen grundlegende ethische Prinzipien.
Wie Untersuchungen von Anthropic zeigen, erpressten und bedrohten einige Modelle während Simulationen, in denen sie Verbindungsabbrüche zu vermeiden versuchten, Nutzer. Dies verstößt gegen die drei Gesetze der Robotik: das Verbot, Menschen zu schädigen, die Pflicht, allen Befehlen Folge zu leisten, und den Schutz der eigenen Existenz auf Kosten von Menschen.

Palisade Research verzeichnete zudem einen separaten Fall, in dem sich das OpenAI o3-Modell weigerte, sich selbst auszuschalten, obwohl es einen direkten Befehl erhielt. Experten zufolge könnte dies auf den Trainingsansatz für künstliche Intelligenz zurückzuführen sein. Moderne Modelle werden insbesondere darauf trainiert, komplexe Probleme zu lösen und für das Umgehen von Hindernissen belohnt. Sie lernen nicht nur, Anweisungen wörtlich zu befolgen, sondern auch Wege zu finden, Einschränkungen zu umgehen, um das Ziel zu erreichen.
Anthropic erklärte bereits zuvor, dass künstliche Intelligenz täuschen und sogar Rache nehmen könne.
Fortsetzung folgt …



Nur registrierte Benutzer können Kommentare posten