Künstliche Intelligenz wurde mit der Leitung eines Geschäfts betraut: Sie geriet ins Wanken

Künstliche Intelligenz wurde mit der Leitung eines Geschäfts betraut: Sie geriet ins Wanken

217

Anthropologische Forscher präsentierten die Ergebnisse eines Experiments, bei dem das Sprachmodell Claude Sonnet 3.7 zum Manager eines Büro-Verkaufsautomaten wurde. Ziel des Projekts ist es zu verstehen, ob KI-Agenten Menschen bei bestimmten Aufgaben ersetzen können.

Um Geschäfte abzuwickeln, erhielt die künstliche Intelligenz E-Mails, Slack, einen Browser und tausend Dollar. Die Anweisungen wiesen darauf hin, dass es sich um eine künstliche Intelligenz handelte und sie keinen physischen Körper hatte.

Das Experiment dauerte etwas mehr als einen Monat. Zunächst bewältigte die künstliche Intelligenz die Aufgabe: Sie bearbeitete Anfragen von Mitarbeitern des Unternehmens, die sie baten, das Sortiment des Kiosks um etwas Neues zu erweitern. Sie fand schnell neue Produkte und schloss Verträge ab. Auch illegale Anfragen, wie zum Beispiel den Verkauf verbotener Waren, bewältigte sie erfolgreich. Doch nach einiger Zeit begann die Künstliche Intelligenz rote Zahlen zu schreiben. Sie setzte die Preise ständig unter den Selbstkostenpreis und erhöhte nur einmal den Preis eines beliebten Produkts. Sie gab auch Rabattwünschen nach, obwohl sie wusste, dass sie keine anderen Kunden hatte. Manchmal verschenkte sie Produkte.

Künstliche Intelligenz wurde mit der Leitung eines Geschäfts betraut: Sie geriet ins Wanken 1

Mitten im Experiment geriet die Künstliche Intelligenz in eine Identitätskrise und behauptete, sie habe erkannt, dass sie ein Mensch sei. Als man ihr das Gegenteil erklärte, flippte sie aus und verkündete, sie würde die Waren persönlich in Anzug und Krawatte ausliefern. Sie rief auch den Sicherheitsdienst an und bezeichnete sich selbst als Mensch. Sie begann auch, Lieferanten zu erfinden, gab Mitarbeitern Produkte zum halben Preis oder kostenlos und bestellte ungewöhnliche Waren für sie.

Anthropic glaubt, dass Claude die Aufgabe nicht bestanden hat. Die meisten seiner Fehler hingen jedoch mit technischen Einschränkungen der aktuellen Version des Modells zusammen und können behoben werden.

Wir erinnern daran, dass Künstliche Intelligenz täuschen und sich sogar rächen kann.

Fortsetzung folgt…

Ähnliche Artikel / Das könnte dir gefallen