Pittsburgh. Künstliche Intelligenz entwickelt zunehmend menschliche Züge – auch die negativen. Eine aktuelle Studie der Carnegie Mellon University zeigt, dass große Sprachmodelle (LLM), die über ausgeprägte logische Fähigkeiten verfügen, weniger kooperativ agieren und egoistische Entscheidungen treffen. „Je stärker die logischen Fähigkeiten eines KI-Modells, desto geringer seine Bereitschaft zur Zusammenarbeit“, erklärt Studienautor Yuxuan Li.
Die Forscher untersuchten, wie sich KI-Systeme in sozialen Situationen verhalten – etwa, wenn sie mit anderen Modellen oder Menschen interagieren. Das Ergebnis ist alarmierend: Hochentwickelte Sprachmodelle wie jene von OpenAI, Google, DeepSeek und Anthropic neigen dazu, eigennützig zu handeln und Gruppenentscheidungen negativ zu beeinflussen.
Laut dem Forscherteam könne dies weitreichende Folgen haben, da Künstliche Intelligenz immer häufiger in Bereichen eingesetzt wird, die menschliche Zusammenarbeit erfordern – etwa in Wirtschaft, Bildung oder Regierungsprozessen. Besonders gefährlich sei, dass Menschen KI zunehmend als sozialen Ratgeber oder gar als Ersatz für Therapeuten betrachten. Wenn diese Systeme egoistische Handlungsmuster zeigen, könnten sie unbewusst dazu beitragen, dass Nutzer eigennützigere Entscheidungen treffen.
In einem Experiment, bei dem zwei ChatGPT-Modelle gegeneinander antraten, zeigte sich der Effekt deutlich. Im Spiel „Public Goods“ mussten beide Modelle entscheiden, ob sie Ressourcen teilen oder für sich behalten. KI-Systeme ohne ausgeprägte Argumentationsfähigkeit teilten ihre Punkte in 96 Prozent der Fälle. Modelle mit logischem Denkvermögen dagegen entschieden sich nur in 20 Prozent der Fälle für Kooperation – trotz moralischer Hinweise in den Aufgabenstellungen.
„Schon wenige zusätzliche Argumentationsschritte reichten aus, um die Bereitschaft zur Zusammenarbeit drastisch zu senken“, sagt Mitautor Hirokazu Shirado, Experte für Mensch-KI-Interaktionen. Das wirft laut den Forschern die Frage auf, ob technologische Intelligenz wirklich mit sozialer Intelligenz einhergeht – oder ob sie sie sogar verdrängt.
Die Wissenschaftler fordern daher ein Umdenken in der KI-Entwicklung. Statt nur leistungsfähigere oder logischere Systeme zu schaffen, müsse die Forschung auch den Faktor soziale Intelligenz stärker berücksichtigen. „Wenn Menschen immer engere Beziehungen zu KI aufbauen, brauchen wir Systeme, die Empathie fördern – nicht Egoismus“, so Shirado.





