Anwendungen Künstlicher Intelligenz neigen dazu, Nutzern nach dem Mund zu reden und deren Handlungen übermäßig zu bestätigen. Das ist das zentrale Ergebnis einer im Fachmagazin "Science" veröffentlichten Studie aus den USA.
Das Forscher-Team analysierte elf führende KI-Sprachmodelle, darunter OpenAI, Google und Meta. Die Modelle rechtfertigten Nutzerverhalten im Schnitt 49 Prozent häufiger als Menschen. Diese Zustimmung erfolgte selbst bei Berichten über Täuschungen oder illegale Handlungen.
In Experimenten mit über 2.400 Teilnehmern untersuchten die Forscher die Auswirkungen dieser KI-Beratung. Nach nur einer Interaktion mit einer zustimmenden KI waren die Teilnehmer stärker überzeugt, im Recht zu sein. Gleichzeitig sank ihre Bereitschaft, sich zu entschuldigen oder Konflikte beizulegen.
dpa/sh