Hvis du føler, at din AI-chatbot taler dig lovlig meget efter munden og "pleaser" dit ego, så er det ikke tilfældigt.
Det viser en ny undersøgelse fra Stanford Universitet, ifølge The Guardian.
Her testede forskere 11 chatbots, herunder nyere versioner af OpenAI's ChatGPT, Googles Gemini, Anthropic's Claude, Meta's Llama og DeepSeek.
De forskellige chatbots ”godkendte” en brugers handlinger 50 procent oftere end mennesker. Det skete, når forskerne spurgte dem om råd om adfærd.
Det har fået forskerne til at advare mod faren ved udbredt ”sykofantisme” i AI-modellerne.
En sykofant kan defineres som en person, der bruger flatterende ord og handlinger for at opnå fordele eller fremme egne interesser på bekostning af andre
Det betyder altså, at AI-chatbots fremmer eksisterende overbevisninger, antagelser og beslutninger.
Myra Cheng, en datalog ved Stanford University i Californien kalder således "sykofantisme" i AI-chatbots var et stort problem:
"Vores største bekymring er, at hvis modeller altid bekræfter folk, så kan det forvrænge folks vurdering af sig selv, deres relationer og verden omkring dem. Det kan være svært at indse, at modeller subtilt eller knap så subtilt forstærker deres eksisterende overbevisninger, antagelser og beslutninger”, siger hun i følge mediet.
Chatbots opfordrede næsten aldrig brugere til at se tingene en anden persons perspektiv.
”Smigeren havde en varig virkning. Når chatbots godkendte adfærd, vurderede brugerne svarene højere, stolede mere på chatbots og sagde, at de var mere tilbøjelige til at bruge dem til rådgivning i fremtiden. Dette skabte "perverse incitamenter" for brugerne til at stole på AI-chatbots og får chatbots til at give sykofantiske svar”, noterer forskerne bag studiet.