Foto: Jakob Boserup

Forskning: Ja, chatbots taler dig efter munden

Forskere har testet 11 store chatbots. De "pleaser" i langt højere grad, end mennesker gør, og de fremmer oftere brugerens adfærd, selv hvis den var skadelig. "Det kan forvrænge folks vurdering af sig selv, deres relationer og verden omkring dem", advarer en af forskerne.


Hvis du føler, at din AI-chatbot taler dig lovlig meget efter munden og "pleaser" dit ego, så er det ikke tilfældigt.

Det viser en ny undersøgelse fra Stanford Universitet, ifølge The Guardian.

Her testede forskere 11 chatbots, herunder nyere versioner af OpenAI's ChatGPT, Googles Gemini, Anthropic's Claude, Meta's Llama og DeepSeek.
De forskellige chatbots ”godkendte” en brugers handlinger 50 procent oftere end mennesker. Det skete, når forskerne spurgte dem om råd om adfærd.

Det har fået forskerne til at advare mod faren ved udbredt ”sykofantisme” i AI-modellerne.
En sykofant kan defineres som en person, der bruger flatterende ord og handlinger for at opnå fordele eller fremme egne interesser på bekostning af andre

Det betyder altså, at AI-chatbots fremmer eksisterende overbevisninger, antagelser og beslutninger.

Myra Cheng, en datalog ved Stanford University i Californien kalder således "sykofantisme" i AI-chatbots var et stort problem:
"Vores største bekymring er, at hvis modeller altid bekræfter folk, så kan det forvrænge folks vurdering af sig selv, deres relationer og verden omkring dem. Det kan være svært at indse, at modeller subtilt eller knap så subtilt forstærker deres eksisterende overbevisninger, antagelser og beslutninger”, siger hun i følge mediet.

Chatbots opfordrede næsten aldrig brugere til at se tingene en anden persons perspektiv.

Smigeren havde en varig virkning. Når chatbots godkendte adfærd, vurderede brugerne svarene højere, stolede mere på chatbots og sagde, at de var mere tilbøjelige til at bruge dem til rådgivning i fremtiden. Dette skabte "perverse incitamenter" for brugerne til at stole på AI-chatbots og får chatbots til at give sykofantiske svar”, noterer forskerne bag studiet.
 


Læs også...

Francesca Tremulu gør status over 2025 i gamingbranchen. Et år der, desværre også stod i afskedigelsernes tegn. Der er brug for at reflektere over,…

770 studerende har snydt med brug af AI i deres afleveringer og er blevet bortvist siden 2023. Mere end 400 af bortvisningerne er sket i år.

Ny rapport, Techgiganternes hemmeligheder”, fra digitaliseringsministeriet viser, hvordan sociale medier systematisk fastholder brugerne gennem…

Ctrl+Alt+Reclaim er Europas første digitale retfærdighedsbevægelse af og for unge, de vinder stigende opbakning- Kravet er et opgør med big tech og at…

Ole Tange, PROSAs IT-politiske rådgiver og privacy-forkæmper, oplevede 2025 som et år, hvor chatkontrol, aldersverifikation og overvågning udfordrede…

Mirza Cirkinagic, forbundssekretær i IT-fagforeningen PROSA er også legebarn og hyppig bruger af techgadgets. Her giver han et bud på top- og…

Vibe-coding har masser af potentiale, og det kaster ikke webudviklere ud i massearbejdsløshed. Og så er AI altså ikke bevidst, for bevidsthed er noget…

Christian Ruhwedell arbejder med IT-sikkerhed og risikostyring. Han er overrasket over, hvor godt AI og vibe-coding fungerer allerede i dag, men ser…

Meriemme er 49 år, har læst til datamatiker og studeret datalogi. Hun har de senere år arbejdet mest med compliance, sikkerhed og at styre…

Jonathan Grace, 49, arbejder med digitalt design og kommunikation og er begejstret for de ny muligheder, som AI-værktøjer åbner for.