Foto: Jakob Boserup

Forskning: Ja, chatbots taler dig efter munden

Forskere har testet 11 store chatbots. De "pleaser" i langt højere grad, end mennesker gør, og de fremmer oftere brugerens adfærd, selv hvis den var skadelig. "Det kan forvrænge folks vurdering af sig selv, deres relationer og verden omkring dem", advarer en af forskerne.


Hvis du føler, at din AI-chatbot taler dig lovlig meget efter munden og "pleaser" dit ego, så er det ikke tilfældigt.

Det viser en ny undersøgelse fra Stanford Universitet, ifølge The Guardian.

Her testede forskere 11 chatbots, herunder nyere versioner af OpenAI's ChatGPT, Googles Gemini, Anthropic's Claude, Meta's Llama og DeepSeek.
De forskellige chatbots ”godkendte” en brugers handlinger 50 procent oftere end mennesker. Det skete, når forskerne spurgte dem om råd om adfærd.

Det har fået forskerne til at advare mod faren ved udbredt ”sykofantisme” i AI-modellerne.
En sykofant kan defineres som en person, der bruger flatterende ord og handlinger for at opnå fordele eller fremme egne interesser på bekostning af andre

Det betyder altså, at AI-chatbots fremmer eksisterende overbevisninger, antagelser og beslutninger.

Myra Cheng, en datalog ved Stanford University i Californien kalder således "sykofantisme" i AI-chatbots var et stort problem:
"Vores største bekymring er, at hvis modeller altid bekræfter folk, så kan det forvrænge folks vurdering af sig selv, deres relationer og verden omkring dem. Det kan være svært at indse, at modeller subtilt eller knap så subtilt forstærker deres eksisterende overbevisninger, antagelser og beslutninger”, siger hun i følge mediet.

Chatbots opfordrede næsten aldrig brugere til at se tingene en anden persons perspektiv.

Smigeren havde en varig virkning. Når chatbots godkendte adfærd, vurderede brugerne svarene højere, stolede mere på chatbots og sagde, at de var mere tilbøjelige til at bruge dem til rådgivning i fremtiden. Dette skabte "perverse incitamenter" for brugerne til at stole på AI-chatbots og får chatbots til at give sykofantiske svar”, noterer forskerne bag studiet.
 


Læs også...

Du burde måske kende Alex Bores. For Big Tech kender ham, de frygter ham, og har lavet en super PAC, hvor de bruger millioner af dollars på tilsværte…

Hvis ikke vi vidste det før, så ved vi det nu. AI er rå geopolitiske muskler, som magtspillere helst holder til kroppen. Det lærte vi, da Anthropic i…

Nye AI-værktøjer kan generere apps og hjemmesider på få minutter. For UX-designere flytter arbejdet sig derfor fra at tegne alt selv til at vurdere,…

Når medarbejdere hele tiden skal vurdere AI-output, kan gevinsten hurtigt blive afløst af mental tåge, flere fejl og sværere beslutninger. Det kræver…

AI-agenter ændrer spillereglerne: Derfor skal virksomheder bygge anderledes

Jeanette Falk er assistant professor ved Department of Computer Science og vokset op med Doom og GTA, og vil bruge sin kærlighed til spil og viden om…

AI-agenter, særligt Claude Code fra Anthropic, har de seneste måneder forandret Juri Jensens måde at arbejde på. Han har arbejdet med IT siden…

Live coding vender god programmeringspraksis på hovedet: Her skrives koden direkte foran publikum, mens fejl, improvisation og fælles fumlen bliver en…

Det er en forpustet og bekymret tid for mange i IT-branchen. Måske fordi der er en følelse af, at toget kører nu, når det handler om at mestre og gøre…

Fagforeninger og politikere har mere end travlt, hvis de skal bjærge arbejdsmarked og overenskomster gennem AI og teknologiske landvindinger. Det…