Foto: Jakob Boserup

Forskning: Ja, chatbots taler dig efter munden

Forskere har testet 11 store chatbots. De "pleaser" i langt højere grad, end mennesker gør, og de fremmer oftere brugerens adfærd, selv hvis den var skadelig. "Det kan forvrænge folks vurdering af sig selv, deres relationer og verden omkring dem", advarer en af forskerne.


Hvis du føler, at din AI-chatbot taler dig lovlig meget efter munden og "pleaser" dit ego, så er det ikke tilfældigt.

Det viser en ny undersøgelse fra Stanford Universitet, ifølge The Guardian.

Her testede forskere 11 chatbots, herunder nyere versioner af OpenAI's ChatGPT, Googles Gemini, Anthropic's Claude, Meta's Llama og DeepSeek.
De forskellige chatbots ”godkendte” en brugers handlinger 50 procent oftere end mennesker. Det skete, når forskerne spurgte dem om råd om adfærd.

Det har fået forskerne til at advare mod faren ved udbredt ”sykofantisme” i AI-modellerne.
En sykofant kan defineres som en person, der bruger flatterende ord og handlinger for at opnå fordele eller fremme egne interesser på bekostning af andre

Det betyder altså, at AI-chatbots fremmer eksisterende overbevisninger, antagelser og beslutninger.

Myra Cheng, en datalog ved Stanford University i Californien kalder således "sykofantisme" i AI-chatbots var et stort problem:
"Vores største bekymring er, at hvis modeller altid bekræfter folk, så kan det forvrænge folks vurdering af sig selv, deres relationer og verden omkring dem. Det kan være svært at indse, at modeller subtilt eller knap så subtilt forstærker deres eksisterende overbevisninger, antagelser og beslutninger”, siger hun i følge mediet.

Chatbots opfordrede næsten aldrig brugere til at se tingene en anden persons perspektiv.

Smigeren havde en varig virkning. Når chatbots godkendte adfærd, vurderede brugerne svarene højere, stolede mere på chatbots og sagde, at de var mere tilbøjelige til at bruge dem til rådgivning i fremtiden. Dette skabte "perverse incitamenter" for brugerne til at stole på AI-chatbots og får chatbots til at give sykofantiske svar”, noterer forskerne bag studiet.
 


Læs også...

Tre AI-genererede sange toppede i starten af november henholdsvis på Spotify og Bilboard. Samtidig viser ny undersøgelse fra musikstreamingtjeneste,…

Regeringen har sammen med Det Konservative Folkeparti og Radikale Venstre indgået en aftale, som betyder, man skal være 15 år for at lave en profil på…

IT-politisk rådgiver i PROSA forklarer her i video fra tidligere Folketingsvalg, hvorfor at afholde E-valg ikke er så lige til.

Udtrykket vibe-kodning blev opfundet i februar af OpenAI-medstifter. Det referer til, hvordan AI-værktøjer kan programmere. Nu er det kåret til årets…

Kan du forsvare dig, når hackerne angriber? Prosa var til stede, da 50 virksomheder blev kastet ud i et simuleret hackerangreb, hvor deltagerne blev…

Får du en advarsel, så råder PROSA altid til, at du gør indsigelser, hvis noget er åbenlyst forkert eller ikke giver mening.

Nogle af de store sprogmodeller ser ud til at modstå at blive slukket og vil endda sabotere nedlukning. Det oplevede forskere, som forsøgte at teste…

AI-agenter kan lave fejl. Den stigende brug af AI kan således udløse det næste store forsikringseventyr. I hvert fald, hvis man skal tro Rune Kvist…

Datatilsynet har afsluttet sin undersøgelse af DR’s krav om login på DRTV og finder ikke tilstrækkelig grundlag for at kritisere det obligatoriske…

Yasmin er 22, går på 3. semester og har valgt Multimedielinjen på erhvervsakademiet Zealand i Køge, fordi hun gerne vil arbejde kreativt med content