Ansigtsgenkendelse

Huawei indrømmer raceprofilering

Den kinesiske techgigant Huawei har testet og patenteret overvågningsteknologi, hvor en af funktionerne er racegenkendelse.

Den kinesiske techgigant Huawei har testet og patenteret overvågningsteknologi, hvor en af funktionerne er racegenkendelse af uighurerne – det forfulgte etniske mindretal i Xinjiang-provinsen i Kina. Det bekræfter Huaweis nordiske vicepræsident, Kenneth Fredriksen, for første gang til Politiken.

”Det var aldrig vores intention at bidrage til nogen diskriminerende opførsel mod minoriteter. Vi har lært af denne sag, at vi skal være endnu mere forsigtige med, hvordan vi stiller vores teknologi til rådighed”, siger Kenneth Fredriksen.

Huaweis danske pressechef, Tommy Zwicky, sagde op, da anklagerne om raceprofilering først kom frem. Formålet med at udvikle teknologien er at identificere uighurere og advare myndighederne om deres færden. Ifølge flere menneskerettighedsorganisationer har Kina interneret over en million uighurere i arbejdslejre.

Det er den amerikanske researchgruppe IPVM, der har afsløret Huaweis patentansøgning. I første omgang afviste Huawei, at firmaets teknologier var designet til at profilere etniske grupper.


Læs også...

Tre AI-genererede sange toppede i starten af november henholdsvis på Spotify og Bilboard. Samtidig viser ny undersøgelse fra musikstreamingtjeneste,…

Regeringen har sammen med Det Konservative Folkeparti og Radikale Venstre indgået en aftale, som betyder, man skal være 15 år for at lave en profil på…

IT-politisk rådgiver i PROSA forklarer her i video fra tidligere Folketingsvalg, hvorfor at afholde E-valg ikke er så lige til.

Udtrykket vibe-kodning blev opfundet i februar af OpenAI-medstifter. Det referer til, hvordan AI-værktøjer kan programmere. Nu er det kåret til årets…

Kan du forsvare dig, når hackerne angriber? Prosa var til stede, da 50 virksomheder blev kastet ud i et simuleret hackerangreb, hvor deltagerne blev…

Får du en advarsel, så råder PROSA altid til, at du gør indsigelser, hvis noget er åbenlyst forkert eller ikke giver mening.

Nogle af de store sprogmodeller ser ud til at modstå at blive slukket og vil endda sabotere nedlukning. Det oplevede forskere, som forsøgte at teste…

AI-agenter kan lave fejl. Den stigende brug af AI kan således udløse det næste store forsikringseventyr. I hvert fald, hvis man skal tro Rune Kvist…

Datatilsynet har afsluttet sin undersøgelse af DR’s krav om login på DRTV og finder ikke tilstrækkelig grundlag for at kritisere det obligatoriske…

Forskere har testet 11 store chatbots. De "pleaser" i langt højere grad, end mennesker gør, og de fremmer oftere brugerens adfærd, selv hvis den var…