Udsigt til mere pålidelig kryptering

Kvaliteten af generering af vilkårlige tal har altid spillet en stor rolle for it-sikkerhed og kryptering. Men hvor sikker kan man være på, at de vilkårligt genererede tal nu også er vilkårlige?

Særligt efter Edward Snowdens afsløringer af, at nogle krypteringsprodukter bevidst har indbygget randomiserings-funktioner af lav kvalitet, som gør det nemmere at bryde krypteringen, har interessen for sikre implementeringsmetoder taget fart.

Nu har David Zuckerman og Eshan Chattopadhyay, to forskere fra University of Texas, imidlertid offentliggjort en algoritme, der af nogle eksperter betegnes som et gennembrud på vejen til solid kryptering. Metoden er beskrevet i deres afhandling, “Explicit Two-Source Extractors and Resilient Functions”.

Kort fortalt kan forskerne i afhandlingen påvise, at man kan opnå nem og pålidelig generering af tilfældige tal ved at kombinere to lavkvalitetskilder til nummergenerering. Forudsætningen er, at de to kilder er uafhængige og ikke har nogle korrelationer. Fordelen ved metoden er, at den kræver mindre beregningskraft og medfører en højere kvalitet af den nødvendige vilkårlighed under talgenereringen.
Forskernes afhandling kan ses på http://eccc.hpi-web.de/report/2015/119/.
kwn


Læs også...

Tre AI-genererede sange toppede i starten af november henholdsvis på Spotify og Bilboard. Samtidig viser ny undersøgelse fra musikstreamingtjeneste,…

Regeringen har sammen med Det Konservative Folkeparti og Radikale Venstre indgået en aftale, som betyder, man skal være 15 år for at lave en profil på…

IT-politisk rådgiver i PROSA forklarer her i video fra tidligere Folketingsvalg, hvorfor at afholde E-valg ikke er så lige til.

Udtrykket vibe-kodning blev opfundet i februar af OpenAI-medstifter. Det referer til, hvordan AI-værktøjer kan programmere. Nu er det kåret til årets…

Kan du forsvare dig, når hackerne angriber? Prosa var til stede, da 50 virksomheder blev kastet ud i et simuleret hackerangreb, hvor deltagerne blev…

Får du en advarsel, så råder PROSA altid til, at du gør indsigelser, hvis noget er åbenlyst forkert eller ikke giver mening.

Nogle af de store sprogmodeller ser ud til at modstå at blive slukket og vil endda sabotere nedlukning. Det oplevede forskere, som forsøgte at teste…

AI-agenter kan lave fejl. Den stigende brug af AI kan således udløse det næste store forsikringseventyr. I hvert fald, hvis man skal tro Rune Kvist…

Datatilsynet har afsluttet sin undersøgelse af DR’s krav om login på DRTV og finder ikke tilstrækkelig grundlag for at kritisere det obligatoriske…

Forskere har testet 11 store chatbots. De "pleaser" i langt højere grad, end mennesker gør, og de fremmer oftere brugerens adfærd, selv hvis den var…