Machine learning er lige nu blandt de allermest hypede teknologier – ikke blot i snævre branchekredse eller i den akademiske verden. Mainstream-medier kan berette om, at maskinerne snart overtager kontrollen, og at den gamle drøm om kunstig intelligens nu er ved at blive realiseret. Der er dog langtfra tale om ren hype. Amazon, Google, Facebook, Baidu og andre tech-giganter har alle udviklet machine learning-baserede anvendelser inden for deres forretningsområder. Og vi er allesammen med til dagligt at føde mere og mere data ind til algoritmerne. Så snart man laver en rettelse i Google Translate, er man sammen med millioner andre brugere med til gradvis at gøre oversættelsen bedre og bedre – bare for at tage et enkelt eksempel.
Mange open source-værktøjer
Også på andre områder er machine learning-baserede løsninger ved at få direkte indvirkning på vores liv. Medicinsk diagnosticering, scanning og sortering af jobansøgninger, profilering og segmentering ud fra din adfærd på nettet, automatisk sagsbehandling i forsikringsbranchen, osv. osv. Alle anvendelser, der enten allerede er implementeret eller er på vej.
At teknologien er ved at være mainstream, ses også af de efterhånden mange open source-værktøjer og API'er, som man umiddelbart kan tage ned fra hylden og bruge til at udvikle applikationer. Stort set alle de store teknologivirksomheder har lagt machine learning-pakker ud som open source, og de fleste programmeringssprog har deres pakker, eksempelvis scikit-learn til Python og Weka til Java. En simpel søgning på "open source machine learning" vil give adskillige gode lister over de mest populære værktøjer.
Big Data og maskinkraft
Men hvorfor dette boom for en teknologi, hvis grundkoncepter har været kendt i en del år?
De ufatteligt store mængder data, vi har til rådighed i dag – og vel at mærke labeled data, som eksempelvis billeder på nettet – er en vigtig faktor. Machine learning-algoritmerne kan fodres med enorme mængder eksempeldata, som sætter dem i stand til at blive stadigt bedre til opgaver, som vi tidligere kun kunne sætte mennesker til. Det kan være alt fra på et millisekund at finde alle matchende ansigter i en billeddatabase til at slå den regerende verdensmester i brætspillet Go.
Dertil kommer den voldsomt øgede maskinkraft, vi har til rådighed i dag, og så en tredje faktor, som Allan Grønlund, specialkonsulent på Datalogisk Institut, Aarhus Universitet, peger på.
– Både i industrien og i den akademiske verden er man blevet meget klogere på det her område de seneste år, og der er simpelthen mange flere mennesker, der arbejder med machine learning i dag end for år tilbage.
Teknologien ikke ny
Algoritmerne, der ligger i machine learning-værkstøjskassen, er ifølge Allan Grønlund ikke specielt nye. På nogle områder er der dog sket en udvikling.
– Der er sket en del ændringer i den måde, hvorpå man opbygger neurale netværk, som er en grundkomponent i den variant af machine learning, vi kalder deep learning, forklarer han.
På de følgende sider kigger vi nærmere på, hvad machine learning er, og ikke mindst ser vi nærmere på nogle af de etiske og juridiske problemstillinger, som en øget anvendelse af machine learning-baserede systemer kan føre med sig.