Vi pusser opp kommunikasjon.no for å gi deg en enda bedre brukeropplevelse. Det betyr at det kan være noen problemer i starten. Er det noe du savner, eller ikke får til? Send en e-post til malin@kommunikasjon.no.

Skip header
Digitale kanaler

Algoritmer til besvær

Utsatte grupper i samfunnet kan bli stigmatisert gjennom algoritmisk databehandling.

Teskt: TOR BANG   |  Foto: ISTOCK.COM
Publisert: 21. august 2017

Entusiaster for bruk av algoritmer i analyser av store datamengder hevder at slike teknikker eliminerer menneskelig støy og forstyrrelser fra analysene, og dermed gir rene grunnlag for beslutninger. De glemmer at en algoritme bare er like god som de dataene den virker med. Data kan være svake, eller imperfekte på måter som gjør at algoritmene overtar og arbeider videre med slike svakheter.

Det påpekes av Dr. Solon Barocas og Dr. Andrew Selbst i paperet «Big Data’s Disparate Impact», der de reflekterer over uintenderte og uønskede effekter av bruk av stordata og datautvinning.

I noen tilfeller kan data gjenspeile samfunnets sosiale bias – forutinntatthet. I andre sammenhenger kan datautvinning avsløre mønstre av sosial eksklusjon og ulikhet og utestengte grupper. Grupper av minoriteter, økonomisk utsatte, funksjonshindrede og andre som på papiret nyter full rett til deltakelse på alle samfunnsnivåer, kan bli stigmatisert gjennom algoritmisk databehandling.

Juridisk og etisk problem

Slik diskriminering er som regel er en utilsiktet bieffekt ved bruk av algoritmer. Selv om effektene ikke oppstår som følger av bevisste valg, kan det være vanskelig å identifisere kilder til slike problemer, eller forklare dem for offentligheten.

Selv om Barocas og Selbst ser og undersøker disse bekymringene gjennom juridiske briller opp mot forbud mot diskriminering i arbeidsliv og offentlighet, har algoritmenes inntog en viss betydning også langs etiske og politiske dimensjoner. De to finner det viktig å løfte dette opp i en større samfunnsdebatt.

dame og mann koder foto istock scyther5
Algoritmer kan i fremtiden luke ut grupper med mennesker i arbeidslivet. Det er problematisk. Foto: Istock.com/scyther5

Vanskelig å løse

Selv om man ser bort fra en påviselig intensjon om å diskriminere, synes årsakene til disse bieffektene å ligge mange steder. Å luke ut virkninger av slik utilsiktet diskriminering, for eksempel å rette opp svakheter i lovverket, kan vise seg å være vanskelig teknisk, vanskelig juridisk og vanskelig politisk.

Det er en rekke praktiske grenser for hva som kan oppnås ved å endre programmer som styrer algoritmene. Som eksempel nevner Barocas og Selbst at når diskriminering oppstår fordi dataene som blir brukt, er resultat av tidligere forsettlig diskriminering, finnes det likevel ingen metoder for å eliminere data for på den måten å kunne kvitte seg med problemet. Korrigerende tiltak som endrer resultatene av analyser, ville sannsynligvis kunne ende opp i en juridisk, vitenskapsteoretisk og politisk hengemyr.

For å kunne luke ut maskinell bias og redusere risiko for diskriminerende praksis i nærings- og organisasjonsliv kreves mer enn en rimelig menneskelig og maskinell innsats. Barocas og Selbst viser at måten vi behandler stordata på, har sosiale, juridiske og andre effekter, ønskede og uønskede. Det vil også kreve analyser av hvordan vi forstår begrepene "diskriminering" og "rettferdighet".

Siste saker

Har du lest disse sakene?

Les Mer on Hva skjer i 2025?
Digitale kanaler
For medlemmer
Illustrasjonsfoto av krystallkule ute i naturen.
Hva skjer i 2025? –>

Vi har kikket inn i krystallkula og sakset fra trendrapportene.

Les Mer on Vet du hva emojiene betyr?
Målgrupper
For medlemmer
Vet du hva emojiene betyr? –>

Bruker du smilefjes og andre emojier i kommunikasjonsjobben? Da bør du kjenne målgruppen din godt.

Les Mer on Tror sosiale medier og tradisjonelle medier blir ett
Digitale kanaler
For medlemmer
Ida Jackson
Tror sosiale medier og tradisjonelle medier blir ett –>

– I fremtiden blir sosiale medier den mest sentrale mediekanalen for en bedrift eller organisasjon. Det mener forfatter, skribent og internettnerd Ida Jackson.