Kunstig intelligens gir omdømmerisiko. Slik håndterer du det.
Vurderinger og avgjørelser delegeres i økende grad til algoritmer. Det gir omdømmerisiko fordi det ofte er uklart hvordan systemene fungerer. Nettopp derfor er ikke transparens nødvendigvis løsningen. Her er tre bedre råd for å håndtere omdømmerisikoen.
Professor Christian Fieseler og førsteamanuensis Alexander Buhmann ved Institutt for kommunikasjon og kultur, BI.
Det blir stadig vanligere i flere ulike bransjer å benytte algoritmer for å foreta vurderinger og ta avgjørelser. Dette medfører ulike former for risiko knyttet til omdømme. Disse kan deles inn i tre hovedkategorier:
1. Evidens-risiko
Det er ofte uklart hvilke data algoritmer bruker for å komme frem til avgjørelser. De kalkulerer sannsynlighet og foretar ‘best guesses’ basert på data som kan være feilaktig eller forutinntatt.
Et eksempel er helsesystemet utviklet av ‘Aspire Health’ (med finansiering fra Google), som brukes til å vurdere hvor vellykket en behandling vil være, og hvor sannsynlig det er at pasienten overlever. Slike systemer bruker informasjon om behandlingstyper, pasientdiagnoser og sammenlignbare mønstre over vanlige behandlinger. De kan imidlertid overse viktige faktorer som det er vanskelig å telle, slik som en pasients vilje til å overleve.
2. Resultat-risiko
Algoritmer kan produsere urettferdige, forutinntatte eller feilaktige resultater. Det har for eksempel vært tilfeller der de har diskriminert mot visse grupper. Det er ikke vanskelig å forestille seg konsekvensene av systematisk diskriminering i et automatisert arbeids- og velferdssystem lik det som er under utvikling i Storbritannia.
Likeledes er det mange nyhetsbyråer som bruker algoritmer til å produsere for eksempel finansnyheter. Børsdata oversettes automatisk til tekst uten behov for menneskelig input eller overvåkning. En feil her vil åpenbart kunne få enorme konsekvenser for aksjehandel, og ikke minst for det aktuelle nyhetsbyrået.
3. Transparens-risiko
Etter hvert som algoritmer blir mer komplekse er det mye som tyder på at krav om transparens er dømt til å mislykkes. Delvis fordi algoritmer utvikles og eies av selskaper som vil beholde og øke sin konkurransekraft, men også fordi de opererer på en måte som gjør at det i praksis kan være nesten umulig å forstå dem.
For å forstå en algoritme må du forstå problemet den er utviklet for å løse. Såkalte ‘deep-learning’ algoritmer er ikke programmert av mennesker etter forståelige regler, men læres kontinuerlig opp av datamaskiner som følger egenproduserte regler i konstant endring. Slike systemer kan kun forstås ved å se hvordan de fungerer i praksis, ikke ved å lese koden deres.
Tre råd for håndtering av omdømmerisiko:
1. Inkluder alle interessenter
Det er avgjørende å inkludere selv de som kanskje ikke er klare over at algoritmer påvirker dem. Å bidra til oppmerksomhet rundt bruk av algoritmer er viktigere enn å tilby informasjon som det kanskje er umulig å forstå. Det vil være svært vanskelig å sørge for at ansvarlighet ivaretas hvis ikke alle påvirkede er i stand til å delta i samtalen.
2. Gjør det mulig for interessentene å forstå tematikken
Som nevnt over er det ikke slik at man nødvendigvis kan forstå en algoritme selv om man kan se koden. Det finnes imidlertid noen nyttige verktøy som kan brukes til gjøre operasjonene til algoritmer mer forståelige. Databaser over eksperimenter gjør det mulig å sammenligne algoritmer, og forenklede modeller (flytskjemaer) kan gjøre dem forståelige for mennesker.
3. Sørg for en kontinuerlig debatt
Flere nyhetsbyråer samt Buzzfeed og New York Times deler fortløpende noen av dataene og koden de bruker for datadrevne artikler. Fordi komplekse algoritmer alltid er i endring, må samtalen om dem være kontinuerlig og ikke bare finne sted på utvalgte tidspunkter. Trege sertifiseringsprosesser vil for eksempel ikke være i stand til å holde tritt med dette. Møteplasser for dataansvarlighet blir viktigere og viktigere for kontakten mellom selskaper og deres omgivelser.
Kilde: Buhmann, A., Paßmann, J. & Fieseler, C. J: Managing Algorithmic Accountability: Balancing Reputational Concerns, Engagement Strategies, and the Potential of Rational Discourse. Journal of Business Ethics (2019). https://doi.org/10.1007/s10551-019-04226-4
Siste saker
Har du lest disse?