Mand og kvinde foran computerskærm med statistik på
Eksperter om dataetik:

Data er godt. Flere data er bedre. Eller?

15. september 2020

Data kan give en fantastisk indsigt i brugeradfærd og booste både salg og relevans. Men GDPR og dataskandaler har lært os, at det ikke er uden konsekvenser. Thomas Terney og Kim Escherich, eksperter i dataetik og kunstig intelligens, giver her deres bud på do's and don'ts.

Gå til Action card

Rigelige mængder data og veludviklede algoritmer er guld værd. Men kombinationen af de to størrelser tilsat kunstig intelligens kan også være en tikkende bombe.

Blot en enkelt medarbejders uansvarlige brug af data kan ikke bare udløse store bødestraffe inden for rammerne af GDPR-lovgivningen, men også koste dyrt på omdømmekontoen.

Data er utvivlsomt blevet en forretningskritisk størrelse. Derfor vil du med overvejende sandsynlighed blive involveret i, hvordan I kan sikre, at jeres organisation finder en hårfin dataetisk balance.

Hvor langt skal du gå i at overvåge medarbejdernes adfærd? Er det etisk forsvarligt at lade en algoritme udregne, hvem der står først på listen over medarbejdere, der skal afskediges ved næste fyringsrunde? Og hvad hvis din værste konkurrent får en konkurrencefordel med en ny type overvågning af kunderne – skal du så hoppe med på vognen?

Det er et dilemma.

På ene side skal du kunne sige stop, hvis anvendelsen af data går for vidt. På den anden side skal du heller ikke være for tilbageholdende, men turde gå helt til stregen og udnytte mulighederne, fordi en værgen mod at anvende data også kan have negative konsekvenser.

Meget af det, som vi har set i sci-fi-film de seneste år, er jo i dag en realitet

Kim Escherich, Executive Innovation Architect og AI-Etisk rådgiver hos IBM 
Kim Escherich, IBM, dataetik, lederne, lederstof, ledelse, big data, kunstig intelligens, AI, dkledelse

Kim Escherich

Kim Escherich er Executive Innovation Architect & AI-etisk ombudsmand i IBM og ekspert i teknisk arkitektur og innovation inden for Internet of Things (IoT), kunstig intelligens og big data.

Han har været arkitekten bag nogle af verdens største IoT projekter og er desuden medstifter af tænketanken Nordic Bildung og formand i den danske afdeling af folkeoplysningseksperimentariet Fremvirke.

Fold ud

Lovgivningen er altid bagud

Lederens forbandelse er, at der ikke findes soleklare og enkle svar, fordi den teknologiske udvikling altid vil være et par år foran lovgivningen.

»Det nye er, at du med den hastige teknologiske udvikling hele tiden vil blive ramt af nye og ukendte dilemmaer. For 12 år siden fik vi smartphones, og hvem havde forudset, at en hel verdensbefolkning ville udvikle en afhængighed til dem?«, siger Kim Escherich, Executive Innovation Architect og AI-Etisk rådgiver hos IBM og uddyber:

»Meget af det, som vi har set i sci-fi-film de seneste år, er jo i dag en realitet. Normalt bygger du din etik på dine mange erfaringer. Her rammes du af noget, der går så stærkt, at du ikke har den nødvendige erfaring«, siger han.

Så hvordan imødegår du den virkelighed bedst? Hvordan styrker du din dataetiske sans?

Glem dataetik – det handler om etik

En god begyndelse er at erkende alvoren og ikke at lade sig forblænde af ordet ”data” og placere ansvaret i det tekniske hjørne af virksomheden, siger Kim Escherich.

»For mig at se er det forkert at beskrive det som dataetik, for det handler i virkeligheden om etik. Når vi bruger ordet dataetik, så er det som om, at vi placerer ansvaret i it-afdelingen. Men i virkeligheden står du som leder med brugen af data for ansvaret for nogle grundlæggende etiske dilemmaer, vi ikke så for bare 10 år siden«, siger han.

Når alt kommer til alt, er de valg, du står foran i dataetiske spørgsmål, ikke så anderledes end de dilemmaer, som ledere står over for i mange andre sammenhæng, mener Kim Escherich.

Alligevel er der en yderlige faktor, der gør netop etik i forhold til nye teknologier en kende vanskeligere: Hastigheden, hvormed nye teknologier opstår. Hvad der den ene dag kan være comme il faut, kan den næste dag vise sig at vække forargelse.

Hvad er etik?

Etiske spørgsmål drejer sig om, hvordan man behandler andre mennesker og andre levende væsener.

Etik handler om, hvad det gode liv er, og om betydningen af at tage hensyn til andre og ikke kun have blik for sig selv og sine egne behov.

Fold ud

Skal du irisscanne medarbejderne?

At dataetikken er en vanskelige størrelse, illustrerer et dilemmaspil, som Kim Escherich turnerer rundt med, når han både eksternt og internt hos IBM sætter etikken på dagsordenen.

Skal forsikringsselskaberne have adgang til dine data om din kørsel mod, at du som kunde betaler en lavere præmie? På den korte bane vil udlevering af data gavne forbrugeren, men hvad hvis forsikringsselskabet deler data med tredjepart?

De færreste af os har erfaringer med det dilemma.

Eller hvad med at indføre et digitalt værktøj, der gør, at du som leder har et overblik over dine medarbejderes netværksrelationer og lade deres evne til at pleje netværk afspejle sig i lønchecken?

Et værktøj til overvågning af netværk vil formentlig gavne virksomhedens ledelse, men overtræder det medarbejdernes grænser?

Eller skal du gøre som Amazon, der sætter en algoritme til at fyre medarbejdere automatisk? Eller bruge irisscanninger til at måle medarbejdernes psykiske velbefindende?

»Når vi bliver ramt af alle disse ting, så har vi ikke et referenceapparat. Alt er nyt. Den digitale dannelse, vi troede, vi havde, kan ikke bruges længere. Pludselig bliver nogle af de ting, vi kan med de digitale muligheder, til noget, vi associerer med de syv dødssynder«, siger Kim Escherich.

Er vi for eksempel for grådige i jagten på data?

»Derfor skal du faktisk have styr på og fat i nogle af de helt grundlæggende værdier, når du skal arbejde med dataetik«, mener Kim Escherich.

Problemet er, at der lige i en dansk sammenhæng i hvert fald sker en meget lille udnyttelse af data, fordi alle er bange for at gøre noget, der opfattes forkert

Thomas Terney, ph.d. og ekspert i kunstig intelligens og digitalisering
Thomas terney, kampen om fremtiden, dataetik, lederne, lederstof, ledelse, big data, kunstig intelligens, AI, dkledelse

Thomas Terney

Thomas Vestskov Terney er ekspert i og foredragsholder inden for kunstig intelligens og digital disruption. Han har i flere år arbejdet inden for biotech i krydsfeltet mellem ledelse, digital innovation og forretning.

Han har en ph.d. i kunstig intelligens, er forfatter og med i Ledernes Digitale Tænketank.

Fold ud

De store dataetiske spørgsmål må ikke bremse udviklingen

Det er med andre ord de store temaer, der skal op på vægtskålen.

Hvor langt skal du gå i effektivitetens navn? Hvornår er kunder, medarbejdere og andre interessenter modne til at dele data? Og skal du hoppe med på vogen, hvis først konkurrenten er kommet før dig?

I og med at dataetikken har den omsiggribende karakter, er der let at havne i en tilstand af stilstand.

Det mener Thomas Terney, der ud over at være ph.d. og ekspert i kunstig intelligens og digitalisering også er forfatter til bogen Kampen om fremtiden. Han plæderer for, at du som leder skal væk fra en lidt for let defaultindstilling om, at data er farlige.

»Problemet er, at der lige i en dansk sammenhæng i hvert fald sker en meget lille udnyttelse af data, fordi alle er bange for at gøre noget, der opfattes forkert. Der er lige nu slags defaultindstilling, og risikoen er, at det stopper en udvikling, der også kan være til det bedre«, siger han.

Hvem har fordelen af data?

Thomas Terney understreger, at han ikke er lalleglad fortaler for brug af data. Da han for mere end 10 år siden skrev sin ph.d. om kunstig intelligens og data, blomstrede Facebook frem.

Dengang var han og hans forskerkollegaer selv tilbageholdende med at bruge Facebook, fordi de var bekymrede for, om brugernes gavmildhed med data kunne ramme dem.

Det handler altid om en afvejning, hvor du skal se nøje på, hvad anvendelsen og bearbejdningen af data gavner.

Er det kun virksomheden, der vinder på det, eller vil det også gavne kunderne, forbrugerne og borgerne?

»Balancen ligger i dit udgangspunkt for at anvende data. Hvis fordelen ved brug af data primært ligger på din side af bordet, så har du et problem«, siger Thomas Terney.

5 måder at styrke din dataetiske sans på

  1. Vær systemtænker og forstå nye markedsdynamikker
    Du skal flyve op i helikopteren og erkende, at du står med flere hensyn end at forbedre profitten. Du skal forstå helheder og følge med i nye markedsdynamikker, der hele tiden ændrer sig.

    På 12-15 år har vi for eksempel set et komplet nyt marked for informationer i form af store selskaber som Google og Facebook. Det er du nødt til at forholde dig til og være en del af.

  2. Lær at udforske tvivlen

    Etik er ikke let, fordi der ikke er enkle svar. Ting, der virker godt set med ét sæt briller, kan virke forkert set med nogle andre.

    Hvis en forsikringsdirektør tilbyder et produkt til kronisk syge på særlige vilkår – at de eksempelvis skal bære tracking-teknologi – er det så godt eller skidt? Der kan argumenteres for begge dele. Og det er ok at dykke ned i tvivlen, da det er der, vi lærer.

  3. Forstå etikken i kunstig intelligens

    I det øjeblik vi træner en algoritme til at tage beslutninger, der tidligere blevet taget af mennesker, giver vi den typisk også algoritmisk autoritet.

    Vi er vokset op med procedural programmering og faste variable i computere og har på den måde opbygget en tillid til maskiner. Når vi taler om kunstig intelligens – som ret beset er avancerede statistiske modeller – og selvlærende algoritmer, der selv bearbejder data, kan it-systemerne – ligesom mennesker – foretage fejlslutninger. Det er vigtigt at have sig for øje.

  4. Accepter teknologiens begrænsninger

    Kunstig intelligens er ikke magi, men avanceret mønstergenkendelse. Teknologien åbner for nogle muligheder, men har også nogle begrænsninger.

    Hvis kunderne ikke er interesseret i at bruge din nye chatbot, så er den værdiløs. I jagten på ny indtjening risikerer vi at glemme ting, som betyder noget for brugerne og kunderne – såsom den personlige kontakt.

  5. Vær en ansvarlig leder

    Tro på dig selv og din holistiske måde at se verden på. I visse virksomheder er der efterhånden så meget målstyring, at mange ledere ikke længere tænker selv. Mere teknologi bidrager til den udvikling, og menneskeligheden kan får svære kår.

    Et skrækeksempel er hos Amazon, hvor en medarbejder modtog en automatisk genereret fyreseddel, fordi vedkommende gik for meget på toilettet.

Kilde: Kim Escherich, Executive Innovation Architect og AI-Etisk rådgiver, IBM.

Fold ud

Overvej risikoen ved ikke at bruge data

Overordnet mener Thomas Terney dog, at du bør træde et skridt tilbage, når det kommer til spørgsmålet om at anvende data.

I stedet for kun at se på risikoen ved at bruge data, bør du også stille dig selv spørgsmålet: Hvilken risiko er der ved ikke at bruge data?

Der findes nemlig rigtig mange eksempler på, hvordan brug af data faktisk kan forbedre beslutninger og udradere menneskelige fejl.

Thomas Terney nævner et meget omstridt eksempel fra Gladsaxe Kommune: Ved at krydse data ville de lave en profilering af børn og dermed forudsige, hvem der skulle sættes tidligt ind over for, så kommunen kunne undgå, at børnene ville komme i problemer senere i livet.

Måtte kommunen foretage profileringen? Debatten om sagen var ophedet. Men ifølge Thomas Terney er vi nødt til at spørge, om alternativet – den menneskelige sagsbehandling – er bedre.

»Hvad er konsekvensen ved, at vi ikke bruger data? Stort set alle sager om fejlbehandling på baggrund af data bunder jo i, at der tidligere har siddet mennesker og lavet systematisk fejlbehandling. 

Når automatiske systemer til domsafsigelser i USA fejler, fordi de dømmer sorte mennesker hårdere, er det ikke algoritmen som sådan, der er ond. Det er, fordi den bygger på historiske data fra et retssystem befolket af mennesker, hvor en del åbenlyst har været og stadigvæk er racistiske«, siger han.

Når jeg møder et menneske bag skranken, så er det jo den persons vurdering, der lægges ned over min sag. Det system accepterer vi uden videre som værende det rigtige. Hvorfor gør vi det?

Thomas Terney, ph.d. og ekspert i kunstig intelligens og digitalisering

Mennesker kan også fejle

»Nogle dataetikere taler for bare at lukke ned for brugen af data, men det baserer sig efter min mening på en utopi om, at mennesker per definition er bedre end maskiner. Men det er en romantisk forestilling.

Det er også mennesker, der har startet Det Tredje Rige, udnytter børn seksuelt og alt muligt andet skidt. Når der er en maskine, der udelukkende baserer sig på data, har jeg i det mindste mulighed for klart at se, hvad grundlaget er for en beslutning. Og jeg kan ændre det grundlag«, siger Thomas Terney.

Han mener, at den pointe kan balancere debatten og bringe nye perspektiver til beslutningspunkterne.

»Når jeg møder et menneske bag skranken, så er det jo den persons vurdering, der lægges ned over min sag. Det system accepterer vi uden videre som værende det rigtige. Hvorfor gør vi det?«, spørger han.

Thomas Terney medgiver også, at der ikke findes ét svar eller et mirakelmiddel. Alle initiativer afhænger af en konkret vurdering og skal naturligvis følge gældende lovgivning.

Men man kan ikke sige ”vi skal have mennesket i centrum" og så tro, at man automatisk har etikken på sin side.

Forbered dig ved at styrke din etiske sans

Selv er de to eksperter, Thomas Terney og Kim Escherich, uenige på flere punkter. Det siger noget om, hvor vanskeligt et område der er tale om.

Kim Escherichs råd til dig som leder er, at du bør styrke din fornemmelse for etiske problemstillinger, og ikke lade dig forblænde af, at alle sætter ordet data foran etik.

Helt grundlæggende skal du styrke den etiske sans, dannelsen og den begrebsverden, du skal bruge i en ekstremt digitaliseret verden.

Han bruger Christian Madsbjerg fra Red Associates som reference. Christian Madsbjerg har nemlig udtalt, at du lærer mere ved at fordybe dig i musik, kunst og litteratur end ved at kigge i et regneark.

Eller sagt på en anden måde: For at blive bedre til at forstå etik, skal du løfte sig op over nogle af de konkrete opgaver, der sædvanligvis er knyttet til arbejdslivet som leder.

»Man har en tendens til at se det, der er lige foran én. Det gjorde jeg også selv, da jeg var yngre, hvor jeg havde en kanon karriere og arbejdede meget. Spørgsmålet er bare, hvor meget jeg egentlig udviklede mig?«

»Hvor meget litteratur fik jeg læst? Hvor meget kunst fik jeg set på? Du bliver ikke et bedre menneske af at gøre det samme. Det er for smalt«, siger Kim Escherich.

Det er risikabelt ikke at forholde sig til data

Hvis dit etiske grundkompas ikke fungerer, vil du få det svært i en tsunami af nye teknologiske muligheder.

»Så er du ilde stedt, hvis du bliver ramt af noget nyt, du ikke har oplevet før«, siger Kim Escherich.

Thomas Terney råder dig til at opbygge din forståelse for data og algoritmer – både deres muligheder og begrænsninger. Det kræver blandt andet en statistisk forståelse, når du kigger på de konkrete problemstillinger.

»En manglende forståelse for data og algoritmer er problematisk. Risikoen er, at du overser bias i data. Du ender med at konkludere, at personer på Nørrebro generelt er mere kriminelle, bare fordi der er en overvægt at kriminelle på Nørrebro. Eller at mænd er bedre ledere, fordi de typisk er blevet forfremmet historisk«.

»Det handler om at forstå data, statistik og sammenhænge«, siger Thomas Terney.

Det er som at bygge et hus med en hammer, men en hammer kan du også bruge til meget andet. Derfor skal vi ikke blive bange for hammeren

Kim Escherich, Executive Innovation Architect og AI-Etisk rådgiver hos IBM 


Du kan sige for meget ja – men også for meget nej

Kim Escherich medgiver, at det er svært at finde balancen.

»Det er derfor, at vi skal bruge etisk tænkning og tænke holistisk. Min frygt, at vi siger for meget ja. Men jeg har også stor frygt for, at vi siger for meget nej«.

»Diagnosticering af røntgenbilleder ved hjælp af AI-algoritmer skal vi ikke nødvendigvis sige nej til«, siger han som et eksempel på dataenes gode sider.

»Det er som at bygge et hus med en hammer, men en hammer kan du også bruge til meget andet. Derfor skal vi ikke blive bange for hammeren«, afslutter han.

Action Card

Få greb om dataetik

  1. Find balancen: Du skal finde balancen mellem at anvende data og lade være. Det vil kræve etiske overvejelser, fordi jura og lovgivning ikke altid følger med i takt med de nye teknologiske muligheder.
  2. Forstå data: Bliv en bedre statistikker og forstå algoritmer. Du kan let fare vild i data og risikere at konkludere på forkerte sammenhænge, hvis du ikke forstår den bias, der også ligger i data. 
  3. Styrk dine menneskelige egenskaber: Så kan du træffe mere velfunderede etiske valg. Etik handler blandt andet om ikke kun at have blik for din og virksomhedens behov, men menneskers ve og vel på den længere bane.