Udviklere skal fremme etisk AI

Næsten alle er enige om det enorme potentiale i data og kunstig intelligens. Men vejen til at udbrede den nye teknologi uden at skabe ulighed, diskrimination, overvågning og udhuling af menneskerettigheder er ikke lige ud af landevejen. I denne artikel diskuterer Gry Hasselbalch og Thomas Nørmark forskellige tilgange til mere menneskevenlig AI og forskellene mellem EU og USA og mellem humanister og teknologer.

Fakta om:

Gry Hasselbalch

Medstifter af tænkehandletanken DataEthics.eu og PhD fellow på Københavns Universitet, hvor hun forsker i dataetik. Gry arbejder i EU’s regi med etisk og bæredygtig brug af data bl.a. som medlem af EU’s High-Level Expert Group on AI og som etik evaluator på EU-finansierede forskningsprojekter. Hun sad også i den dataetiske ekspertgruppe, som den danske regering udpegede i 2018. I DataEthics.eu arbejder Gry for at skabe og dele viden i Danmark og EU om den menneskecentriske tilgang til datateknologier i industrien og det offentlige.

Thomas NørmarkThomas Nørmark

Global Head of AI & Robotics hos itelligence, hvor han har ansvaret for at opbygge en AI praksis i de 28 lande, hvor itelligence er repræsenteret.

I Danmark er han og hans team involveret i et antal projekter inden for AI og robotics – heriblandt Børns Vilkårs arbejde med at optimere Børnetelefonen.

”Vi ser nogle systematiske forskelle mellem Europa og resten af verden på det her område,” siger Thomas Nørmark. ”I USA og Asien lader man virksomheder løbe linen ud, og så lukker man noget ned bagefter, hvis det viser sig at være helt skævt. I EU lukker man alt ned og kører fuld regulering fra starten, og så åbner man langsomt op. Det gælder ikke kun AI. Vi så det også i forhold til droner. Det koster klart noget innovation, men omvendt får AI-anvendelsen større bæredygtighed og mere gavnlig effekt for vores samfund. Jeg synes, at det er svært at pege på, hvilken model, der er bedst.”

”Det synes jeg overhovedet ikke, at det er,” siger Gry Hasselbalch. ”Europa skal tage førertrøjen på det her område. Vi har menneskerettighederne dybt forankret i vores lovgivning. De værdier var en del af arven efter 2. verdenskrig, og de er en del af vores kultur. Vi spørger om lov og vi bygger på tillid. I USA kan det måske nok gå hurtigere og være mere profitabelt. Men jeg mener EU’s model er bedst, for vi skal ikke måle os på at være først og størst. Vi skal måle data og AI på den rolle de spiller i vores samfund og på om de understøtter vores demokrati, værdier og rettigheder eller om de gør det modsatte.”

Gry Hasselbalch og Thomas Nørmark er sat i stævne af itelligence i en videokonference i anledning af et nyt whitepaper fra DataEtics.eu. Papiret handler om, hvordan offentlige indkøbere kan stille krav til dataetik, når de indkøber og implementerer dataintensive løsninger. Se det her: https://dataethics.eu/publicprocurement/

Løfte barren

”Vi mener, at det offentlige indkøb kan være med til at løfte barren på det her område. Vores papir er en detaljeret guideline, som giver mulighed for at prioritere de dataetiske løsninger. Det handler ikke kun om effektivitet og om at blive færdig, for det har langtrækkende konsekvenser i samfundet, hvis vi designer datateknologier og implementerer dem uden etisk refleksion og analyser,” siger Gry Hasselbalch.

 


Thomas
: ”Det er den ultimative udfordring, at vi skal bryde det muliges grænser med den her teknologi, og samtidig sikre transparens, forklarlighed og privatliv.”

Gry: ”Vi ønsker ikke at gøre processen mere besværlig. Vi ønsker bare at gøre analysen mere nuanceret og fokuseret på de samfundsmæssige og etiske konsekvenser, når man overvejer, indkøber og udvikler disse databaserede løsninger.”

Dataetik er ikke udvikler-DNA

Thomas: ”Her i Danmark har vi været i flere processer – også med offentlige virksomheder – hvor det dataetiske aspekt var komplet fraværende i kravsspecifikationen. Jeg ville ønske, at alle havde haft dette white paper fra starten af. Vi har i itelligence udviklet vores egen værktøjskasse på det her område, og vi har gjort det fra relativt bar bund. Vi forsøger at komme de essentielle områder igennem i noget vi kalder en data ethics journey, som rører ved områder som åbenhed, fairness og sikkerhed. Sagen er jo den, at det her slet ikke ligger inden for det faglige felt hos dataloger og udviklere. Det er ikke et naturlig streng i DNA’et hos en data scientist.”

Gry: ”Normalt fører det til, at man først tænker på etik og privacy, når man står med en løsning, man er klar til at sætte i drift. Men vi vil gerne have overvejelserne med fra starten af en udviklingsprocess. Det skal være en standarddel af opgaven, der skal løses. Mange udviklere har som kernekompetence at løse problemer, og vi skal have den kreativitet med ind i arbejdet med de etisk bæredygtige løsninger.”

Ethics by design

Thomas: ”Jeg kan godt lide den vinkel. På Rømø er vi inde over et projekt om at forstå trafikmønstre og turisters adfærd. Der er kun én vej til Rømø – nemlig en bro, så det giver noget at arbejde med. Her måtte vi fra starten ind og kigge på, hvordan vi kunne arbejde med at se rejsemønstrene, når vi ikke kan bruge nummerplader og ansigter. Det er faktisk muligt at bestemme disse mønstre uden at kompromittere privacy. Men det er klar at mange viger tilbage, fordi det fra starten ser for risikabelt ud.”

Gry: ”Vi skal have ethics by design. Altså ind i processen fra starten. Det handler om tidligt at identificere berørte samfundsgrupper og etiske dilemmaer. Ofte handler det her om konflikter mellem interesser, som for eksempel en interesse i effektive løsninger over for individers interesse i privatliv. Med en dataetisk vinkel skal man finde en løsning, der fremmer menneskets interesse, og som overordnet set spiller sammen med en demokratisk samfundsmodel. ”

Thomas: ”Set fra mit synspunkt et det tydeligt, at vi stadig mangler en del inden for data science i form guidelines og modeller. Vi skal have en større erfaringsbase for at undgå at løsninger diskriminerer, producerer uretfærdigheder eller bliver uforklarlige. På den baggrund kan jeg godt lide den konstruktive tilgang fra din side. Meget ofte er der en meget spændt atmosfære, når humanister og teknologer diskuterer de her emner. De mødes meget sjældent, og det er jo helt nødvendigt at vi finder en fælles vej fremad.”

Ikke ond vilje

Gry: ”Jeg møder ingen teknologiudviklere derude som har en direkte intention om at skade nogen eller diskriminere nogen. Der er ikke tale om ond vilje, det er bare en overhængende risiko, hvis man kun tænker på det tekniske design og glemmer den rolle, som teknologien spiller i samfundet. Derfor er jeg overvejende positiv over for et begreb som ”trustworthy AI”, der handler om, at vi ikke skal stole blindt på, at en teknologi som kunstig intelligens udvikles for menneskets og samfundets bedste. Man skal som udvikler kunne vise, at man rent faktisk har bygget etikken ind i sit design med åbenhed, etisk analyse og proces. Det vil sige, black box algoritmer og databehandling er no go.  Jeg håber, at det bliver EU, som kommer til at drive den udvikling.

Thomas: ”Vi må erkende, at vi skal lære at kravle, før vi kan gå. Vi skal lære det her, og for os har det været noget med at lægge skinnerne, mens vi kørte derudaf. Næsten alle leverandører har nogle fine etiske principper, men jeg tror, at vi differentierer os ved faktisk at have noget erfaring med at arbejde med det i praksis. Et eksempel er en metode som counterfactual fairness. Men det er klart, at det kan koste noget, og at det er en afvejning op mod effektivitet.”

Både oppefra og nedefra

Gry: ”Nu er EU jo blevet kaldt en global reguleringsmæssig supermagt på grund af GDPR, og jeg mener, at det er helt logisk, at vi tænker på dataetik som både en samfundsindsats og som en konkurrencefordel. Jeg er ikke en teknologideterminist, som tror, at løbet er kørt, og at fremtiden består af intelligente robotter, der styrer verden. Jeg tror på, at vi mennesker kan styre udviklingen.”

”I vores perspektiv er top-down lovgivning fra EU ikke den eneste måde at gøre det på. Vi skal også have det til at ske nedefra. Udviklere, studerende og forskere skal også arbejde i det her felt.”

Thomas: ”Det er ret komplekst, og det går helt ned i det enkelte projekt. I forhold til den AI løsning vi arbejder med hos Børns Vilkår ser vi faktisk en ret bred vifte af interesser repræsenteret i organisationen. De børnefaglige er selvfølgelig optaget af at hjælpe flest mulige børn, og derfor hepper de på projektet, for de kan se det som hjælp til børnene og som en hjælp til at løfte effektiviteten og nå ud til flere børn. Andre stemmer reagerer forskrækket og med instinktiv og kraftig modstand ved tanken om overhovedet at bruge denne software. I praksis går mindst halvdelen af projektet ud på at sikre de etiske aspekter af løsningen, så vi kan garantere for privacy og fairness.”

Corona og dataetiske tømmermænd

Gry: ”Coronakrisen fører jo også til nogle meget hurtige, forcerede valg. Lige nu har der været en stor diskussion i gang om privacy i forhold til at bruge en app til at spore vores sociale kontakter og stoppe smittespredningen. Men den brede dataetiske analyse, når slet ikke med.”

Thomas: ”Ja, det er jo unægtelig noget af et dilemma, hvis det koster menneskeliv, at vi ikke får gang i en ordentlig sporing af smitten.”

Gry: ”I Kina har de slet ikke den bremse, og nu kører de løs med at spore folk. For mig at se har vi kurs mod nogle dataetiske tømmermænd, for når vi først har sporingen, så kan vi ikke slukke for den. Vi skal altså diskutere det her. Vil den overhovedet redde menneskeliv?”

Thomas: ”Google/Apple-løsningen er paradoksalt nok den mest ædle løsning på markedet, når det kommer til privacy, hvis det er rigtigt, hvordan den bliver beskrevet. Hvis den altså holder vand. Vi får brug for et element af tillid.”

Gry: ”Jamen det er netop min hovedpointe. Hvis ikke engang du som ekspert kan være sikker, så mener jeg at vi skal stoppe op. Vi skal have en menneskecentrisk tilgang, og vi skal have en demokratisk kontrol. Vi skal aktivt vide, at vi kan stole på, at sådan en app ikke kan misbruges og give os problemer i fremtiden.”

Dette er en redigeret version af længere interviewsamtale, som også kom ind på data-etiske mærkningsordninger, velfærdssamfundet, Santander Consumer Bank og Grys fremtidige personlige AI-assistent. Begge deltagere har godkendt deres citater.   

 

Similar posts

Use the itelligence insights finance technology survey to benchmark your finance digital transformation
Read more
Read more
Read more
Read more
Read more
Read more

Contact
Contact

If you have any questions, please feel free to contact us.