Ansvarlig kunstig intelligens – et etisk dilemma

Kunstig intelligens – eller Artificial Intelligence (AI) – er for mange virksomheder og organisationer en helt ny måde, hvorpå data og teknologi kan bruges og udnyttes. Særligt er dét, der kaldes “ansvarlig AI”, i dag i fokus. For hvordan sikrer man, at AI-løsningen anvendes ansvarligt, når det for eksempel gælder relationen til den enkelte kunde, borger eller medarbejder? Vi har samlet nogle gode råd og inspiration til arbejdet med ansvarlig AI.

Forestil dig, at du arbejder i en kommunal stilling inden for socialområdet, og at du – qua kommunens brug af kunstig intelligens – har opbygget en model, der tager afsæt i store mængder data om borgernes tandsundhed samt data om udsatte børn og unge. Forestil dig, at du i kraft af disse data får indsigt i, at der er en klar sammenhæng mellem børn med dårlig tandsundhed og børn med sociale udfordringer i kommunen. Spørgsmålet er nu, om du som offentligt ansat skal kunne tage kontakt til forældrene i forsøget på at sikre, at barnets tarv og sociale udvikling bliver varetaget på bedste vis. Eller vil det være at overtræde den enkelte borgers ‘etiske privatsfære’? Det er blot ét af mange dilemmaer, som brugen af AI potentielt set kan medføre, hvis vi kigger ind i fremtiden. Vi har data og indsigt, men skal vi handle?

Det etiske kompas

Der er ingen tvivl om, at AI med sine ubegrænsede muligheder for innovation og effektivisering kan skabe store fordele mange steder i samfundet for både private virksomheder, offentlige institutioner, borgere, kunder og medarbejdere. Men med et stort potentiale og næsten ubegrænsede muligheder følger også store risici og et stort ansvar, hvis ikke AI bruges ansvarligt og med et klart etisk kompas for øje.

Kan man for eksempel være sikker på, at AI ved hjælp af algoritmer træffer/anbefaler de beslutninger, der stemmer overens med den enkelte virksomheds eller organisations værdier? Har medarbejdere, borgere og kunder tillid til, at deres data bliver behandlet fortroligt? Og hvordan påvirkes henholdsvis forretningen samt brand og omdømme, hvis “AI-systemerne” pludselig ikke fungerer?

Det er alfa og omega at kunne forholde sig til disse problematikker, så potentialet ved kunstig intelligens kan realiseres fuldt ud og på en ansvarlig og etisk korrekt måde.

Ifølge Esben Toft, der er partner og leder af PwC’s afdeling for Digital, Automation og Data, står vi i dag i en brydningstid, hvor både private virksomheder og offentlige organisationer er tvunget til at tage stilling til, hvordan man vil arbejde med AI-teknologi og de mulige prædiktive modeller, der udgør basen i forhold til at kunne målrette AI-indsatsen.

I den forbindelse er det vigtigt at have en klar holdning og nogle solide principper, der kan styre virksomheden eller organisationen sikkert igennem de scenarier, som brugen af AI eventuelt vil kunne medføre.

“Det er essentielt at besidde et etisk kompas i form af nogle principper, der kan guide virksomheden eller organisationen sikkert igennem de etiske dilemmaer, der måtte opstå. Det kræver, at man som ledelse – hvad enten der er tale om det private eller det offentlige – er villig til at diskutere en række centrale spørgsmål, der dykker direkte ned i de konkrete AI-tiltag,” fortæller Esben Toft fra PwC.

Det er essentielt at besidde et etisk kompas i form af nogle principper, der kan guide virksomheden eller organisationen sikkert igennem de etiske dilemmaer, der måtte opstå

Esben Toft, Partner, Head of Digital, Automation and Data, PwC

Artiklen er lavet på baggrund af interview med Esben Toft, Partner, Head of Digital, Automation and Data, PwC

Fire hovedområder

Der er særligt fire hovedområder, man som ledelse bør forholde sig til. Det første handler om sikkerhed og robusthed, samt hvordan man kan validere, overvåge og vedligeholde sin AI-løsning. De andre punkter stiller skarpt på styringsmodeller, formidling, etik og moral, AI-algoritmer samt beslutningsprocesser.

1. Hvordan kan vi forbedre sikkerheden og robustheden af AI-anvendelsen via validering, kontinuerlig overvågning og vedligeholdelse?

Når man vil anvende AI og i den forbindelse træne en ‘model’, er det yderst vigtigt, at modellen er så korrekt som muligt. En model kan nemlig blive ‘biased’, hvis den tilføres forkert træningsdata eller misvisende forretningslogik.

Afspejler træningsdata ikke virkeligheden, kommer modellen til at have en skævvridning i forhold til virkeligheden. Det vil i sidste ende betyde, at modellen vil fremkomme med forkerte anbefalinger/forudsigelser.

Hvis man som privat virksomhed eller offentlig organisation står over for at skulle lancere en AI-assistent, er det derfor vigtigt at lave et kontrol-setup eller en kontrolmekanisme, der skal sikre, at modellen opfører sig, som den skal.

“Hvis en sagsbehandler i den offentlige sektor skal kunne rådføre sig med en AI-assistent, kræver det, at den ‘menneskelige beslutningskraft’ fortsat er til stede. Man kan for eksempel operere med et scenarie, hvor AI-assistenten giver sagsbehandleren en ‘second opinion’ baseret på de træningsdata, den har fået. Det er her ekstremt vigtigt, at virksomheden eller organisationen regelmæssigt tester korrektheden af data. Man skal således altid kunne lægge til og trække fra og vurdere assistentens anbefalinger. Det kræver en løbende validering i kraft af et kontrolmiljø,” forklarer Esben Toft.

2. Hvad kan vi gøre for at sikre gennemsigtighed og ‘klar tale’ i formidlingsprocessen – og hvorfor er det vigtigt?

Når befolkningen for eksempel afgiver data til den offentlige eller private sektor, skal det være 100 procent klart for den enkelte borger, hvordan disse data vil blive brugt. Man skal være transparent og præcis i sin formidling. Derudover skal også resultatet af brugen af data formidles præcist. Men hvordan kan det sikres?

Esben Toft uddyber: “Hvis man har en AI-assistent, der kommer med en konkret anbefaling til dig som sagsbehandler i det offentlige, og du vælger at følge den – og der så kommer en klagesag ud af det efterfølgende – er det helt centralt at kunne dokumentere, hvorfor assistenten har anbefalet dét, den har, da det er et vigtigt element i forhold til at kunne forsvare de afgørelser, man som sagsbehandler har truffet.”

3. Hvordan vurderer vi de etiske, moralske og lovgivningsmæssige konsekvenser af udviklingen og brugen af AI?

Det er vigtigt, at de etiske, moralske og lovgivningsmæssige konsekvenser i forhold til anvendelsen af AI vurderes på ledelsesplan. Det gælder ikke mindst i en politisk styret organisation, da det ofte vil være de politisk ansvarlige, der skal kunne stå på mål for brugen af AI.

“Tag derfor diskussionen i ledergruppen. Det er essentielt, at alle i ledelsen er enige med hensyn til, hvad man vil være med til, og hvad man ikke vil være med til. Ved at tage diskussionen kan man sikre et beredskab, samtidig med at man gør virksomheden/organisationen langt mere modstandsdygtig i forhold til eventuelle udefrakommende trusler, for eksempel i form af negativ medieomtale,” fortæller Esben Toft.

4. Hvordan kan vi designe effektive AI-algoritmer og beslutningsprocesser, så de understøtter ansvarlighed og kvalitet?

Som offentlig organisation bør man i høj grad kommunikere om sin brug af AI. Man skal stå ved det og turde melde ud, at man benytter sig af teknologien. Man skal også være åben omkring, hvordan brugen af AI skaber kvalitet og værdi for den enkelte borger. Derudover skal man kommunikere, at data konsekvent håndteres korrekt og ansvarligt.

Netop den menneskelige brug af AI-algoritmer er her et centralt omdrejningspunkt – samt mere specifikt spørgsmålet om, hvordan et menneske skal interagere med AI-algoritmer.

“Man kan vælge imellem flere tilgange. For eksempel kan man vælge en AI-model, der som udgangspunkt leder sagens gang – men når algoritmen er i tvivl, tager den fat i sagsbehandleren. En anden måde kunne være, at det altid er sagsbehandleren, der bestemmer og kører alle sager. Men hvis sagsbehandleren så er i tvivl, konsulterer han eller hun AI-modellen. Dette skal der træffes et klart valg om, og man skal som ledelse være fuldt ud bevidst om valget. Dermed gøres valget også ansvarligt,” afslutter Esben Toft.

Kom godt i gang med implementeringen af AI

PwC foreslår, at du starter med at prioritere implementering af AI-teknologier og automationer i de administrative funktioner, såsom økonomi eller sagsstyring. Årsagerne til at starte netop her bygger på, at det typisk er hurtige besparelser at finde inden for disse områder, samt at man her kan digitalisere allerede kendte og ikke borgervendte processer. AI vil eksempelvis kunne udtrække informationer fra forskellige længere tekstformater, herunder indsendt dokumentation, regninger og andre teksttunge dokumenter, hvilket kan bidrage til at effektivisere interne processer og øge produktiviteten.

Gentænk opkvalificering af dine medarbejdere

Ny teknologi og evnen til at analysere og forbedre processer kræver uddannelse og oplæring af medarbejdere på tværs af kompetenceområder. PwC anbefaler, at du fokuserer på, at dine medarbejdere besidder ’T’-formede kompetencer. Det betyder i praksis, at du sikrer dig, at der i virksomheden er specialister med ’dybe’ kompetencer, og at disse også har tværgående kompetencer, tilsammen illustreret som et ’T’. Via denne opbygning af kompetencer muliggør du tværfaglige samarbejder, hvor de ansatte på den ene side kan sparre med hinanden omkring nye ideer, og på den anden side også har evnen til at kunne implementere disse og levere på ideerne, herunder også omkring brugen af AI.

Beslutningstagen og ansvarlig AI

Brugen af kunstig intelligens giver mere eller mindre automatiserede processer, der tilsvarende træffer mere eller mindre ’usynlige’ beslutninger. Derfor er det afgørende at have en fuld kontrol over og dokumentation af, hvilke beslutninger, I tillader og ønsker, at algoritmer skal tage i alle situationer, samt om de følger de forventede beslutningsmønstre. Denne form for ansvarlig brug af AI bør betragtes som et krav til en varedeklaration på den service, som algoritmen yder.

Operationalisér dit data-fundament

Data er nøglen til at operationalisere AI, og jo bedre data-fundamentet, som algoritmerne kan agere ud fra, er, desto mere kompleks og holistisk beslutningsstøtte vil data kunne generere. Algoritmer kan fx prioritere, hvilke borgere der skal have deres ydelser først baseret på indsigter fra data, der indikerer, hvilke borgere der har det største behov holdt op imod den mulige effekt af indsatsen. På den måde sikrer I en målretning af indsatsen, så I opnår størst mulig effekt.

Kontakt

Esben Toft
Partner, PwC
Tlf: +45 4072 5767
Email

Følg PwC

LinkedIn
Twitter
Facebook
Youtube