Algoritmer, transparens og etik – Skal vi kunne kigge Watson i kortene?

Der er mange gode grunde til at sikre transparens i beslutninger. Det handler dybest set om retfærdighed og demokrati. I sundhedsvæsenet betyder det måske en ret hos patienter til at nægte at blive diagnosticeret af et AI system eller at der etableres en statslig ”algoritmisk vagthund” / ombudsmand som det for nylig blev foreslået af forskere fra Oxford.

Af Thomas Ploug, professor, PhD. Vice Head of Department. Aalborg University Copenhagen og medlem af SIRIkommissionen

Når kunstig intelligens teknologi træffer beslutninger, involverer det ofte mange regler, en kompleks vægtning af disse regler og store mængder data. I visse tilfælde vil beslutningerne oven i købet være baseret på kunstig intelligens, som har modificeret de oprindelige beslutningsregler eller tilføjet nye regler – og ikke mindst vægtningen af de indgående regler. Kompleksiteten af disse beslutningsprocesser gør, at de er uigennemskuelige. Det bliver umuligt at rekonstruere alle elementer af beslutningsprocessen. Er det et problem?

Der er mange gode grunde til at sikre transparens i beslutninger. Det er en forudsætning for at kunne sikre, at de ikke er baseret på dårlig ræsonneren, utilstrækkelige data eller uacceptable værdier og interesser. Det er som sådan en forudsætning for medindflydelse på beslutninger og et acceptabelt udkomme af en beslutning.

I nogle sammenhænge kan det selvfølgelig være rimeligt at hemmeligholde grundlaget for beslutninger, men i almindelighed vil det være rimeligt at insistere på åbenhed i forholdet mellem stat og borger. En borger skal alt andet lige sikres medindflydelse på beslutninger, der angår vedkommende, og der skal være mulighed for at kritisere beslutninger ud fra det grundlag, de blev truffet på. Det handler dybest set om retfærdighed og demokrati.

Hvis en læge træffer en beslutning ved fx at stille en diagnose og i relation hertil foreslå en behandling, så kan vi spørge til grundlaget for beslutningen. Det vil givetvis udgøres af en lang række forhold, herunder patientens symptomer, faglig viden og erfaring, etiske og juridiske forhold og behandlingspolitikker, praksis osv. Vi har dog adgang til dette grundlag i den udstrækning, at lægen kan og vil dele det med os. Og endnu væsentligere, vi har et system, hvor vi med en vis effekt kan stille lægen til regnskab for både beslutning og for eventuelt at skjule information.

Ved anvendelse af kunstig intelligens som fx Watson til at stille diagnoser og angive behandlingsforslag bliver det vanskeligt at opretholde kravet om transparens i beslutninger. Kan vi leve med det?

Vi står her med et vanskeligt dilemma. Hele ideen med at introducere et kunstigt intelligent system som Watson til at stille diagnoser er jo, at det faktisk vil kunne gøre det mindst lige så godt som mennesker. Potentialet er mere sikre diagnoser og bedre behandling – alt sammen hurtigere og billigere. Modsat er transparenskravet vigtigt for at sikre retfærdigheden af beslutninger og er ultimativt en beskyttelse af demokratiet.

Der findes ikke umiddelbart nogle lette måder at opløse dilemmaet på.

Man kan godt i udgangspunktet give Watson begrænset indflydelse i forbindelse med diagnostik og behandling ved kun at lade den være en ”hjælp” til læger. Men hvad er den dynamiske effekt, hvis og når den indfrier sit potentiale og bliver bedre til at stille diagnoser end lægerne? Det er svært at forestille sig, at det ikke vil påvirke den almindelige læges vurdering, og dermed vil Watson de facto træffe den relevante beslutning.

Man kunne også forsøge at indfri transparenskravet ved at give adgang til information om, hvordan Watson principielt set fungerer, dvs. forklare den enkelte borger/patient, hvordan Watson i princippet træffer beslutninger. Det vil selvfølgelig have en vis informativ værdi, men giver jo ikke en indsigt i den præcise beslutningsproces og løser dermed ikke den grundlæggende opgave bag kravet om transparens.

Der er heller ikke noget let valg mellem dilemmaets horn.

Man kunne måske være fristet til at tænke, at bedre diagnoser og behandling må veje meget tungt i forhold til at afgøre Watsons fremtidige rolle. Det er imidlertid ikke en uproblematisk position.

For det første er det ikke klart, at der kan gives et helt entydigt og uproblematisk begreb om ”bedre” diagnostik og behandling. Man kan givetvis finde en række lægefaglige parametre at vurdere Watsons præstation ud fra, men det er ikke givet, at disse vil være sammenfaldende med patienternes kriterier for en bedre diagnostik og behandling. Hvis det gode behandlingsforløb således forhandles i mødet mellem læge og patient, må Watsons rolle alene være assisterende (hvis den rolle altså reelt kan fastholdes).

For det andet truer en glidebane ved opgive transparenskravet på dette område. For hvorfor så ikke opgive det på andre områder, hvor der kan være gevinster knyttet til at anvende kunstig intelligens i beslutnings-processer? Det kunne være i tilknytning til domsafsigelser i retssystemet. Et nyligt studie viste, at kunstig intelligens var i stand til at forudsige dommen i 79% af 584 afgørelser ved den Europæiske menneskerettig­heds­domstol. Kunne man forestille sig, at vi i fremtiden i nogle tilfælde sikrer retfærdighed i retssystemet gennem domsafsigelse baseret på kunstig intelligens, men på bekostning af transparenskravet?

Potentialerne ved anvendelse af Watson i sundhedsvæsenet er stort. Og det må man selvfølgelig tilstræbe at udnytte. Men anvendelsen af Watson rejser også nogle vanskelige spørgsmål og problemer – ikke mindst i forhold til at sikre transparens af beslutninger. Måske løsningerne på det vanskelige dilemma kunne involvere en ret hos patienter til at nægte at blive diagnosticeret af et AI system eller at der etableres en statslig ”algoritmisk vagthund” / ombudsmand som det for nylig blev foreslået af forskere fra Oxford.

Stafetten givers hermed videre til Ken Falk, fra dronefirmaet Scopito.

 

One response to “Algoritmer, transparens og etik – Skal vi kunne kigge Watson i kortene?

  1. Transparens omkring algoritmer lyder som en god idé, i takt med at det digitale samfund tager form i bredde og dybde. Mere transparens omkring ikke-digitale beslutningsgange, eksempelvis i sundhedsvæsenet eller angående salg af offentlige selskaber (DONG eksempelvis) eller angående EU eller centralisering eller masseindvandring med videre ville dog også være en god idé.

    Det er jo netop ikke sådan, at digitaliseringen markerer en overgang fra høj transparens i dagens ikke-digitale virkelighed. I mange tilfælde vil der være tale om, at der med digitaliseringen lægges ny opacitet (intransparens) oven på eksisterende analog opacitet. Digitaliseringen markerer langtfra et syndefald fra transparent idealtilstand nu til opak digitaltilstand i fremtiden.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *