SIRI Kommissionen 4.0: En Fremtidssikret velfærdsstat med AI

0

Hvilke krav vil I stille til brug af AI i den offentlige sektor?

Justitias Birgitte Arent Eiriksson sidder med i SIRI-Kommissionen 4.0. Rapportens anbefalinger har gode takter og Justitias tilslutter sig de ovrordnede linjer, men kan i samme ombæring tilføje følgende:

Kunstig intelligens kan sikre et beslutningsgrundlag, som bygger på langt flere data, end den menneskelige hjerne kan rumme. Samtidig er teknologien med til at effektivisere den offentlige sektor og dermed sikre den fortsatte finansiering af den velfærdsstat, som karakteriserer vores samfund.

Men en så stor samfundsforandring – der har fundet sted i løbet af forholdsvis få år –­ har selvfølgelig også skabt nye udfordringer og dilemmaer af menneskeretlig, retssikkerhedsmæssig og etisk karakter, især i forhold til anvendelse af kunstig intelligens.

Forvaltningsloven er teknologineutral, men som det fremgår af anbefalingerne nedenfor, er det med digitaliseringen blevet nødvendigt at tilpasse lovgivningen for at sikre transparens og forklarlighed i myndighedernes afgørelser.

Sagen er, at mens man som embedsmand altid skal kunne redegøre for, hvad der ligger til grund for en given beslutning, så indebærer kunstig intelligens – og især machine learning – en black box problematik, som gør det vanskeligt for borgerne at forstå og forholde sig til en afgørelse.

En anden af rapportens anbefalinger, som kan fremhæves, handler om, hvordan kunstig intelligens anvendes i praksis. Mens det på nogle områder kan være uproblematisk at lade kunstig intelligens træffe afgørelse direkte over for borgeren, er det på andre områder som f.eks. social- og sundhedsområdet noget mere dataetisk udfordrende. Her kan kunstig intelligens i stedet anvendes som beslutningsstøtte for de sagsbehandlere, som skal træffe afgørelse i en sag.

Det kan måske være fristende at stille lavere krav til de ansattes uddannelse og erfaring, når de har en kunstig intelligens at læne sig op ad. Forskning viser imidlertid, at det i særlig høj grad er de mindre erfarne medarbejdere, som lader sig forvilde af en forkert second opinion. Hvis kunstig intelligens bliver en spareøvelse, risikerer man derfor, at fejl og uhensigtsmæssigheder i den kunstige intelligens når at sprede sig til rigtig mange sager, inden det bliver opdaget.

Den sidste anbefaling, som kan fremhæves, er anvendelsen af de dataetiske refleksionsværktøjer, som Dataetisk Råd har udviklet. Vi har allerede set flere eksempler, hvor folketingsmedlemmer har været meget ærgerlige, når det efter vedtagelsen af en lov viser sig, at der skjult i lovforarbejder, juridiske formuleringer og lignende har gemt sig bemyndigelser til omfattende databehandling med henblik på udvikling og drift af kunstig intelligens.

Selvom det helt store ryk i brug af kunstig intelligens især ligger i kommuner og regioner, er det politikerne på Christiansborg, som står for den parlamentariske forankring af vores digitale udvikling på alle områder.

Anbefalinger fra rapporter:

1 VÆLG AI SOM BESLUTNINGSSTØTTE, NÅR DET HANDLER OM MENNESKER
Automatisering kan blive en stor fordel for den offentlige forvaltning til sagsbehandling på en lang række områder. Men når det handler om afgørelser, der angår mere personlige spørgsmål og helbredsspørgsmål, bør AI kun bruges som beslutningsstøtte for de fagpersoner, der skal træffe afgørelserne.2 BORGERREPRÆSENTANTER OG FAGLIG BREDDE I UDVIKLINGSPROJEKTER
Brug af AI kræver kompetencer på it, jura, konkret faglighed og forståelse for etik. Det kræver derfor bred inddragelse af it-eksperter, jurister og sagsbehandlerne på de fagområder, som den kunstige intelligens skal bruges på, samt repræsentanter for de borgere, der bliver påvirket af værktøjet. Borgerrepræsentanter kan være forældre til skolebørn, patientgrupper, organisationer for ældre, pårørende eller hjemløse. Opgaven for disse repræsentanter er at sikre, at udviklingen i projekterne er i overensstemmelse med borgervisionens mål om at kunne have tillid til systemet, ret til privatliv, kunne følge med udviklingen og blive set, hvis der er tvivl, misforståelser eller fejl.

3 DATAETISKE KONSEKVENSVURDERINGER I LOVGIVNING OG UDVIKLING
Dataetiske konsekvensvurderinger skal være en del af lovgivningen på lige fod de miljø- og økonomiske konsekvensvurderinger, der vedlægges ethvert nyt lovforslag. Med udsigt til en langt mere omfattende indsamling og samkøring af data skal det sikres, at politikerne kan forholde sig til, hvilke dataetiske konsekvenser ny lovgivning vil have. Politikere skal konstant tage stilling til, hvor der skal strammes op og hvor der skal udvikles og investeres – og politikere har holdninger til, hvordan samfundet bør se ud. Derfor er det nødvendigt, at de dataetiske konsekvenser af ny lovgivning står meget klarere, end tilfældet er i dag. På samme måde kan dataetiske konsekvensværktøj bruges i udviklingen af IA.

4 NY TEKNOLOGI SKAL ØGE KVALITETEN
Indførelse af AI skal være til gavn for borgere og medarbejdere og blandt andet bidrage til at højne kvaliteten i sagsbehandlingen, at sager behandles hurtigt og give plads til at medarbejderne er tilgængelige ved tvivl.

5 LOVGIVNINGEN SKAL OPDATERES
Man skal kunne fravælge profilering indenfor særlige områder, for eksempel børnenes trivsel i skolen, sundhedsprofil eller medieforbrug. Forvaltningsloven er teknologineutral, men med digitaliseringen er det nødvendigt, at lovgivningen tilpasses. Der er ikke behov for at ændre på gældende bestemmelser, men der bør tilføjes to nye om henholdsvis at stille præcise krav til transparens (som i Norge og Sverige) og forklarlighed. I forhold til transparens handler det både om datatransparens, altså hvilke data, der anvendes til hvilket formål og hvordan, algoritmetransparens i forhold til de algoritmer, der anvendes i forbindelse med behandlingen af en sag, samt systemtransparens – det vil sige åbenhed om sagsgange, vurderinger og beslutninger, der er indbygget i et system.

6 FOKUS PÅ TILLID
I takt med den stigende digitalisering og øget brug af kunstig intelligens er det nødvendigt i stigende grad at arbejde med tillid. Både i forhold til at afklare, hvordan vi bedst forstår AI-begrebet og hvordan vi italesætter tillidselementer

 

Læs hele rapporten

 

Share.

About Author

Vicedirektør / COO

Comments are closed.