Derfor er det ikke nok, at dit AI-system "bare" virker

Mange offentlige ledere spørger: "Virker vores AI-system?" Det er det forkerte spørgsmål.

Det rigtige spørgsmål er: Bliver vores AI-system anset som en legitim løsning?

Der er nemlig to helt forskellige måder, et AI-system kan miste sin legitimitet på — og begge kan koste dig dyrt. Som leder i den offentlige sektor er du nødt til at forholde dig til dem begge.

Systemet virker. Men stoler borgerne på det?

Forestil dig, at din kommune indfører et AI-system, der sorterer ansøgninger om sociale ydelser. Det er hurtigt, konsistent og sparer sagsbehandlere for hundredvis af timer om måneden.

Men ingen borgere ved, hvordan det træffer sine beslutninger. Ingen fagforeninger eller brugergrupper er blevet hørt i processen. Og når pressen begynder at stille spørgsmål, har du ikke gode svar.

Systemet virker — men det mangler legitimitet.

To spørgsmål du skal stille dig selv

Politisk teori skelner mellem to slags legitimitet, og de er begge relevante for dig:

Spørgsmål 1: Hvem har haft indflydelse? Er systemet udviklet med inddragelse af dem, det berører? Er medarbejderne hørt? Har borgerne haft mulighed for at sige noget? Er der politisk opbakning og demokratisk forankring? Hvis svaret er nej, er din proces for tynd — uanset hvor godt systemet fungerer teknisk.

Spørgsmål 2: Leverer det noget værdifuldt? Skaber systemet reel værdi for borgerne? Er det mere retfærdigt, hurtigere eller mere præcist end alternativet? Kan du dokumentere det? Hvis du ikke kan svare ja, er der heller ingen grund til at bruge det — uanset hvor god processen bag har været.

Det skal du tage med dig

Sørg for at dit AI-system både udspringer af brugerbehov, er udviklet i samarbejde med din forretning, samtidigt med at det leverer kvalitet og værdi i sine outputs, så det ikke forkastes af brugerne.

De fleste fejler på ét af de to punkter

I praksis ser vi to typiske fejlspor i den offentlige sektor:

Det første er teknologioptimisme uden forankring. Man køber et system, der lover effektivitet, og implementerer det hurtigt. Resultaterne er fine — men ingen er blevet inddraget, og tilliden er skrøbelig. Den første kritiske artikel i medierne ryster hele projektet.

Det andet er processen der kører i ring. Man nedsætter arbejdsgrupper, afholder workshops og laver høringer — men glemmer at kravsætte, hvad systemet faktisk skal levere. To år og mange ressourcer senere er der bred opbakning til et system, der ikke kan levere svar af tilstrækkelig kvalitet. Medarbejdere og borgere forkaster systemet allerede første gang de har brugt det.

Tre ting du kan gøre nu

Her er tre konkrete skridt til at øge legitimiteten af din organisations AI-systemer:

Kortlæg dine berørte parter — og hav en plan for, hvordan de inddrages, før I designet systemet fuldt ud. Det inkluderer medarbejdere, faglige organisationer og de borgere, systemet træffer beslutninger om.

Sæt målbare krav til output — ikke blot tekniske krav, men krav til om systemet er mere retfærdigt, mere tilgængeligt eller mere effektivt end det, det erstatter. Og mål det løbende.

Byg en fortælling, du kan stå inde for — du skal kunne forklare til en borger, en journalist eller en politiker, hvem der har haft indflydelse på systemet, og hvad det gør for dem. Kan du ikke det, er du ikke klar til at implementere det.

Et AI-system er ikke legitimt, fordi det er effektivt. Og det er ikke legitimt, fordi processen var god. Det kræver begge dele.

Som offentlig leder er du bindeleddet mellem teknologien og de borgere, den skal tjene. Det ansvar kan ikke delegeres til en leverandør.

Next
Next

Bliv prompting-ekspert i et individuelt forløb - med introrabat