Forside AI Studiegruppe for den etiske algoritme

Studiegruppe for den etiske algoritme

I ekspertgruppen om dataetik har standardisering været et tilbagevendende emne – kan man lave standarder for dataetik? Det spørgsmål blev forsøgt besvaret den 18.-20. april i år, hvor det første møde med henblik på at skabe globale rammer for arbejdet med Kunstig Intelligens blev afholdt i den internationale standardiseringsorganisation, ISO – Danmark var repræsenteret på mødet af Erhvervsstyrelsen og Dansk Standard.

Et af mødets største stridspunkter var forholdet mellem den kunstige intelligens og samfundet – kan man kræve, at en algoritme opfører sig ordentligt og fx ikke diskriminerer imod køn, race etc.? Svaret på det spørgsmål vender vi tilbage til, men først lidt kontekst.

Standardiseringsverden er meget anderledes end andre fora, hvor beslutninger med global rækkevidde træffes. Da standarder typisk er frivillige at følge, er der en meget stærk konsensuskultur – standarderne har kun værdi, hvis virksomhederne rent faktisk ønsker at anvende dem. Netop virksomhederne er et andet aspekt, der adskiller standardiseringsprocessen fra traditionel international politik: standardiseringsarbejdet er drevet af det private erhvervsliv og ikke af stater og myndigheder.

Det kom bl.a. til udtryk ved, at en række vigtige landes delegationer blev ledet af repræsentanter fra store amerikanske techvirksomheder, fx Google (USA), Microsoft (Tyskland, Frankrig, England og Sydkorea) og IBM (Italien). Selvom stormagterne holdt sig i baggrunden på mødet, var der alligevel nogle hints om, at udviklingen af rammerne for kunstig intelligens også er storpolitik: Mødet blev afholdt i Beijing og USA har sat sig på formandsposten. Alle G7-landene + Rusland, Indien og Kina var desuden repræsenteret på mødet.

Nu tilbage til spørgsmål om den etiske algoritme. Det blev på mødet besluttet, at der skal nedsættes en studiegruppe, bl.a. på initiativ af Danmark, der får til opgave at undersøge, hvordan man kan lave standarder, der kan øge borgernes tillid til algoritmerne. Dvs. standarder, der sikrer, at algoritmerne er gennemsigtige, at de ikke diskriminerer, at man kan forklare, hvorfor og hvordan algoritmen har truffet en bestemt beslutning etc.

I de kommende måneder og år vil danske og internationale virksomheder engagere sig i arbejdet og forsøge at udvikle standarder, der kan danne grobund for etisk anvendelse af kunstig intelligens i fremtiden.

Næste møde i udvalget for Kunstig Intelligens afholdes den 24. maj hos Dansk Standard i København. Interesserede kan læse mere her.

Kim Skov Hilding

Konsulent hos Dansk Standard