Forside Medlemmerne blogger Dataetisk håndbog? Når etik kommer indefra

Dataetisk håndbog? Når etik kommer indefra

Jeg har bedt medlemmerne om ekspertgruppen om dataetik om at bidrage med blogindlæg her på siden. Det er et benspænd som både handler om at medlemmerne får konkretiseret noget tanker, men også et bidrag til debatten og også en opfordring til at endnu flere udefra deltager i den vigtige snak om dataetik. F.eks. i kommentarfeltet herunder eller indsend dit input via formularen til højre. 

Med venlig hilsen
Christiane Vejlø
Formand for ekspertgruppen om dataetik

Af Erik David Johnson- Filosof og ekspert i kunstig intelligens

Arbejdet i gruppen for dataetik er i fuld gang og der er meget at tage fat på. En af de ideer jeg selv arbejder med, er konceptet om en form for håndbog i hvordan man kan agere etisk, når man arbejder med data i komplekse scenarier inden for områder som data science/Machine Learning/Kunstig Intelligens. Kort sagt går ideen på at lave et værktøj der er med til bottom-up at sikre at dem, der sidder i virksomhederne og organisationerne og implementerer løsningerne, får en praktisk og meget konkret tilgang til at agere dataetisk, så løsningerne bliver udformet ud fra dataetiske principper indefra og ud. Indtil videre er de foreløbige emner jeg overvejer ‘gennemsigtighed af modellen’ og ‘Bias i Feature Engineering’.

I mit eget arbejde har jeg ofte været involveret i AI-drevne løsninger, og det har givet mig en klar opfattelse af at for hver succesfuld applikation af AI vi ser i dag, har overvægten af arbejdet været på den domænespecifikke ’feature engineering’ hvor man tager al den viden man allerede har og lægger ind i den transformation af data, der skal sikre at AI/ML-modellen kan arbejde med disse – og uden at skulle lære noget vi allerede ved.

Det betyder at dette er også er en proces der er særligt sårbar for udviklerens egne partiske antagelser, fordomme, bias – kært barn har mange navne. Hvis der var retningslinjer på det praktiske niveau omkring hvordan man bedst kan undgå dette – særligt rettet mod den proces som Feature Engineering stiller udviklerne over for, kunne det være et værktøj, der virkelig kunne hæve det dataetiske niveau.

På samme måde er det også muligt at lave et langt bedre informeret valg af AI/ML-model ud fra retningslinjer for forskellige domæners behov for transparens, sammen med en god oversigt over hvilke modeller der kan tilbyde hvilke niveauer af gennemsigtighed. Kunstige Neurale Netværk tilbyder ikke nogen særlig klar forklaring af hvordan den er nået frem til den interne vægtning, der gør at den gennem funktionsapproksimering kan generalisere på sine træningsdata, men alternative modeller såsom Random Forest gør dette bedre.

Det hele er ‘work in progress’, men jeg ville gerne dele mine tanker allerede nu, på dette tidlige stadie.

1 KOMMENTAR

  1. Dataetik er der behov for. En etik om persondata. Men hvor er den relevant?
    Når der skal træffes et valg eller gives et råd. Når der er et dilemma.

    Men vi har lovregler der giver flere svar i juraen, bl.a. i Persondataforordningen (GDPR).
    Derfor er det relevant at have en Dataetik på de spørgsmål, hvor juraen ikke har svaret eller hvor det er uklart hvad der er rigtigt og forkert.
    Dataetik kan også være relevant, når der skal justeres på lovreglerne eller hvis nye regler er påkrævet. Det kan være ved nye teknologier, hvor de eksisterende ikke dækker.

    Nogle dilemmatemaer:
    1. Et generelt dilemma-tema kunne være hensynet til et privatliv sat overfor hensynet til en samfundsmæssig anvendelse af persondata. Fordi persondata anvendt til forskning og videnskabeligt arbejde vil kunne gavne flere mennesker, men vil potentielt være en risiko for den enkelte.
    2. Et andet generelt dilemma-tema er hensynet til et privatliv sat overfor den økonomisk vækst som IT- sektor kunne bidrage med til samfundet såfremt de havde større adgang til anvendelse af flere personoplysninger.
    3. Når ny teknologi som f.eks. AI får en stigende anvendelse kan den aktivitet give anledning til at overveje om, der ikke bør ske nye lovtiltag eller at der f.eks. udformes retningslinjer og branchestandarder for anvendelse af AI på persondata.
    (Bemærk at i GDPR Art 22.1 bestemmes det, at som udgangspunkt har en person ret til ikke at være genstand for en afgørelse, der alene er baseret på automatisk behandling, herunder profilering, som har retsvirkning eller på tilsvarende vis betydeligt påvirker den pågældende. Men i artikel 22.2 – 22.4 er der undtagelser for dette)
    4. Der kan være samfundsgrupper hvis privatlivsbeskyttelse bør varetages når disse grupper af mennesker ikke har et talerør eller mulighed for at påvirke den lovgivning, som i øvrigt gavner resten af samfundet.

    Venlig hilsen
    Henrik Rose, Cand. Jur
    22218821

EFTERLAD ET SVAR

Please enter your comment!
Please enter your name here