Tittel: Hva kan vi lære av NAVs deltagelse i Datatilsynets regulatoriske sandkasse for ansvarlig kunstig intelligens?
Sted: Lille auditorium, 1. etasje i Kristen Nygaards hus, NR
Tidspunkt: Torsdag 16. juni kl 9-10.30
Plan for seminaret:
1. Presentasjon av resultatene fra sandkasseprosjektet ved Lars Sutterud, NAVs prosjektleder for sandkasseprosjektet, samt Robindra Prabhu, Elisabeth Njøs Hatle og Mari Håvardsholm Dramdal, som alle har jobbet med sandkasseprosjektet i NAV
2. Initielle reaksjoner/kommentarer fra Kevin McGillivray, personvernombud i Skatteetaten
3. Panelsamtale med NAV, Skatteetaten (Fagdirektør Erling Solberg og Analytiker Øystein Olsen) og Gjensidige (Erlend Willand-Evensen, SVP, Nordic Head of Analysis i Gjensidige)
Seminaret vil foregå på norsk.
Målgruppe: Alle med interesse for temaene, blant annet analytikere, jurister og personvernombud.
Oppsummering av prosjektet i sluttrapporten fra Datatilsynet i sandkasseprosjektet:
NAV ønsker å bruke maskinlæring til å forutse hvilke sykmeldte brukere som vil ha behov for oppfølging to måneder frem i tid. Dette skal hjelpe veilederne med gjøre mer treffsikre vurderinger, som igjen skal spare NAV, arbeidsgivere og de sykmeldte for unødvendige møter. Målet med dette sandkasseprosjektet var å avklare lovligheten ved bruk av kunstig intelligens (KI) i denne sammenhengen, og utforske hvordan profileringen av sykmeldte kan gjøres på en rettferdig og åpen måte.
Lovlighet. NAV har rettslig grunnlag for å bruke KI som støtte ved beslutning om enkeltindividers behov for oppfølging og dialogmøte. Det er usikkert om det rettslige grunnlaget åpner for å bruke personopplysninger til å utvikle selve algoritmen.
Rettferdighet. Det er viktig forskjell mellom å benytte opplysninger som allerede inngår i modellen, og å ta i bruk nye opplysninger som ikke brukes i modellen, til å sjekke for diskriminerende utfall. Det oppstår en spenning mellom personvern og rettferdighet når metoden for å avdekke og motvirke diskriminering fordrer mer behandling av personopplysninger.
Åpenhet. For at modellen skal gi ønsket verdi, er det avgjørende at NAV-veilederne stoler på algoritmen. Innsikt og forståelse i modellens virkemåte er viktig for å vurdere prediksjonen på et selvstendig og trygt grunnlag, uavhengig av om den endelige avgjørelsen blir å følge prediksjonens anbefaling eller ikke.