Hoppa till innehåll
Media

Undersökning: Effektivast att ingripa i algoritmisk diskriminering nu medan användningen av artificiell intelligens i Finland fortfarande är på en måttlig nivå

Statsrådets utrednings- och forskningsverksamhetjustitieministerietstatsrådets kommunikationsavdelning
Utgivningsdatum 23.8.2022 8.35
Pressmeddelande 491/2022

Enligt en ny undersökning används system med artificiell intelligens ännu inte i stor omfattning i Finland, vilket ger möjlighet att ta itu med algoritmisk diskriminering redan vid det initiala utvecklingsskedet av artificiell intelligens. Med hjälp av det verktyg som nu har tagits fram kan man bedöma den artificiella intelligensens diskriminerande effekter och främja likabehandlingen vid användningen av artificiell intelligens.

Under de senaste fem åren har den artificiella intelligensen utvecklats med en aldrig tidigare skådad snabbhet, samtidigt som oron för algoritmisk diskriminering har vuxit. Det är särskilt värt att notera hur system för maskininlärning som en del av det automatiserade beslutsfattandet kan förnya och stärka befintlig diskriminering och ojämlikhet.

Detta kan till exempel påverkas av de icke-presentativa träningsdata om befolkningen som används av systemet, eller av dåligt utvalda prediktorvariabler. I USA har man till exempel varit tvungna att ta ur bruk rekryteringsalgoritmer som diskriminerat kvinnliga sökande på basis av historiska data: eftersom inga kvinnor valts till befattningen tidigare rekommenderade inte heller algoritmerna kvinnliga sökande.

Algoritmisk diskriminering kan inte lösas enbart med tekniska verktyg

Projektet Att undvika snedvridningar vid användning av artificiell intelligens kartlade vilka risker för de grundläggande fri- och rättigheterna och icke-diskriminering de AI-applikationer som används och planeras i Finland kan innebära. Kartläggningen visade att man åtminstone inom den offentliga sektorn i måttlig grad har vaknat upp vad gäller algoritmisk diskriminering, trots att AI-system inte har tagits i bruk i stor omfattning. Det finns dock ingen klar etablerad modell för myndighetssamarbete eller verktyg för att bekämpa algoritmisk diskriminering. Dessa spelar dock en viktig roll när det gäller att identifiera och förhindra algoritmisk diskriminering.

I undersökningen undersöktes också riskerna för diskriminering i AI-system, orsakerna till de diskriminerande effekterna och de metoder som utvecklats för att förebygga dessa med hänsyn till Finlands diskrimineringslag. Utifrån analysen uppstod de diskriminerande snedvridningarna vanligen av en kombination av olika sociotekniska faktorer i den så kallade värdekedjan i AI-systemen, och de kunde inte lösas med enbart tekniska metoder utan övervägande från fall till fall. Utan transparent tillsyn och standarder hotar de tekniska lösningarna också att koncentrera den algoritmiska diskrimineringens makt till privata utvecklare av artificiell intelligens.

Bedömningsram främjar likabehandling 

På grundval av de gjorda kartläggningarna utarbetade arbetsgruppen för forskningsprojektet en bedömningsram för icke-diskriminerande AI-system. Ramen hjälper till att identifiera och hantera diskrimineringsrisker, särskilt i samband med AI-system inom den offentliga sektorn, samt att främja likabehandling vid användning av artificiell intelligens.

Bedömningsramen bygger på en livscykelmodell för artificiell intelligens som betonar att diskriminerande effekter av artificiell intelligens kan uppstå och manifesteras i olika faser av systemdesignen, utvecklingen och införandet av systemet. Syftet med bedömningsramen är att stödja genomförandet av diskrimineringslagen och skyldigheten att främja likabehandling i fråga om AI-applikationer.

Rekommendationer för reglering av algoritmer

Som en del av undersökningen offentliggjordes en rad politiska rekommendationer som huvudsakligen syftar till att säkerställa att bedömningsramen kan utnyttjas och användas som en del av den offentliga förvaltningens verksamhet. Rekommendationerna är indelade i tre grupper som syftar till att öka den allmänna medvetenheten om algoritmisk diskriminering, öka samarbetet mellan olika grupper av aktörer i en ansvarsfull utveckling av artificiell intelligens och stödja lagstiftning och verktyg för att främja likabehandling.

Projektet Att undvika snedvridningar vid användning av artificiell intelligens genomfördes gemensamt av Demos Helsinki, Åbo universitet och Tammerfors universitet. Publikationen har tagits fram som en del av verkställandet av statsrådets utrednings- och forskningsplan 2021.

Mer information ges av Atte Ojanen, forskningssamordnare, Demos Helsinki, tfn 050 9177 994, atte.ojanen(at)demoshelsinki.fi

Inom statsrådets gemensamma utrednings- och forskningsverksamhet (VN TEAS) tar man fram information till stöd för beslutsfattandet, den kunskapsbaserade ledningen och verksamheten. Utrednings- och forskningsverksamheten styrs av en utrednings- och forskningsplan som statsrådet årligen fastställer. De som producerar informationen ansvarar för innehållet i rapporterna i publikationsserien för utrednings- och forskningsverksamheten. Innehållet återspeglar inte nödvändigtvis statsrådets ståndpunkt. Mer information: https://tietokayttoon.fi/sv.

Tillbaka till toppen