Artificiell intelligens i form av maskininlärning, bildigenkänning, taligenkänning, beslutsstöd med mera finns i allt fler produkter och tjänster. Dessa tjänster och produkter har potential att underlätta enormt för våra medlemsgrupper. Men det finns också risker. Här är våra förslag på vad beslutsfattare, inköpare och utvecklare av AI bör tänka på för att säkerställa en inkluderande AI.

Ställ krav på involvering av användare och icke-användare i upphandling och FoU

Utifrån funktionsrättskonventionen och de globala målens fokus på att ingen ska lämnas utanför behövs en mer aktiv inkludering av personer med funktionsnedsättning. Genom att låta personer som har svårigheter i de nuvarande systemen delta i att formulera syfte, mål och krav som systemet behöver leva upp till, kan man undvika problem rörande tillgänglighet, integritet och risk att systemet inte omfattar alla. Genom att utgå från en universell och inkluderande utformning, som handlar om att samskapa lösningar och att utgå från hela den mänskliga mångfalden, kommer systemen också fungera för fler. Därför vill vi att det offentliga ställer krav på involvering vid inköp av AI-produkter och vid forskningsfinansiering av AI.

Öka medvetenhet om AI och diskriminering

Medvetenheten och kunskapen om riskerna för en diskriminerande AI är låg. Därför föreslår vi att den folkbildande utbildning Elements of AI, som har översatts av Linköpings universitet, Vinnova och AI Innovation of Sweden, kompletteras med en modul om AI och diskriminering. Vi är gärna behjälpliga att ta fram en sådan.

Säkerställ kunskap om tillgänglighet och universell utformning i offentliga organisationer

Digitala system omfattas av en mängd lagar, regler och standarder, för att säkerställa att systemen är tillgängliga och kompatibla med hjälpmedel. Dessvärre saknas kunskap om dessa i många organisationer. Funktionsrätt Sverige vill därför att myndigheter, regioner och kommuner ställer högre krav på dessa kunskaper när man rekryterar samt erbjuder kompetenslyft för de som redan är anställda. Alla, inklusive de anställda användarna av systemen, behöver ha kunskap om hur AI-produkter hanterar ovanliga variationer och vilka risker det innebär.

Utnyttja AI:s potential att fungera för alla

Vid inköp av system, var medveten om att kommersiella produkter kommer att rikta sig mot de 80 procent vanligaste användarna. Ställ krav på att de system ni köper in omfattar och fungerar för alla, så att ni inte behöver skapa dyra speciallösningar i efterhand – eller att ni köper in system som innebär risker för era medborgare. Utnyttja maskinintelligensens möjligheter att ta till sig stora mängder data. Använd modeller som lyfter dem som avviker från genomsnittet, så får ni en AI som är bättre på att reagera på det oväntade, upptäcka risker, anpassa sig till förändring och har längre livslängd.

Säkerställ att data och algoritmer inte skapar bias mot vissa grupper

Undersök vilka grupper som saknas i ert data-material, vilka är ”icke-användarna”. Säkerställ att den data som används är korrekt och rensad från sådant som kan ge bias, tex historisk diskriminering. Undersök hur algoritmerna är utformade och om de utgör en risk för bias. Det är viktigt att algoritmerna i de system ni köper in eller tar fram ska kunna granskas. Stresstesta systemen för att upptäcka diskriminering.

Integritet – begränsa risken att data exponeras

Den som avviker är ofta lätt att identifiera i statistiken. Säkerställ att de system ni har bevarar medborgarnas integritet. Var medveten om att till synes okänslig information kan bli känslig i kombination med annan. Informera medborgarna om vilken information som samlas in och till vad den kommer att användas till. Säkerställ att data som delas inte riskerar att leda till att personer utsätts för diskriminering, till exempel att man hindras från att teckna en försäkring på grund av sin funktionsnedsättning.