Risker och utmaningar med AI
Under- och överanvändning av AI
Underanvändning av AI anses utgöra ett stort hot: Missade möjligheter för EU kan innebära dåligt genomförande av stora program, såsom EU:s gröna giv, och förlorade konkurrensfördelar gentemot andra regioner, ekonomisk stagnation och färre möjligheter för invånarna. Underanvändning kan bero på allmänhetens och företagens misstro mot AI, dålig infrastruktur, avsaknad av initiativ och låga investeringar, eller, eftersom AI:s maskininlärning är beroende av data, från en fragmenterad digital marknad.
Överanvändning kan också vara problematiskt: Investeringar i AI-tillämpningar som visar sig vara onödiga eller för att tillämpa AI på uppgifter som de inte passar för, till exempel för att förklara komplexa samhällsfrågor.
Tillämpningar av AI som är i fysisk kontakt med människor eller till och med integrerade i människokroppen kan utgöra säkerhetsrisker om de är felkonstruerade, missbrukas eller hackas.
Dåligt reglerad användning av AI i vapen kan leda till att människor förlorar kontrollen över farliga vapen.
Ansvar: Vem ska man skylla på vid AI-orsakade skador?
En viktig utmaning är att avgöra vem som bär ansvar för skador som orsakats av AI-styrda utrustningar eller tjänster: i en olycka med en självkörande bil, ska skadorna täckas av ägaren av fordonet, eller av tillverkaren, eller programmeraren?
Om producenten är helt fri från ansvar kan incitamenten saknas för att erbjuda en bra tjänst eller produkt, och det kan skada människors förtroende för tekniken, men regleringar kan också vara alltför strikta och därmed kväva innovationen.
Hoten från AI mot grundläggande rättigheter och demokrati
Resultaten som AI producerar beror på hur det är utformat och vilken information det använder. Både utformningen och dess data kan vara medvetet eller omedvetet obalanserat. Exempelvis kan viktiga aspekter av en fråga inte vara inprogrammerade i algoritmen eller kan vara programmerade för att spegla strukturella fördomar. Dessutom kan användningen av siffror för att representera en komplex social verklighet göra att AI framstår som faktabaserad och precis när den i själva verket inte är det (“mathwashing”).
Om det inte görs ordentligt kan AI leda till beslut som påverkas av information om etnicitet, kön och ålder vid rekryteringar och avskedningar, vid låneansökningar, eller till och med i brottmål.
AI kan inkräkta på såväl integritet som dataskydd. Det kan exempelvis användas för ansiktsigenkänningsutrustning eller för att spåra eller skapa profiler av individer. Därutöver möjliggör AI att bitar av information som en person lämnat sammanfogas till ny information, vilket ger resultat personen inte kan förvänta sig.
Det kan också utgöra ett hot mot demokratin. AI har redan anklagats för att skapa filterbubblor baserade på en persons tidigare agerande på nätet. Genom att personen matas med information som han eller hon förväntas tycka om, förhindras en pluralistisk, lika tillgänglig och inkluderande offentlig debatt. Det kan till och med användas för att skapa extremt realistiska falska videoklipp, ljud eller bilder, så kallade ”deepfakes” som kan medföra finansiella risker, skada en persons rykte och utmana beslutsfattande. Allt detta kan innebära indelning och polarisering av det offentliga rummet och manipulera val.
AI kan också innebära inskränkningar av organisationsfriheten och demonstrationsfriheten när det kan användas för att spåra och profilera individer kopplade till vissa övertygelser eller aktioner.
AI:s påverkan på sysselsättning
Användning av AI på arbetsplatsen förväntas innebära att många jobb försvinner. Även om AI också förväntas skapa många bättre arbetstillfällen, kommer utbildning och praktik att vara viktiga element för att förhindra att människor slås ut från arbetsmarknaden och hamnar i långtidsarbetslöshet.