AI – en flygning mot framtiden eller en kraschlandning?
Det här är en opinionstext, åsikterna är skribentens egna.
Skulle du stiga ombord på ett flygplan om varannan ingenjör sa att det hade tio procents risk att störta?
Inte precis ”fifty-sixty”, som vår framlidne världskände backhoppare uttryckte det, men en chans på tio känns inte särskilt lockande.
Jag skulle nog hållas på marken.
Flygplansscenariot användes i våras som en liknelse för AI-utvecklingen, när man påstod att en studie visat att "50 procent av AI-forskarna tror att det är minst tio procents risk för att människan kommer att utrotas på grund av oförmåga att kontrollera AI".
Med detta som utgångspunkt ställdes även en följdfråga: varför går vi helhjärtat in i AI-utvecklingen, då vi inte skulle gå ombord ett flyg med motsvarande odds?
Det dramatiska påståendet om utrotning visade sig dock vara falskt. Påståendet grundade sig på en studie där bara en knapp fjärdedel av de 700 deltagarna besvarat frågorna om risk för utrotning.
Påståendet "50 procent av AI-forskarna..." motsvarade endast 81 personer. Och 81 personer kan inte ens med god vilja anses representera hälften av alla AI-forskare i världen.
Men när något blir viralt är det svårt att stoppa. Så de som ville krydda sitt budskap med en lögn lyckades.
Påståendet har sedan regelbundet dykt upp i den AI-diskussion som har exploderat det senaste året. AI ses än som lösningen på små vardagsproblem och mänsklighetens största utmaningar, än som en potentiell katastrof i form av till exempel massiv arbetslöshet.
Och nu som då har diskussionen rejält dystopiska undertoner.
Men att fokusera på mörka framtidsprofetior kan göra att vi förlorar fokus på de viktiga frågorna vi bör hantera idag.
Hur kan vi säkerställa att AI-system inte förstärker befintliga fördomar och orättvisor, särskilt när de kan leda till diskriminering baserat på kön, hudfärg och andra bakgrundsfaktorer?
Är det etiskt hållbart att några storföretags värderingar blir de rådande principerna bakom de AI-system vi interagerar med dagligen?
Hur kommer den massmanipulering som möjliggörs av generativ AI att påverka val och andra demokratiska processer?
Hur kan vi hantera risken för en ny typ av digital klyfta, där tillgången till AI-verktyg är ojämnt fördelad?
Vi vet att flygplan med tio procent risk att störta inte skulle få lyfta. Det finns etablerade regelverk, riktlinjer och noggranna inspektionsprotokoll som ställer krav på flygplan.
På samma sätt är frågor kring ansvar, säkerhet och etik oerhört centrala inom AI-utvecklingen, och har varit fokus för många forskargrupper och organisationer i flera år. Exempelvis publicerade EU riktlinjer för pålitlig AI redan år 2019, och arbetet kring en EU-gemensam AI-förordning pågår som bäst.
Men många av frågorna berör också oss som individer och samhällsmedborgare. EU, UNESCO och andra aktörer poängterar därför vikten av att alla får möjlighet att lära sig om AI.
Ju mer vi vet, desto mer ansvarsfulla och medvetna beslut kan vi fatta. Ju mer vi förstår, desto bättre kan vi bidra till debatten och kanske t.o.m. utvecklingen.
I allt detta är det viktigt att också visa på möjligheterna, eftersom domedagsspekulationer riskerar avskräcka från att utforska, engagera sig och vilja lära sig mer.
Men – tillbaka till elefanten i rummet. Ska vi vara oroliga för att AI kommer bli vår undergång?
Ingen kan förutse framtiden, men jag tror på mänsklighetens förmåga att navigera genom utmaningar. Att se till att flygplanet bär.
Mänskligheten har – trots allt – överlevt alla de svåraste dagarna hittills.
Tillsammans.
För som jag läste i en Bamsetidning för flera år sedan: ”Många små svaga tillsammans kan besegra den starke.”
Jag vill tro att det även gäller framöver.
Här kan du läsa fler kolumner av Linda Mannila.