Teknikutvecklingens moraliska kompass

undefined
kvinna med sned lugg och orange tröja tittar in i kameran
Linda Mannila, Företagare och forskare i gränslandet mellan människa och teknik.
Publicerad:

Det här är en opinionstext, åsikterna är skribentens egna.

I måndags firades den internationella ingenjörsdagen och jag hade nöjet att inleda morgonen med en tio minuter lång presentation om AI och etik. Det är en kort tid för ett så stort ämne, så jag ombads välja ett perspektiv. Mitt val föll på följande: "Tekniken har ingen moralisk kompass. Men det har vi människor."

Sedan tidernas begynnelse har vi skapat verktyg för att underlätta livet – från elden och yxan till GPS och internet. Men varje tekniskt framsteg har också fört med sig potentialen för missbruk.

Elden som värmer våra hem kan också förgöra dem. Yxan som klyver vår ved kan också skada. GPS, som ursprungligen utvecklades för militära ändamål, hjälper oss idag att navigera i vardagen.

När vi utvecklar allt mer avancerade verktyg, blir frågan om design och användning allt viktigare. Ansiktsigenkänning autentiserar oss i olika tjänster, men kan även användas för massövervakning. Drönare kan leverera mediciner till avlägsna områden, men kan också utrustas med vapen. Rekryteringsverktyg kan effektivisera urvalsprocessen, men kan också diskriminera baserat på bristfälliga data.

Google anklagades för några år sedan för sexism när översättningarna i Google Translate återspeglade stereotypa föreställningar. Till exempel översattes "hän on toimitusjohtaja" till "han är verkställande direktör" medan "hän on sairaanhoitaja" blev "hon är sjuksköterska". Liknande fall ser vi nu genereras av AI-verktyg, där företagsledare och läkare ofta avbildas som vita män, medan vårdpersonal och jazzmusiker framställs enligt stereotypier kring kön och etnicitet. Tekniken speglar samhället.

Vi kan kalibrera om tekniken då fel uppdagas. Vi kan träna lösningarna med andra data eller uppdatera algoritmerna. Men det blir inte heller alltid rätt.

För några veckor sedan ertappades Googles nya språkmodell Gemini med att ge oväntade resultat i form av mörkhyade vikingar, indiska påvar och asiatiska nazisoldater under andra världskriget. Strävan efter att presentera en så fördomsfri bild som möjligt resulterade i en förvrängd beskrivning av historien.

Det är lätt att skylla på tekniken, men den är i sig varken god eller ond. Det är den mänskliga etiken, våra val och värderingar, som avgör hur väl tekniken motsvarar de krav vi ställer i relation till tillförlitlighet, rättvisa, ansvar, öppenhet och säkerhet.

Vår moraliska kompass är dock inte alltid så välkalibrerad som vi kunde önska. Beslutsfattare och individer gör inte alltid det som är rätt. Vi sprider ibland lögner, halvsanningar och desinformation. Vi uttalar oss ibland rasistiskt, sexistiskt eller på andra sätt diskriminerande. Ibland drar vi hemåt istället för att fatta objektiva beslut.

Ingenjörer och andra som utvecklar de tekniska lösningarna har ett stort ansvar, men vi kan inte outsourca viktiga designbeslut kring teknikens framtid till en liten grupp människor. Tvärtom behövs tvärvetenskapligt samarbete och en bred dialog för att utveckla människocentrerad AI.

Vi bär också ett ansvar i egenskap av användare. På samma sätt som vi väljer när och hur vi ska använda hammaren och elden, behöver vi göra etiska överväganden kring hur vi använder AI-lösningar. Förstår jag varför jag fått ett givet resultat? Verkar resultatet rimligt och rättvist? Är den information jag tänker sprida sann?

Genom utbildning, diskussioner och etiskt ansvarstagande kan vi tillsammans arbeta för att teknikutvecklingens kompass inte bara ska peka mot vad som är möjligt, utan mot vad som är rätt.

Här kan du läsa fler kolumner av Linda Mannila.

Företagare och forskare i gränslandet mellan människa och teknik
Publicerad: