Livsfarlige algoritmer
Matematiske formler som sprer hat
Når du logger deg på Facebook, Instagram, Youtube eller en annen digital plattform, er det algoritmer som bestemmer hva du får se. En algoritme er, kort forklart, en matematisk oppskrift som forteller datasystemet hva det skal gjøre.
De fleste plattformene vil gjerne holde deg på plattformen din så lenge som mulig. For å gjøre dette, er algoritmene som regel innstilt slik at de gir deg det som skaper mest «engasjement». Dette kan være liker-klikk, delinger eller kommentarer. På første blikk kan det virke som en god ting – det er jo det som må være det mest spennende innholdet? Problemet er at det som skaper aller mest engasjement, er innhold som skaper sinne. Dette gjør dessverre at hat, ekstreme politiske standpunkter, konspirasjonsteorier, trusler eller diskriminerende utsagn sprer seg veldig fort på sosiale medier.
Riktignok finnes det andre algoritmer som skal spore opp og stoppe innhold som er i strid med plattformenes retningslinjer, for eksempel fordi de er hatefulle. Det viser seg imidlertid at dette er mye vanskeligere å få til enn å telle delinger og visningstid, og ingen av de store selskapene har hittil funnet en god løsning for å la datasystemer passe på at sidene ikke brukes i strid med menneskerettighetene. For at man faktisk skal klare å ivareta brukernes sikkerhet må en del av modereringen gjøres av mennesker. De store teknologiselskapene har tusenvis av mennesker som sitter og modererer innhold. Problemet er at dette ofte ikke skjer på en bra nok måte. Ofte får innhold som skulle blitt tatt ned, stå, og innhold som ikke skulle blitt tatt ned, blir fjernet. .
Avsløringer fra Facebooks indre liv
I 2021 avslørte den tidligere Facebook-medarbeideren Frances Haugen hvordan Facebook konstant prioriterer inntekter fremfor tiltak for å beskytte brukerne sine mot hat, kroppspress og andre overgrep. Blant annet la hun frem en intern rapport fra Facebook som viste hvordan måten Instagram funker undergraver unge jenters psykiske helse, og som selskapet hadde lagt skjul på og aldri fulgt opp. Et av hennes viktigste poenger var at algoritmene bidrar til at ekstremt innhold prioriteres.
Du kan lese mer om saken her.
Fremmer forbrytelser mot menneskeheten
En FN-rapport om massakrene mot rohingya-folket i Myanmar i 2017 og 2018 viser til at Facebook spilte en viktig rolle som verktøy for å spre hatet mot denne etniske gruppen. I desember saksøkte Rohingya-flyktninger i USA og Storbritannia Facebooks moderselskap Meta for 150 millioner dollar i erstatning og la også frem en klage til OECD om saken.
Også andre steder, f.eks. i India, Sri Lanka og Etiopia, har Facebook blitt kritisert for å bli brukt til å spre rasisme og hatvold uten at selskapet grep inn raskt nok. Problemet med spredning av hat gjennom sosiale plattformer som Facebook, Instagram eller Google er spesielt stor når det foregår på engelsk. Bare en liten del av plattformenes innholdsmoderering tar for seg innhold som ikke er på engelsk. En av lekkasjene fra «Facebook Papers» var at 87 % av ressursene Facebook bruker for å moderere desinformasjon er fokusert på USA, det bare utgjør 10 % av brukerne.
Datagigantene må få kontroll over algoritmene
Datagigantene har et ansvar for å sikre at deres produkter ikke brukes til diskriminering, spredning av hatefulle ytringer og andre overgrep. Det er imidlertid statlige myndigheter som har hovedansvaret for å beskytte innbyggernes menneskerettigheter. For at norske myndigheter skal kunne gjøre denne jobben og regulere datagigantenes påvirkning av oss alle på en meningsfull måte, trenger de innsyn i deres algoritmer.
Amnesty mener at Norge bør opprette et eget algoritmetilsyn – for eksempel som en del av Datatilsynet – som gjør denne jobben. Tilsynet må kunne varsle og gripe inn når algoritmene som påvirker våre liv på så mange forskjellige måter setter menneskerettighetene våre i fare.