Facebook sensurerer IYSSE-online-møte om Trumps kupptrussel

Et online-møte arrangert i fellesskap av International Youth and Students for Social Equality (IYSSE) ved University of Michigan og Wayne State University ble mandag blokkert av Facebook fra å bli lagt ut som en eventside.

Online-møtet, planlagt for torsdag den 19. november fra kl. 20:00 til 21:30, har tittelen «Trumps valgkupp og trusselen om diktatur». Da medlemmer av IYSSE forsøkte å tidsplanlegge møtet som et Facebook-event, ble de blokkert og en kommentar kom opp med følgende melding: «Eventet er fjernet fordi det strider mot våre fellesskapsstandarder [Community Standards]. Gå til din støtteinnboks [Support Inbox] for nærmere orientering.»

Ingen nærmere forklaring på hvordan møtet brøt med Facebooks fellesskapsstandarder ble presentert. Det var heller ingen tilleggsinformasjon i Facebook-kontoens støtteinnboks, som det står i meldingen skulle være der.

Facebook-sensur av IYSSEs eventside

At blokkeringen av arrangementet var en handling av politisk sensur fra Facebooks side – enten ved hjelp av kunstig intelligens (AI) eller av en menneskelig overvåker – er bevist av det faktum at da arrangørene endret arrangementet til den generiske tittelen «IYSSE Meeting», forsvant varselmeldingen og eventet ble tidsplanlagt uten problemer.

Facebook-sensuren mot IYSSE er et eksempel på hvordan den uforlignelige undertrykkingen av politiske ytringer som ble rullet ut av sosialmedieplattformene før den 3. november, har blitt intensivert i løpet av de to ukene siden det amerikanske 2020-valget.

Nedstengingen av kontoer – for eksempel Twitters suspendering sist onsdag av kontoen til International Youth and Students for Social Equality (US) – fjerning og «faktasjekking» av innlegg og «bremsingen av spredning av feilinformasjon» blir skrudd opp av tech-monopolene etter valget, på grunnlag av gjennomgående udemokratiske og autoritære politiske retningslinjer.

Twitter gjorde det sist torsdag klart at deres informasjon-sensurregime av «etiketter, advarsler og pre-bunks» fra før valget vil fortsette på ubestemt tid, og at noen «signifikante produktendringer» som forhindrer Tweets fra å bli «forsterket» på plattformen er gjort permanente.

Et Twitter-blogginnlegg fra Vijaya Gadde, selskapets Legal, Policy and Trust & Safety Lead, og Kayvon Beykpour, Twitter-medstifter, sa at de «vil være veldig tydelige på at vi ikke ser vår jobb som ferdig – vårt arbeid her fortsetter, og våre team lærer og forbedrer hvordan vi takler disse utfordringene.»

Gadde og Beykpour rapporterte at fra 27. oktober til 11. november hadde omtrent 300 000 tweets blitt merket «for innhold som var omstridt og potensielt misvisende». De la til at 456 tweets var dekket av en varselmelding og «hadde begrensede engasjementsfunksjoner (Tweets kunne være Quote Tweeted, men ikke Retweeted, svart på eller likt).»

Blogginnlegget sa at Twitter «pre-bunk»-automeldinger – det å legge ut meldinger øverst på en brukers tidslinje for å komme i forkjøpet av vurderingen «feilinformasjon» – i løpet av den angitte tidsrammen «ble sett 389 millioner ganger, dukket opp i folks home timelines og i Search og påminnet brukere om at valgresultatene sannsynligvis ville bli forsinket, og at det å stemme per post er trygt og legitimt.»

At tiltakene som nå gjøres permanente, i et forsøk på å bremse spredningen av «misvisende informasjon» på Twitter, faktisk reduserer den totale delingen, ble erkjent av Gadde og Beykpour. De skrev i blogginnlegget at en av produktendringene som blir holdt på plass – og fikk brukere til å kommentere før de retweetet en annen brukers tweet – førte til 20 prosent reduksjon i all deling av innlegg på plattformen.

I tillegg til eventblokkering som beskrevet ovenfor har Facebook fortsatt å plassere faktasjekk-etiketter på hvert innlegg eller delt lenke som nevner det amerikanske valget, stemmesedler eller valgresultatet. Faktakontroll-etikettene linker brukere til Facebook Voting Information Center som presenterer innhold fra Bipartisan Policy Center og National Conference on Citizenship, to organisasjoner som er dedikerte til å beskytte to-parti-systemet.

På grunn av Facebooks enorme omfang – det er 2,7 milliarder brukere på verdensbasis, og 4,75 milliarder artikler som legges ut på plattformen hver dag – er selskapet sterkt avhengig av maskinlæring og naturlig språk-prosesseringsteknologi for å gjennomgå innlegg og fjerne dem, merke dem som «desinformasjon» eller strupe spredningen på plattformen. I tillegg har Facebook en hær på 35 000 spesialister ansatt for innholdsvurdering, som jobber med tredjeparts faktakontrollorganisasjoner.

På spørsmål fra Columbia Journalism Review om prosessen som blir brukt av selskapet for å identifisere «feilinformasjon», sa en Facebook-representant: «Dersom en av våre uavhengige faktasjekkingspartnere vurderer at et innhold inneholder feilinformasjon, da bruker vi teknologi for å identifisere nær-identiske versjoner på Facebook og Instagram.»

I sin forklaring av etter-valg-sensuren sendte Facebook ut en uttalelse som sa at de tok ytterligere skritt «for å forhindre at dette innholdet når ut til flere personer». Blant skrittene som er tatt er «nedgradering av innhold på Facebook og Instagram» som «våre systemer forutsier» kan være feilinformasjon, «inkludert avviste [‘debunked’] påstander om stemmegivning».

Loading