Farligt att blunda för bubblorna

23 feb 2021 • 3 min

Sociala medier polariserar åsiktsbildningen. Den som väljer att inte se det slår in på en riskabel väg, skriver författaren och digitaliseringsexperten Mattias Beijmo.

Debatten om filterbubblors existens bubblar upp med jämna mellanrum. Begreppet myntades 2010 av författaren Eli Pariser och handlar om de informationssilos som bildas när sociala mediers algoritmer skapar ett personligt anpassat urval av nyheter och annat innehåll. Peter M Dahlgren på Göteborgs universitet är nu den senaste tvivlaren. Han har skrivit en avhandling där han hävdar att filterbubblorna är “en myt”, något han också berättade om i bland annat Biblioteksbladet för några veckor sedan.

Samtidigt som jag skriver detta, säger ytterligare en bekant att han ska “rensa bland sina Facebook-vänner”. Han orkar inte med att hela tiden se främlingsfientliga och rasistiska åsikter i sitt flöde. Samtidigt rasar ett digitalt gatuslagsmål om invandrare som “kulturell belastning”; hela mitt Twitterflöde är fyllt av två oförenliga sidor av myntet. Om våra sociala medier varit en liten klick av vår vardag, som ett högljutt debattprogram från Göteborg, hade det inte påverkat samhället så mycket. Men sociala medier är, som ni vet, mer än så. Det som händer där i dag sätter agendan i morgon för redaktioner, opinionsbildare och politiker.

För oss som arbetat med internetmediet länge är denna oönskade effekt av sociala medier lika självklar som att det kommer avgaser från en förbränningsmotor. Men Dahlgren har en annan åsikt, tyvärr baserad i ett gigantiskt missförstånd. De avancerade självlärande system som exempelvis Facebook är byggt på, verkar i Dahlgrens värld vara ett slags extra fiffigt Excel-ark. Det går inte att länka till allt här, men det finns mängder av källor som säger motsatsen: forskningsrön, Facebooks egen dokumentation, eller varför inte ta en titt på de patent som beskriver Facebooks underliggande idéer?

Patenten visar att Mark Zuckerberg och hans mannar inte behöver ha din medvetna interaktion för att ha full koll på dig. De mäter exakt hur länge dina ögon stannar upp vid dina vänners inlägg på Facebook eller Instagram, de samlar in vad du skriver i din statusuppdatering innan du ångrar dig och med backspace-knappen raderar det. Utan att du ens behöver starta FB-appen, vet de att du varit på bio, med vem du varit på bio, var du arbetar och med vilka du arbetar. De vet vilka av er som går på första maj-firande. Deras patent säger att de vill veta om du är i sorg. Techföretagen behöver inte ha de “likes” eller klick Dahlgren refererar till; du behöver bara existera för att de ska kunna anpassa allt du ser efter det de vet att du vill ha.

Från detta kommer biprodukten filterbubblor. Samtidigt är syftet med plattformarna att tjäna pengar med hjälp av innehåll som engagerar. Det är ostridigt att polariserande åsikter skapar just detta engagemang. Här gäller det alltså att hålla två tankar i huvudet samtidigt:

  1. Sociala mediers teknologiska DNA medför att enklaver av information bildas.
  2. I dessa enklaver finns meningsfränder, men företagen lägger även till diametralt motsatta åsikter. Din världsbild stärks ännu mer när du ser dina meningsfränder kommentera hånfullt och listigt attackera meningsmotståndarens löjliga teser.

En filterbubbla spricker alltså inte, som Dahlgren hävdar, för att du ser din världsbild bekräftad i kommentarerna under en meningsmotståndares påståenden. Det är helt tvärtom.

I Svenska Dagbladets podcast Ledarredaktionen hjälper Peter M Dahlgren programledaren och ledarskribenten Tove Lifvendahl att relativisera kring begreppet “polarisering”. Om de ens finns, bidrar bubblorna i så fall till polariseringen som många upplever finns i det svenska samhället? Dahlgren utvecklar sitt resonemang: att någon på exempelvis Youtube exponeras för mer och mer innehåll i samma riktning innebär inte att någon polarisering sker. Även här går Dahlgren emot forskningen. Bland annat en tysk-amerikansk studie från förra året har använt såväl dataanalys som mänskliga försökskaniner för att komma fram till den föga överraskande slutsatsen: Youtubes algoritmer används för att maximera antalet videovisningar, inget annat, så den serverar mer av det som får oss att stanna kvar. Detta visade sig polarisera redan befintliga känslor.

Peter M Dahlgren tycker att det är “orättvist” att sociala medieföretag utmålas som medskyldiga till att polariseringen ökar. Göteborgs universitet har drivit den åsikten i många år, hela tiden med samma ofullständiga resonemang som grund. I ljuset av all forskning, dokumentation och empiri som faktiskt säger motsatsen, är det lite märkligt att man inte accepterar att sociala medier påverkar åsiktsbildningen i polariserande riktning. Att inte vilja se techplattformarnas algoritmer som direkt avgörande för vår världsbild och att relativisera sociala mediers roll i vår samtid, är faktiskt en farlig väg att gå.

Mattias Beijmo

Författare, digitaliseringsexpert och föreläsare.

0 kommentarer

Senaste nytt

Nyheter

Upprop för hotat bibliotek

Raoul Wallenberg-institutets bibliotek för mänskliga rättigheter hotas av nedläggning. Nu har juristerna Izabell Zaza och Amanda Bergqvist organiserat ett upprop för att försöka rädda biblioteket.

12 feb 2025 • 2 min

Debatt

Replik: Iselid är sen på bollen

Samtal om förhandlingar om e-böcker pågår redan, skriver Stefan Persson från Läromedelsföretagen i ett svar i debatten om svensk kurslitteratur. Han konstaterar att Lars Iselids alternativ ”låter mer som en from förhoppning än en realistisk lösning.”

6 feb 2025 • 3 min