Innlegget leses best på den opprinnelige studentbloggen
Det är kanske inte så vanligt att vi människor bara sätter oss ner för att få information om ett visst ämne. Vi använder oss av digitala plattformar för att bläddra genom webbplatser, öppna nya flikar, och klicka på det som intresserar oss. Eller så ”scrollar” vi genom Facebook och Instagram för att se vad folk gillar och delar. Som sagt så gör vi oftast inte detta för att få information – vi väntar förmodligen i en kö, sitter på bussen eller tunnelbanan, kämpar med sömnlöshet eller bara söker efter en form för underhållning.
Det kan anses vara oskyldigt att vi surfar, delar och klickar oss genom flikar. Men det många inte är medveten om är de krafter som faktiskt påverkar våra Internet-sök eller sociala medier. Dessa plattformar tillpassar sina tjänster för att nå ut till olika användargrupper, genom att samla data och information genom användarnas personliga preferenser. Genom egen erfarenhet kan jag relatera till att både Facebook och Google använder sig av denna personifiering. Om jag är i behov av att köpa en ny jacka, så kan jag via ett sök på Google få upp det jag vill ha. Webbplatsen tillfredsställer mitt behov genom att algoritmer plockar upp information via deras sökmotorer, så de vet vad jag har för intressen som visats genom tidigare sök. Därefter när jag är aktiv på andra webbplatser, kan man genom digital marknadsföring skapa försäljning av produkten eller ge mig den informationen jag behöver genom dessa tekniker. ”Filterbubbla” kallas det som algoritmerna skapar för att ge oss den begränsade informationen som passar just för oss, och nedan ska jag förklara närmare på vad det innebär.
Vad innebär fenomenet filterbubbla och hur fungerar det?
Internetaktivisten Eli Pariser, menar att om man sammanställer alla algoritmer så får vi det som kallas filterbubbla. Det är med andra ord vårat eget begränsade informationsuniversum. Han menar att vi är isolerade i våra egna små bubblor för att vi inte bestämmer själva vad vi ska motta för information. Vi är inte heller medveten om vad som blir bortsorterat – vilket leder till att vi kan gå miste om viktig information som vi egentligen borde ta del av.
”Vi rör oss mot en värld där Internet visar oss det de tror vi önskar att se, men inte nödvändigtvis det vi behöver se”
Eli Pariser
I mitt förra inlägg skrev jag om att sänka transaktionskostnader i en plattformtjänst. Facebook använder sig av algoritmer och anses vara den mest dominerande plattformen som visar information – allt från nyheter i tidningar till delningar från vänner. Detta sänker våra transaktionskostnader för att det blir enklare att dela upplevelser. Arne Krokan skriver i sin bok ”Det friksjonsfrie samfunn” att de negativa konsekvenserna med detta är att det blir Facebooks filterbubbla, deras algoritmer, som bestämmer vad vi faktiskt mottar för information. Det är personligt innehållsval som är baserat på vår surfhistorik, kön, ålder, familj, vänner och annan information. Vad som sker med detta är att det kan kännas som en översvämning av artiklar och inlägg som stöttar våra nuvarande åsikter och perspektiv, och det är filterbubblor som säkerställer att vi ska tycka om det vi ser. Det här förklarar också Eli Pariser närmare i sin TED-talk som ni kan se genom att trycka på denna länk ”Beware online filterbubbles”. Dessa filter innebär till slut att vi bara får en form för innehåll som passar oss, och dessa kan hamna i det som kallas: ekkokamre.
/* Style Definitions */
table.MsoNormalTable
{mso-style-name:»Normal tabell»;
mso-tstyle-rowband-size:0;
mso-tstyle-colband-size:0;
mso-style-noshow:yes;
mso-style-priority:99;
mso-style-parent:»»;
mso-padding-alt:0cm 5.4pt 0cm 5.4pt;
mso-para-margin:0cm;
mso-para-margin-bottom:.0001pt;
mso-pagination:widow-orphan;
font-size:12.0pt;
font-family:»Calibri»,sans-serif;
mso-ascii-font-family:Calibri;
mso-ascii-theme-font:minor-latin;
mso-hansi-font-family:Calibri;
mso-hansi-theme-font:minor-latin;
mso-bidi-font-family:»Times New Roman»;
mso-bidi-theme-font:minor-bidi;
mso-fareast-language:EN-US;}
Vad innebär ekkokammer och hur fungerar det?
Att bara motta en form för innehåll som passar oss kanske inte alltid är så bra, för att ibland kan det vara så att det är den informationen som blir ”gömd” som man behöver mer för att få en rättvis bild av hur verkligheten egentligen ser ut. Ekkokamrer handlar om att vi befinner oss i ett nätverk som består av de som tycker och tänker likadant, och att vi då stänger ute alla som inte är likasinnade. Det fungerar som en form för avgörande av synpunkter, som leder till ett understrykande av olikheter. Där dessa ekkokamre existerar är det i utgångspunkt negativa konsekvenser, för att när många människor är likasinnade och inte släpper in annan information eller meningar så blir det automatiskt mer dominerande.
Vilka konsekvenser har filterbubblor och ekkokamre för samhällsutvecklingen?
Det jag tycker är en intressant konsekvens i samhällsutvecklingen med filterbubblor och ekkokamre är påverkningen det faktiskt har när det kommer till val av till exempel president. I mitt förra inlägg nämnde jag en dokumentär, ”The Great Hack”, som handlar om när Cambridge Analytica oetiskt skrapade data från miljoner av Facebook-användare och använde det för att rikta in utsatta och påtagliga väljare i ett försök att välja Donald Trump i USA-valet 2016. Det var alltså Cambridge Analytica som jobbade med Trump-kampanjen under valet, och de fick tillgång till all data Facebook lagrat. Facebook når 67% av amerikanska vuxna människor, och över 40% mottar information och nyheter från plattformen. När man då manipulerar nyhetsflöden genom val-kampanjer och liknande, är det då konstigt att folk blir manipulerade till att ta ett val? Tänk er själva, att anledningen till att han vann faktiskt var för att vi idag lever i en filterbubbla och skapar ekkokamre. Den informationen vi tar in är så pass personlig att vi är blinda för att se andra perspektiv och det leder till att folk stöttar Trump, men också inte.
Filterbubblor blir ett problem när det kommer till vad som är rationellt för demokrati, men det är också en enorm utmaning när det kommer till falska nyheter. De innehåller som regel överdrivna, förfalskade påståenden som algoritmer kan lockas till. Dessa algoritmer kan faktiskt också bli lurade av falska nyheter, och ta till sig de nyckelord och information som står där och sprida det vidare. Dessa extrema synpunkter som sprids får kanske fler likes och kommentarer, vilket leder till större uppmärksamhet. Detta kan knytas upp mot valet 2016 genom att man skjuter användarna mer och mer mot de extrema åsikterna som Trump hade i sina Twitter-inlägg och kampanjer.
Eli Pariser menar att i slutändan fungerar bara demokrati om vi medborgare kan tänka utanför våra egna intressen. Men för att göra det behöver vi en delad syn på den värld vi lever i. Vi måste komma i kontakt med andra människors liv, behov och önskningar. Den här filterbubblan skjuter oss i motsatt riktning – det skapar intrycket om att våra egna intressen är allt som existerar. Och även om det här är positivt för människor att handla varor och tjänster online, är det inte bra för att få människor att fatta bättre beslut tillsammans.
– Frida
Källor:
Krokan Arne. 2017. ”Det friksjonsfrie samfunn”. Cappelen Damm Akademisk. Latvia.
https://blog.dataiku.com/fake-news-and-filter-bubbles
https://medium.com/@willrinehart/the-election-of-2016-and-the-filter-bubble-thesis-in-2017-51cd7520ed7
https://www.wired.com/story/the-great-hack-documentary/
https://www.thecut.com/2016/11/how-facebook-and-the-filter-bubble-pushed-trump-to-victory.html
https://trd.by/meninger/2018/11/09/%C2%ABEkkokammer-oppmuntrende-men-skadelig%C2%BB-17832174.ece
https://www.minabibliotek.se/sv/article/internet-filtreras-f%C3%B6r-att-passa-dig
https://ndla.no/nb/subjects/subject:14/topic:1:185993/resource:1:107782