Nebezpečí sociálních sítí: Algoritmy
Sociální sítě jsou již po mnoho let – ať chceme, nebo ne – součástí našich životů. Přinesly unikátní možnost propojení lidí napříč celým světem (s k dnešku více jak 4,6 miliardami aktivních uživatelů) a jednoduché sdílení informací. Přesto však málokdo ví, jak sociální sítě vlastně fungují, a jaká mohou skýtat nebezpečí. Věřím, že čtenáři tohoto webu mají jisté znalosti, či tušení, že technologické společnosti provozující tyto sítě nejsou zrovna „hodní hoši“. V tomto článku se pokusíme v krátkosti sdělit, co jsou to algoritmy sociálních sítí, jak fungují, a jaká představují nebezpečí.
Algoritmus?
Co to vlastně jsou algoritmy, a proč by nás měly zajímat? Pokud byste chtěli odbornou definici algoritmu:
„Obecně algoritmy můžeme chápat jako procesy, které ze vstupních hodnot a vytváří jiné hodnoty jako výstup. Z tohoto důvodu je algoritmus sekvencí výpočetních kroků, které mění vstup na výstup. Můžeme na něj také nahlížet jako na nástroj, který má za úkol vyřešit přesně vymezený výpočetní problém.“ (Cormen a kol. 2009)
To nám ale asi moc neřekne, proto ve zkratce shrňme, že algoritmy jsou něco, co zajišťuje chod sociálních sítí. Úplně přesné fungování navíc znát ani nemůžeme, neboť platformy si vždy svoje algoritmy pečlivě střeží.
Díky algoritmizaci je zde spoustu pozitivních aspektů, mezi které patří především přizpůsobení zájmům uživatele (těžko však říct, jestli to ospravedlňuje rozsáhlý sběr dat). Jak už to u sociálních sítí však bývá, mají i spoustu negativ. Z nich můžeme vyjmenovat tvorbu tzv. Informačních bublin (angl. Echo chamber), napomáhání závislosti a usnadnění manipulace uživatelem.
Co je funkcí algoritmů?
Algoritmy mají jednoduchý úkol: udržet uživatele na síti co nejdéle je to možné (více času > více reklam > větší zisk). Nejúčinnějším způsobem, jak toho docílit, je cílení na emoce člověka – především ty negativní. Například 71% lidí uvádí, že občas vidí obsah, který je rozzlobí a 25% ho vidí často. Naopak 21% lidí uvádí, že často vidí obsah, který jim dodává pocit propojení s ostatními a 44 % lidí vidí obsah, který je pobaví.
Fungování v praxi
Každému příspěvku je přiděleno skóre na základě jeho relevance a pravděpodobnosti interakce (komentář, like, emoji…). Toto skóre se vypočítává neustále, a to i za uživatelovy nepřítomnosti. Když se vám po přihlášení na sítě stránka chvíli načítá, generuje speciálně pro vás příspěvky, neboli takzvaný feed. První vidíte příspěvky s nejvyšším skóre, na které nejpravděpodobněji budete reagovat. Díky rozsáhlému sbírání dat o vás navíc daná společnost ví „všechno“. Algoritmus například dokáže postřehnout, že na síti nejste delší dobu, než je zvykem a vygeneruje vám upozornění. Mnoho lidí má za to, že příspěvky vidí proto, že dané stránky sleduje, nebo je sledují jejich přátelé, ale to není pravda. Příspěvky se vždy řídí podle skóre algoritmu, kdy každý jednotlivý příspěvek má unikátní skóre pro každého uživatele, podle toho, jak je pravděpodobné, že ho vyprovokuje k interakci a udržení pozornosti. Z tohoto důvodu byly například v roce 2015 na Facebooku zavedeny tzv. emoji.
Co všechno algoritmy sledují?
To všechno zní docela hrozivě, nemyslíte? Můžu slíbit, že je to ještě horší. Sociální sítě totiž jsou ukázkoví čumilové. Sledují mimo jiné:
- Na co se uživatel dívá
- Jak dlouho se dívá (když přestanete scroolovat a díváte se na příspěvek) > zvýšení skóre příspěvku
- Rychlost internetového připojení a typ zařízení (například když je někdo venku na mobilu za použití mobilních dat nebo slabé wifi, nebude se chtít dívat na dlouhé video)
- Jestli příspěvek obsahuje odkaz na externí stránku (sít samozřejmě nemá zájem o to, aby ji uživatel opouštěl, i když příspěvek může být relevantní)
- Interakce (like, komentář…)
- Jak dlouho po zveřejnění na příspěvek uživatel reagoval
- U videa – jak dlouho po začátku se uživatel dívá (zavedeno jako ochrana proti clickbaitu, který uživatelé nesli nelibě a snižovali společnostem zisky)
- U videa – rozšíření na celou obrazovku, zapnutí zvuku apod.
Algoritmy mimo jiné slouží i k detekci „dezinformací“ pomocí strojového učení. Například společnost YouTube v roce 2018 upravila algoritmus systému doporučování videí tak, aby byly „konspirační teorie“ a „dezinformace“ upozaďovány (samozřejmě bez upřesnění, co se pod těmito pojmy skrývá). Pomáhají samozřejmě i „nezávislí ověřovatelé faktů“ (tzv. fact-checkeři). Hádám, že jejich „nezávislost“ je našim čtenářům již známa.
Jak můžete ovlivnit svůj News Feed
- manuálně nastavením
- výběrem toho, co chcete sledovat (umělé navýšení skóre)
- tlačítko „skrýt příspěvek“ (snížení skóre)
- zobrazit nejnovější (chronologické řazení bez vlivu algoritmů)
- svým chováním
- interakce s příspěvky, strávený čas nad příspěvkem, rozkliknutí
- rychlostí připojení a svým zařízením
TikTok
TikTok se od ostatních sociálních sítí v mnohém liší (a to nejen kuriózní stupiditou mnoha uživatelů, kteří dělají takzvané „výzvy“). Je to dáno možná i tím, že se nejedná o americký špionážní software, jakými jsou Facebook nebo Twitter, nýbrž o čínský. TikTok je tak ještě nebezpečnější a více invazivní, než jeho kolegové ze Silicon Valley. Na této síti 90-95% obsahu pochází od doporučení algoritmu na základě personalizace (například u YouTube je to „jen“ 70-75%). Tento algoritmus je navíc velmi silný a dozví se o vás všechno na základě jediného ukazatele – čas sledování videa.
V praxi to funguje tak, že při prvním zapnutí jsou vám doporučeny nejpopulárnější videa a podle toho, jak uživatel reaguje je mu algoritmem doporučován stále méně populární, zato mnohem přesněji orientovaný obsah. Kdykoliv zaváháte, pozastavíte se, nebo stisknete sledovat znovu, aplikace vás sleduje, analyzuje a nahrává. Uživatel se pak snadno dostane do tzv. králičích nor (angl. rabbit holes), ze kterých lze těžko uniknout. Ty mají rozličný obsah – od veselých videí se psy, přes videa s politikou až po vysoce depresivní obsah se sebevražednými tendencemi (což již způsobilo mnoho tragédií). Opět pro jediný účel – udržet uživatele na síti co nejdéle.
Jak se bránit?
Nejlepším řešením by bylo nepoužívat sociální sítě vůbec, ale to nejsíš není moc nápomocná rada. Pokud tyto aplikace chcete, nebo musíte i přes všechna rizika používat, můžete vyzkoušet následující kroky:
- Projděte si pořádně nastavení a snažte se co nejvíce omezit přístup aplikace k vašim datům a osobním informacím. Vždycky platí, že síť sleduje jen to, co jí vy sami dovolíte. Nějakému sledování se nevyhnete, ale oproti základnímu nastavení toho můžete spoustu zlepšit
- Používejte sociální sítě pouze na počítači. Ano, mobil je vždy po ruce a je to pohodlnější, ale tato zařízení narušují soukromí o dost více, než klasické počítače. Mimo jiné tak lze snadno rozpoznat závislost, popřípadě se ji zbavit, protože stolní počítač do kapsy nedáte.
- Sledování YouTube jde skvěle zamezit například díky aplikaci Freetubeapp.io, kterou si můžete stáhnout zdarma a sledovat videa bez nutnosti používání Google účtu (věřte mi, když se začnete vyhýbat Googlu, vaše data budou v o dost větším bezpečí).
- Nenechte děti sledovat bez kontroly sociální sítě, protože mohou zejména u nich vézt k mnoha psychickým problémům (viz předchozí díl Psychické problémy) a zejména TikTok, který je zvlášť nebezpečný.
Zájemcům doporučuji shlédnou zajímavý dokument Social Dilema, který je dostupný na platformě Netflix (a vlastně všude na internetu, stačí hledat).
Zdroje:
- Global Social Media Stats – DataReportal – global digital insights. (2022). Retrieved March 22, 2022, from https://datareportal.com/social-media-users
- Cormen, T. H., & Leiserson, C. E. (2009). Introduction to algorithms, 3rd Edition. Massachusetts Institute of Technology.
- Smith, A. (2020, July 7). Public attitudes toward computer algorithms. Pew Research Center: Internet, Science & Tech. Retrieved March 23, 2022, from https://www.pewresearch.org/internet/2018/11/16/public-attitudes-toward-computer-algorithms/
- Reducing links to low-quality web page experiences. Meta. (2019, November 7). Retrieved March 23, 2022, from https://about.fb.com/news/2017/05/reducing-links-to-low-quality-web-page-experiences/
- Team, T. Y. T. (2020, October 15). Managing harmful conspiracy theories on YouTube. blog.youtube. Retrieved March 23, 2022, from https://blog.youtube/news-and-events/harmful-conspiracy-theories-youtube/
- Dow Jones & Company. (n.d.). Investigation: How Tiktok’s algorithm figures out your deepest desires. The Wall Street Journal. Retrieved March 28, 2022, from https://www.wsj.com/video/series/inside-tiktoks-highly-secretive-algorithm/investigation-how-tiktok-algorithm-figures-out-your-deepest-desires/6C0C2040-FF25-4827-8528-2BD6612E3796
- Lovejoy, B. (2021, July 28). How TikTok’s algorithm works: A fascinating and disturbing analysis. 9to5Mac. Retrieved March 28, 2022, from https://9to5mac.com/2021/07/28/how-tiktoks-algorithm-works/