Oglaševanje

Raziskovalci odkrili neprijetno resnico o algoritmih na družbenih omrežjih

author
T. Lo.
20. avg 2025. 13:03
družbena omrežja, telefon, tiktok
Foto: PROFIMEDIA

Simulacije z manjšim omrežjem virtualnih uporabnikov, ki jih je ustvarila umetna inteligenca, so morda razkrile, zakaj družbena omrežja praviloma vse bolj drsijo v skrajnosti – in da razlog za to v resnici niso algoritmi.

Oglaševanje

Že dobro desetletje se vrstijo opozorila o vlogi algoritmov pri krojenju našega pogleda na svet, osebnih preferenc, političnih prepričanj.

Po predsedniških volitvah v ZDA leta 2024 je omrežje X postalo bojno polje zagovornikov republikanske na eni in demokratske stranke na drugi strani. Mnogi razočarani uporabniki so se v upanju na uravnoteženost mnenj in informacij preselili na družbeno omrežje Bluesky, piše znanstveni portal Science.

Oglaševanje

Bluesky je bil zasnovan brez algoritma, ki bi določal, kakšne vsebine uporabniki vidijo, in je želel preprečiti pasti, v katere je domnevno zapadel X.

Sprva je kazalo, da mu je to uspelo: uporabniki z množico sledilcev niso bili pretirano izpostavljeni, sovražnega govora je bilo manj, dezinformacije pa pod nadzorom. A manj kot leto kasneje so se na Blueskyu začeli kazati tipični problemi družbenih omrežij. Slišati je kritike, da je postal nekakšna levo usmerjena odmevna komora (ang. echo chamber).

družbena omrežja, stres, stiska
PROFIMEDIA

Smo algoritme okrivili po krivici?

Zdaj pa so simulacije z manjšim omrežjem virtualnih uporabnikov, ki jih je ustvarila umetna inteligenca, morda razkrile, zakaj družbena omrežja praviloma drsijo v različne skrajnosti – in da razlog za to v resnici niso algoritmi.

Oglaševanje

Preprosta platforma v simulaciji ni imela zapletenega algoritma, ki bi uporabnikom ponujal najbolj privlačne objave in jih zadrževal na spletu, a se je kljub temu razdelila v zaprte skupnosti, poročata nizozemska raziskovalca.

Rezultati njune študije nakazujejo, da že osnovne funkcije družbenih omrežij – objavljanje, deljenje in sledenje – neizogibno vodijo v polarizacijo. Opozarjajo, da je bila nagnjenost k združevanju v klike morda že "vgrajena" v uporabnike, ustvarjene z umetno inteligenco.

"Osrednji izsledki so prepričljivi," je za revijo Science povedala Kate Starbird, strokovnjakinja za informacijske znanosti z Univerze v Washingtonu, ki raziskuje spletne govorice in pri študiji ni sodelovala.

Oglaševanje

Kako je potekala raziskava

Ker so eksperimenti z resničnimi udeleženci dragi, etično zahtevni in zahtevajo sodelovanje podjetij, sta se računalniška družboslovca z Univerze v Amsterdamu, Maik Larooij in Petter Törnberg, zatekla k t. i. generativni družbeni simulaciji. Gre za tehniko, ki uporablja jezikovne modele umetne inteligence v vlogi človeških subjektov.

Namen je bil družbeno omrežje razstaviti na osnovne gradnike in ga nato znova sestaviti, da bi odkrila korenine treh negativnih pojavov: nastanek strankarskih odmevnih komor, zaradi katerih "podobni sledijo podobnim"; koncentracijo vpliva pri peščici objavljalcev; in okrepitev skrajnih glasov.

X, družbeno omrežje, Elon Musk, Twitter
Družbeno omrežje X (Foto: PROFIMEDIA)

Omrežje je obsegalo 500 virtualnih uporabnikov, ki so jim bile dodeljene značilnosti, kot so starost, spol, vera, politična usmerjenost in izobrazba, na podlagi resničnih osebnostnih profilov iz nacionalnih raziskav ameriških volilcev.

Oglaševanje

V treh različnih poskusih so raziskovalci uporabili tri priljubljene jezikovne modele – ChatGPT, Llama in DeepSeek – da bi te uporabnike razvili v bolj podrobne like s hobiji in poklici, nato pa naj bi ti na podlagi svojih profilov sprejemali odločitve. V eksperimentih se je naključno izbran uporabnik spoprijel s tremi možnostmi: izbral je novico med 10 naključno ponujenimi (od skupno 210.000), o njej napisal objavo, delil že obstoječo objavo ali začel slediti drugemu uporabniku glede na njegov profil. Pri izbiri ga je usmerjal njegov "feed", ki je vseboval 10 objav – polovica je bila od njegovih sledilcev, polovica pa priljubljenih objav ljudi, ki jim ni sledil.

Omrežje je v vsakem testu teklo skozi 10.000 ciklov. A ne glede na to, kateri jezikovni model so uporabili, je platforma vedno znova razvila trojico omenjenih negativnih pojavov: odmevne sobe, koncentracijo vpliva in skrajne glasove.

"Priznam, bil sem malo razočaran"

"Pričakovali smo, da bomo morali na neki način vložiti veliko truda, da bi dosegli ta učinek. A namesto tega smo dobili toksično omrežje, ki je nastalo zgolj kot posledica osnovnih dejanj deljenja in sledenja," je opisal Törnberg.

Oglaševanje

Notranjost knjižnice Univerze v Amsterdamu
Notranjost knjižnice Univerze v Amsterdamu | Foto: PROFIMEDIA

Da bi poskušala zmanjšati "toksičnost", sta Törnberg in Larooij po pisanju Sciencea preizkusila šest preprostih posegov, med drugim prikazovanje objav v strogo kronološkem vrstnem redu namesto po angažiranosti. Preizkusila sta tudi t. i. antialgoritme, ki so uporabniku prikazali najmanj komentirane objave ali pa objave, ki so izražale nasprotna politična stališča od njegovih. Nobena od metod ni delovala povsem, nekatere so situacijo celo poslabšale. "Priznam, bil sem malo razočaran. To bi moral biti optimističen članek," je dejal Törnberg.

Filippo Menczer, računalničar z Univerze v Indiani, medtem razmišlja drugače. Umetna inteligenca je po njegovih besedah zelo velika "črna skrinjica". Jezikovni modeli so bili namreč trenirani na vedenjih ljudi na spletu, ki že odražajo toksičnost družbenih omrežij, zato je možno, da je model "že v osnovi programiran" tako, da drsi v polarizacijo.

Še bolj zapleteno je, da realna vedenja na spletu, s katerimi so jezikovne modele trenirali, že oblikujejo problematični algoritmi – zato ni mogoče izključiti, da so ti posredno vplivali na rezultat virtualnega eksperimenta, kar onemogoča, da bi se povsem odrekli njihovemu vplivu.

Teme

Kakšno je tvoje mnenje o tem?

Sodeluj v razpravi ali preberi komentarje

Spremljajte nas tudi na družbenih omrežjih