Digitalni boti in neavtentični računi: kako oblikujejo javno razpravo na tujem in domačem spletu?

Od komentarjev na MMC RTV do družbenih omrežij – kako avtomatizirani in lažni profili danes vplivajo na javno mnenje?

Obstaja nekaj ključnih dilem oziroma različnih pomenov termina, ki se lahko v določenih situacijah razlikujejo. Gre predvsem za diferenciacijo bota kot avtomatiziranega računalniškega programa na eni strani, na drugi pa človeka, ki je po navadi plačan, da impersonira lažno osebo na spletu. Tu sicer gre za neavtentični profil, vendar to v tehničnem smislu ni »bot«, čeprav se za ta pojav na družbenih omrežjih pogosto uporablja enak izraz. Tak primer se včasih poimenuje tudi »človeški bot« ali angleško »sockpuppet«.


Kako zaznamo bote in druge neavtentične račune?

Nekateri raziskovalci popolnoma zanemarjajo klasificiranje lažnih profilov in se namesto tega osredotočajo na razkrinkavanje avtomatično generiranih objav. Tudi v globalnem kontekstu so raziskave na področju zaznave aktivnosti botov precej nove. Obstajajo preprosti preventivni načini obrambe v smislu zaznavanja lažnih računov že pri njihovi kreaciji, npr. captcha testi, ki lahko omejijo množično avtomatizirano ustvarjanje računov, vendar sami po sebi ne zadoščajo za zaznavanje botov ali koordiniranega neavtentičnega vedenja v že obstoječih omrežjih. Pomembnejše so štiri do sedaj uveljavljene tehnike zaznavanja aktivnosti botov.


V praksi pa raziskovalci pogosto ne uporabljajo samo ene metode, ampak jih med seboj kombinirajo (npr. strojno učenje ter grafne strukture), ker nobena posamezna tehnika ni popolna. S tem se pristopi med seboj dopolnjujejo in omogočajo bolj robustno zaznavanje botov in neavtentičnih profilov, še posebej, ker sodobni boti poskušajo posnemati človeško vedenje in so zato vedno težje prepoznavni.


Kako generativna umetna inteligenca oteži zaznavanje botov?

Klasični oziroma zgodnji boti, ki so v javni sferi predstavljali največjo grožnjo še pred nedavno razširitvijo umetne inteligence (UI) so temeljili na preprostih skriptah in pravilih. Tako jih je pogosta slovnična neustreznost, okornost in neumestnost odgovorov na vprašanja drugih uporabnikov ter konstantno delovanje brez premorov lažje ločila od tipičnega uporabniškega računa.

S trenutnim vzponom generativne UI se problematika zaznavanja botske aktivnosti poglablja, saj UI programi kot je ChatGPT in drugi LLM (language learning models) programi omogočajo hibridne sisteme, v katerih boti uporabljajo LLM-je za pisanje slovnično in kontekstualno ustreznih komentarjev, prilagajanje in variacijo tona v razpravah. To dodatno otežuje zaznavo botov in povečuje tveganje za manipulacijo javne razprave.


Avtorji so vsebino najbolj všečkanih komentarjev primerjali s statističnimi ugotovitvami mnenja slovenske javnosti o temah glede vojne v Ukrajini, kjer pa so zaznali opazno odstopanje od dejanskih stališč slovenske javnosti, kot jih kažejo javnomnenjske raziskave (npr. raziskava Vox Populi agencije Ninamedija leta 2022, kjer le bilo le 3.6% anketirancev na strani Rusije, 77.2% vprašanih na strani Ukrajine in 19.2% neopredeljenih). V analiziranem vzorcu 150 novic in 3000 najbolje ocenjenih komentarjev pa je bilo po njihovih podatkih kar 91 odstotkov komentarjev vsebinsko skladnih s proruskimi ali izrazito protizahodnimi narativnimi vzorci.

Dogajanje na portalu MMC je na omrežju X komentiral tudi pravnik Vladimir Bilić. Ob tem je zapisal, da so ob sestrelitvi letala s Prigožinom ruski boti na MMC nenadoma utihnili, saj za takšen dogodek niso imeli pripravljenih navodil. Razmerje med komentarji za in proti je bilo takrat približno 5 proti 95, medtem ko je običajno ravno obratno. Šele naslednje jutro so se ponovno pojavili nekateri sicer zelo aktivni profili. Po njegovih besedah so boti izginili tudi ob Prigožinovem pohodu na Rostov in proti Moskvi, kar naj bi jasno kazalo, da gre za plačane bote, ne pa za t. i. »uporabne idiote«.

V globalnem diskurzu o zaznavanju botov in manipulaciji na družbenih omrežjih pomembno vlogo igra jezik. Znanstvene raziskave o zaznavanju botov in spletnih manipulacijah so osredotočene predvsem na t.i. visoko‑virovne jezike (torej jezike z obsežnimi nabori besedil in podatkov, npr. angleščino), medtem ko so »low‑resource« jeziki – torej jeziki z manj podatki ali statistično redkejšo prisotnostjo v spletnih korpusih – bistveno manj obravnavani. To pomeni, da so meritve, modeli in orodja za zaznavanje botov slabše prilagojeni jezikom, ki nimajo velikega števila označenih podatkov ali velikih zbirk za učenje. Raziskava o zaznavanju manipulacij v socialnih omrežjih kaže, da je pri nizko-virovnih jezikih, ki imajo omejene podatke za učenje in preverjanje, zelo težko doseči stabilno in zanesljivo zaznavanje škodljivih ali avtomatiziranih aktivnosti. V takih primerih je potrebno dodatno učenje modelov ali prenos znanja iz jezikov z več podatki.

To ima neposredne posledice za slovenski splet: modeli strojnega učenja, ki zaznavajo avtomatizirane račune, pogosto niso učeni na dovolj velikih vzorcih slovenskega jezika in zato slabše zaznavajo nenavadne vzorce v slovenščini. Poleg tega ima slovenščina zaradi svoje relativno majhne uporabniške baze na omrežjih in nizkega deleža vsebin v primerjavi z globalno angleščino manj »signalov«, ki bi jih lahko algoritmi uporabili za učenje ali zaznavanje botov, kot se dogaja pri večjih jezikih.

Zaradi teh dejavnikov so majhni jezikovni prostori še bolj ranljivi za manipulacijo: že relativno malo število profilov ali organiziranih neavtentičnih računov lahko pomembno vpliva na percepcijo javnega mnenja, saj algoritmi in modeli ne zaznavajo ali ne filtrirajo teh pojavov tako učinkovito kot pri jezikih z obsežnimi jezikovnimi podatki. To ustvarja prostor, kjer lahko že manjše skupine organiziranih računov dosežejo nesorazmeren vpliv na spletne razprave in javno sfero.

Politični astroturfing

V letu 2021 je izšla mednarodna znanstvena monografija The Impact of Digital Platforms and Social Media on the Freedom of Expression and Pluralism, ki jo je uredil Marcin Wielec in ki analizira vpliv digitalnih platform in družbenih omrežij na svobodo izražanja in pluralizem v več srednjeevropskih državah.

V poglavju, ki se osredotoča na dezinformacije v Sloveniji, avtor opozarja na pojav astroturfinga in vlogo neavtentičnih profilov v spletni razpravi, ki je del širšega problema digitalnih platform in svobode izražanja v regiji.

Izraz astroturfing (prevoda v slovenščino še nimamo) pomeni lažno predstavljanje določenih idej kot da izhajajo iz ljudske pobude, čeprav jih v resnici sproža neka organizacija. Gre za pojav, ki se je povečal z vzponom družbenih omrežij in ustvarjanjem lažnih ali neavtentičnih računov. Astroturfing lahko opišemo kot ustvarjanje lažne javnosti in s tem manipulacijo javnega mnenja. Čeprav sam pojav ni nov, je vzpon družbenih medijev omogočil ustvarjanje lažnih računov in širjenje dezinformacij na povsem novi ravni. Lažni računi so včasih avtomatizirani (boti), včasih pa jih upravljajo ljudje. Med družbenimi omrežji izstopa Twitter, ki ima velik delež lažnih računov, mobiliziranih za politične namene, kljub aktivnemu odstranjevanju takih računov. Primer domnevnega astroturfinga v Sloveniji, ki sicer ni potrjen, vendar je razvnel burno javno debato, je prišel na dan, ko je slovenska poslanka pomotoma delila tvit lažnega profila s svojega uradnega računa. Novinarji so raziskovali pojav lažnih profilov na slovenski sferi Twitterja in ugotovili, da velik del »javnega mnenja« na Twitterju generirajo lažni računi, ki uporabljajo ukradene ali avtomatsko ustvarjene fotografije in lažne identitete. Njihove objave so pogosto deljene s strani politikov in tako so celo predstavljeni kot viri za dvomljive novice, ki jih širijo politično povezani mediji. Takšne medijske zgodbe se nato še naprej delijo, kar ustvarja krožni cikel dezinformacij.

Po poročilih Mladine je leta 2020 Twitter suspendiral računa Aleksandra Ranta in Luke Perša (urednika in novinarja Nova24TV) v času, ko je Twitter odstranil več računov, ki so jih neodvisni analitiki povezovali s sumljivim vedenjem ali koordinirano aktivnostjo.


Domen Savič je slovenski aktivist in publicist, znan po delovanju na področju digitalnih pravic, medijske pismenosti in družbenega vpliva tehnologije. Je ustanovitelj projekta Državljan D, v okviru katerega se ukvarja z vprašanji sovražnega govora, dezinformacij, nadzora in odgovornosti spletnih platform.

Vprašali smo ga o razširjenosti botov v Sloveniji, problematiki slovenskega jezika pri zaznavanju njihove aktivnosti, ter vlogi medijev pri omejevanju neavtentičnih računov.

“S pozicije klasičnega uporabnika so vse prakse medijske pismenosti kratkega diha, saj je teh (lažnih) vsebin enostavno preveč.”
– Domen Savič

Vpliv botov na oblikovanje javnega mnenja

Študije po svetu razkrivajo, da socialni boti niso zgolj pasivni akterji, temveč lahko akumulirajo in usmerjajo pozornost množic ter povečujejo vidnost določenih narativov nad drugimi. V analizi komentarjev na Twitterju glede teorije o izvoru COVID‑19 so raziskovalci ugotovili, da kar tretjina aktivnih računov v razpravi kaže bot‑podobno vedenje, in da takšni računi, čeprav morda nimajo najboljše verodostojnosti, lahko potiskajo nepreverjene informacije po omrežju ter s tem posredno vplivajo na percepcijo ljudi.

Drugi podatki kažejo, da socialni boti uspešno promovirajo članke z nizko verodostojnostjo in igrajo pomembno vlogo pri njihovem širjenju, saj v zgodnjih fazah distribucije pogosto dodatno ojačajo in razširijo vsebino, ki jo nato delijo ljudje. Takšni vzorci in mehanizmi kažejo, da boti delujejo znotraj informacijskih ekosistemov ne le kot posamezni akterji, ampak kot sestavni del širših dinamik, ki lahko polarizirajo javne debate in povečajo lažne ali poenostavljene interpretacije kompleksnih tem.

Raziskave o vplivu botov na dinamiko javnega mnenja poudarjajo, da že relativno majhno število botov lahko spremeni relativno pozornost in dinamiko razprav, saj imajo boti pogosto višjo aktivnost in frekvenco objav kot povprečni ljudje, kar jim omogoča, da izstopajo v algoritmih platform. To pomeni, da se pogledi, ki jih boti intenzivno promovirajo, lahko zdijo bolj razširjeni ali “normalni”, kot v resnici so, kar vpliva na to, kaj uporabniki vidijo in kako interpretirajo dogajanje.

Mediji hkrati oblikujejo tudi javno percepcijo botov: raziskava metod socialnih znanosti je pokazala, da novice o botih lahko vplivajo na dojemanje tveganja in ogroženosti med uporabniki, pri čemer je izobraževanje o botih povezano z večjo digitalno samozavestjo in zmanjšanjem občutka ogroženosti. To pomeni, da novinarsko poročanje, ki podpira kritično razumevanje in razloži, kako boti delujejo, lahko zmanjša napetosti in strahove, hkrati pa poveča zaupanje v medijski prostor kot celoto.


Avtorja: Vid Zorko in Lara Stegnar

Prejšnji članekMed brlogom in dvoriščem: rjavi medved in ljudje
Naslednji članekPOZORNI NA MOTNJE POZORNOSTI