
Od komentarjev na MMC RTV do družbenih omrežij – kako avtomatizirani in lažni profili danes vplivajo na javno mnenje?
Boti, slovensko tudi avtomatizirani računi, ali lažni in neavtentični računi so programski agenti, ki jih nadzira računalniški program in ne človek. Ti računi so zasnovani tako, da izvajajo ponavljajoče se naloge, kot so ustvarjanje, deljenje ali interakcija s spletnimi vsebinami, pogosto z namenom imitacije človeškega vedenja ali manipulacije informacijskega prostora. Obstaja ločnica med enostavnimi avtomatizirani računi, ti. »socijalni (social) boti«, ki sami po sebi niso nujno škodljivi, ter avtomatiziranimi računi z namenom manipulacije javnega mnenja, ki so po navadi predmet razprave kadar ljudje govorijo o botih na splošno. Tipično delujejo kot množica lažnih ali sumljivih računov z namenom širitve določenih narativov ali vplivanja na javno mnenje. Čeprav ni vedno možno zanesljivo ločiti med avtomatiziranimi boti in ročno upravljanimi neavtentičnimi računi, raziskave kažejo, da taka pojavnost obstaja in vpliva na javno razpravo. (npr. Dnevnikova analiza komentarjev na MMC RTV Slovenija, primeri domnevnih proruskih avtomatiziranih profilov na Facebooku, akademske študije o lažnih profilih na Twitterju, itd.).
Obstaja nekaj ključnih dilem oziroma različnih pomenov termina, ki se lahko v določenih situacijah razlikujejo. Gre predvsem za diferenciacijo bota kot avtomatiziranega računalniškega programa na eni strani, na drugi pa človeka, ki je po navadi plačan, da impersonira lažno osebo na spletu. Tu sicer gre za neavtentični profil, vendar to v tehničnem smislu ni »bot«, čeprav se za ta pojav na družbenih omrežjih pogosto uporablja enak izraz. Tak primer se včasih poimenuje tudi »človeški bot« ali angleško »sockpuppet«.
Klasični (zgodnji oz. stari) avtomatizirani boti delujejo nekoliko manj sofisticirano in so prepoznavni predvsem po ponavljujočih se vzorcih delovanja, pogosto gramatično nesmiselnem izražanju, saj tradicionalno delujejo v okviru umetne inteligence, ki je bila še nedavno tipično manj zmogljiva kot človeška oseba. Vendar tudi ti lahko tvitajo, lajkajo, delijo objave, odgovarjajo na komentarje, itd.
»Farma« ali tovarna botov (popularni izraz, akademsko »botnet«) je skupek botov, ki so lahko na isti fizični lokaciji ali pa na različnih lokacijah. Farmo botov sestavljajo pametni telefoni, tablični računalniki in strežniki, ki jih povezuje nadzorna naprava. Opravljajo ponavljajoče se naloge, sodelujejo na družbenih platformah, gledajo videoposnetke ali obiskujejo spletna mesta in povečujejo promet z ustvarjanjem lažnih klikov. Vsaka farma botov deluje po svojih algoritmih, ki so težko izsledljivi.
Grafno osnovane metode uporabljajo strukturo omrežja in povezave med računi za odkrivanje, kateri računi se razlikujejo od povprečnih uporabnikov. Namesto da gledajo posamezne objave, grafne metode oblikujejo omrežje odnosov med uporabniki (npr. kdo komu sledi, kdo retvita koga) in iščejo nenavadne vzorce, kot so močne skupine med seboj povezanih profilov, ki se razlikujejo od normalnega omrežja.
Metoda, ki temelji na množičnem označevanju (crowdsourcingu) je način, pri katerem človeški uporabniki in usposobljeni ocenjevalci ročno označujejo profile in s tem učijo prepoznavanja raznorazne druge sistemske detektorje. Tak pristop je nekoliko nezanesljiv, saj je ročno zaznavanje ter označevanje posameznih profilov zaradi njihovega velikega števila drago in zamudno.
Metoda zaznavanja anomalij (anomaly based detection) ne temelji nujno na »učenju« programskih detektorjev, temveč na programskem iskanju neobičajnih vzorcev v podatkih. Ker na družbenih omrežjih uporabniki ponavadi delujejo z določenimi statistično merljivimi vzorci, ki so za človeške profile običajni oziroma nepogrešljivi, lahko boti hitro odstopajo od pričakovanega vedenja (npr. opazno preveč objav na uro, ponavljajoče objave, podobne objave, objavljanje v nočnih urah brez premora, itd.). Tak način zaznavanja je primeren pri identifikaciji »odstopanj« ter izpostavljanju možnih ali potencialnih avtomatičnih računov. Ti so nato lahko podrobneje preiskovani s pomočjo drugih sistemov in metod.
Najbolj znan pristop pa je metoda zaznavanja s pomočjo strojnega učenja, ki je trenutno tudi najbolj učinkovita. Metoda strojnega učenja je danes eden od najpogostejših pristopov zaznavanja botov, saj algoritmom omogoča, da se na podlagi mnogih značilnosti (npr. število sledenj, število tvitov na dan, vsebina sporočil, obrazci interakcij, itd.) naučijo prepoznavati vzorce, ki jih ljudje sicer težko vidijo.
Ta pristop zahteva učni sklop označenih podatkov (računi, ki so znano boti ali ne), na katerih model trenira. Nato lahko model te vzorce uporabi za razvrščanje novih uporabnikov.
Popularna storitev Bot Sentinel uporablja strojno učenje za ocenjevanje, kateri računi na raznoraznih omrežjih (npr. Twitter) kažejo »problematično vedenje«, na primer neavtentično ali škodljivo interakcijo, vsakič pa doda oceno podobnosti s prepoznanimi bot profili.
Tudi Botometer je ena najbolj znanih uporabniško intuitivnih in praktičnih orodij, ki uporablja nadzorovano strojno učenje (supervised machine learning). Model je treniran na omrežnih značilnostih, označenih vedenjskih, vsebinskih podatkih uporabniških profilov (računi za katere je znano, ali so boti ali človeški uporabniki). Gre za eno najbolj znanih orodij za ocenjevanje, ali je račun na družbenem omrežju »bolj botovski ali bolj človeški«. Razvili so ga raziskovalci na Indiana University in University of Southern California kot del projekta Observatory on Social Media (OSoMe). Gre za algoritem strojnega učenja, ki računu pripiše oceno podobnosti z avtomatiziranim računom – torej nekakšen »bot-rezultat« (bot-score).
Botometer uporablja več kot tisoč značilnosti (features), ki opisujejo račun in njegovo vedenje, npr. profilne značilnosti (ali vsebuje privzeto sliko profila, starost računa, dolžina uporabniškega imena), vsebinski podatki (besedilo tvitov, uporabljena slovnica), časovne značilnosti (kdaj in kako pogosto objavlja), omrežne značilnosti (koga sledi in kdo sledi njemu) ter jezikovni in sentimentni podatki (vrsta besed, ton komentarjev). Vse te podatke Botometer pretvori v številke, ki jih nato obdelajo z modelom strojnega učenja, da ocenijo, kako “botovski” je račun glede na naučene vzorce.
V praksi pa raziskovalci pogosto ne uporabljajo samo ene metode, ampak jih med seboj kombinirajo (npr. strojno učenje ter grafne strukture), ker nobena posamezna tehnika ni popolna. S tem se pristopi med seboj dopolnjujejo in omogočajo bolj robustno zaznavanje botov in neavtentičnih profilov, še posebej, ker sodobni boti poskušajo posnemati človeško vedenje in so zato vedno težje prepoznavni.

Kako generativna umetna inteligenca oteži zaznavanje botov?
Klasični oziroma zgodnji boti, ki so v javni sferi predstavljali največjo grožnjo še pred nedavno razširitvijo umetne inteligence (UI) so temeljili na preprostih skriptah in pravilih. Tako jih je pogosta slovnična neustreznost, okornost in neumestnost odgovorov na vprašanja drugih uporabnikov ter konstantno delovanje brez premorov lažje ločila od tipičnega uporabniškega računa.
S trenutnim vzponom generativne UI se problematika zaznavanja botske aktivnosti poglablja, saj UI programi kot je ChatGPT in drugi LLM (language learning models) programi omogočajo hibridne sisteme, v katerih boti uporabljajo LLM-je za pisanje slovnično in kontekstualno ustreznih komentarjev, prilagajanje in variacijo tona v razpravah. To dodatno otežuje zaznavo botov in povečuje tveganje za manipulacijo javne razprave.
Problematika avtomatiziranih računov v Sloveniji
V Slovenskem kontekstu je porast botov oziroma avtomatiziranih računov na spletnih novičarskih medijih težko zaznaven in tudi razmeroma neraziskan. Kar se tiče družbenih omrežij pa je zgodba podobna kot povsod drugje – avtomatizirani profili so na najpopularnejših omrežjih prisotni v velikem številu, njihova funkcija pa je pogosto označena kot raznorazne spletne goljufije, prevare ter komentiranje o političnih dogodkih, ki služi predvsem spodbujanju kontroverzne javne diskusije.
V slovenskem digitalnem prostoru se je decembra 2025, po enoletni raziskavi uporabniških komentarjev poročalo o zaznanih primerih koordiniranega vedenja »proruskih« profilov na MMC RTV Slovenija oz. v oddaji Dnevnik. Po mnenju avtorjev raziskave ni šlo zgolj za glasna mnenja, temveč za koordinirano sodelovanje in organizirano vplivnost sumljivo velikega števila uporabniških profilov.

Avtorji so vsebino najbolj všečkanih komentarjev primerjali s statističnimi ugotovitvami mnenja slovenske javnosti o temah glede vojne v Ukrajini, kjer pa so zaznali opazno odstopanje od dejanskih stališč slovenske javnosti, kot jih kažejo javnomnenjske raziskave (npr. raziskava Vox Populi agencije Ninamedija leta 2022, kjer le bilo le 3.6% anketirancev na strani Rusije, 77.2% vprašanih na strani Ukrajine in 19.2% neopredeljenih). V analiziranem vzorcu 150 novic in 3000 najbolje ocenjenih komentarjev pa je bilo po njihovih podatkih kar 91 odstotkov komentarjev vsebinsko skladnih s proruskimi ali izrazito protizahodnimi narativnimi vzorci.

Dogajanje na portalu MMC je na omrežju X komentiral tudi pravnik Vladimir Bilić. Ob tem je zapisal, da so ob sestrelitvi letala s Prigožinom ruski boti na MMC nenadoma utihnili, saj za takšen dogodek niso imeli pripravljenih navodil. Razmerje med komentarji za in proti je bilo takrat približno 5 proti 95, medtem ko je običajno ravno obratno. Šele naslednje jutro so se ponovno pojavili nekateri sicer zelo aktivni profili. Po njegovih besedah so boti izginili tudi ob Prigožinovem pohodu na Rostov in proti Moskvi, kar naj bi jasno kazalo, da gre za plačane bote, ne pa za t. i. »uporabne idiote«.
Avtorji so opozorili na močne in ponavljajoče se vzorce, ki so po njihovem mnenju značilni za organizirano vplivanje, vendar, kot je značilno za podobne raziskave, ni bilo možno tehnično potrditi, da so računi avtomatizirani.
Analize komentarjev pod novicami o ukrajinski vojni na MMC RTV Slovenija kažejo, da prevladujejo proruski in protizahodni narativi, ki se pojavljajo pogosto in vztrajno, kar strokovnjaki povezujejo z organiziranimi ali botsko‑podobnimi dejavnostmi v javni razpravi. Takšni vzorci niso zgolj posamezni odzivi, temveč kažejo na širši problem netransparentnega vpliva na javno mnenje.
V globalnem diskurzu o zaznavanju botov in manipulaciji na družbenih omrežjih pomembno vlogo igra jezik. Znanstvene raziskave o zaznavanju botov in spletnih manipulacijah so osredotočene predvsem na t.i. visoko‑virovne jezike (torej jezike z obsežnimi nabori besedil in podatkov, npr. angleščino), medtem ko so »low‑resource« jeziki – torej jeziki z manj podatki ali statistično redkejšo prisotnostjo v spletnih korpusih – bistveno manj obravnavani. To pomeni, da so meritve, modeli in orodja za zaznavanje botov slabše prilagojeni jezikom, ki nimajo velikega števila označenih podatkov ali velikih zbirk za učenje. Raziskava o zaznavanju manipulacij v socialnih omrežjih kaže, da je pri nizko-virovnih jezikih, ki imajo omejene podatke za učenje in preverjanje, zelo težko doseči stabilno in zanesljivo zaznavanje škodljivih ali avtomatiziranih aktivnosti. V takih primerih je potrebno dodatno učenje modelov ali prenos znanja iz jezikov z več podatki.
To ima neposredne posledice za slovenski splet: modeli strojnega učenja, ki zaznavajo avtomatizirane račune, pogosto niso učeni na dovolj velikih vzorcih slovenskega jezika in zato slabše zaznavajo nenavadne vzorce v slovenščini. Poleg tega ima slovenščina zaradi svoje relativno majhne uporabniške baze na omrežjih in nizkega deleža vsebin v primerjavi z globalno angleščino manj »signalov«, ki bi jih lahko algoritmi uporabili za učenje ali zaznavanje botov, kot se dogaja pri večjih jezikih.
Zaradi teh dejavnikov so majhni jezikovni prostori še bolj ranljivi za manipulacijo: že relativno malo število profilov ali organiziranih neavtentičnih računov lahko pomembno vpliva na percepcijo javnega mnenja, saj algoritmi in modeli ne zaznavajo ali ne filtrirajo teh pojavov tako učinkovito kot pri jezikih z obsežnimi jezikovnimi podatki. To ustvarja prostor, kjer lahko že manjše skupine organiziranih računov dosežejo nesorazmeren vpliv na spletne razprave in javno sfero.
Politični astroturfing
V letu 2021 je izšla mednarodna znanstvena monografija The Impact of Digital Platforms and Social Media on the Freedom of Expression and Pluralism, ki jo je uredil Marcin Wielec in ki analizira vpliv digitalnih platform in družbenih omrežij na svobodo izražanja in pluralizem v več srednjeevropskih državah.
V poglavju, ki se osredotoča na dezinformacije v Sloveniji, avtor opozarja na pojav astroturfinga in vlogo neavtentičnih profilov v spletni razpravi, ki je del širšega problema digitalnih platform in svobode izražanja v regiji.
Izraz astroturfing (prevoda v slovenščino še nimamo) pomeni lažno predstavljanje določenih idej kot da izhajajo iz ljudske pobude, čeprav jih v resnici sproža neka organizacija. Gre za pojav, ki se je povečal z vzponom družbenih omrežij in ustvarjanjem lažnih ali neavtentičnih računov. Astroturfing lahko opišemo kot ustvarjanje lažne javnosti in s tem manipulacijo javnega mnenja. Čeprav sam pojav ni nov, je vzpon družbenih medijev omogočil ustvarjanje lažnih računov in širjenje dezinformacij na povsem novi ravni. Lažni računi so včasih avtomatizirani (boti), včasih pa jih upravljajo ljudje. Med družbenimi omrežji izstopa Twitter, ki ima velik delež lažnih računov, mobiliziranih za politične namene, kljub aktivnemu odstranjevanju takih računov. Primer domnevnega astroturfinga v Sloveniji, ki sicer ni potrjen, vendar je razvnel burno javno debato, je prišel na dan, ko je slovenska poslanka pomotoma delila tvit lažnega profila s svojega uradnega računa. Novinarji so raziskovali pojav lažnih profilov na slovenski sferi Twitterja in ugotovili, da velik del »javnega mnenja« na Twitterju generirajo lažni računi, ki uporabljajo ukradene ali avtomatsko ustvarjene fotografije in lažne identitete. Njihove objave so pogosto deljene s strani politikov in tako so celo predstavljeni kot viri za dvomljive novice, ki jih širijo politično povezani mediji. Takšne medijske zgodbe se nato še naprej delijo, kar ustvarja krožni cikel dezinformacij.
Po poročilih Mladine je leta 2020 Twitter suspendiral računa Aleksandra Ranta in Luke Perša (urednika in novinarja Nova24TV) v času, ko je Twitter odstranil več računov, ki so jih neodvisni analitiki povezovali s sumljivim vedenjem ali koordinirano aktivnostjo.
Digitalni boti kot akterji sodobne javne sfere
Pojav digitalnih botov in neavtentičnih računov ni zgolj tehnična ali akademska tema – gre za globoko družbeno in politično vprašanje, ki neposredno vpliva na oblikovanje javnega mnenja, na način, kako mediji opravljajo svoje delo in kako demokratične družbe rešujejo izzive informacijskega prostora. Socialni mediji so postali osrednji kanal za iskanje novic, izražanje stališč in razpravo o javnih zadevah, hkrati pa tudi prostor, kjer se manipulacija, dezinformacije in propagandne strategije lahko hitro razširijo v milijonih uporabnikov. Raziskave kažejo, da avtomatizirani računi lahko bistveno vplivajo na dinamiko javne razprave in oblikovanje mnenj, tudi če neposredno ne sodelujejo v interakcijah z ljudmi, saj lahko že omembe in retviti botov vplivajo na delovanje priporočilnih sistemov platform in s tem vplivajo na to, katere vsebine se prikažejo večini uporabnikov.
Domen Savič je slovenski aktivist in publicist, znan po delovanju na področju digitalnih pravic, medijske pismenosti in družbenega vpliva tehnologije. Je ustanovitelj projekta Državljan D, v okviru katerega se ukvarja z vprašanji sovražnega govora, dezinformacij, nadzora in odgovornosti spletnih platform.

avtor fotografije: Lenart J. Kučić
Vprašali smo ga o razširjenosti botov v Sloveniji, problematiki slovenskega jezika pri zaznavanju njihove aktivnosti, ter vlogi medijev pri omejevanju neavtentičnih računov.

“S pozicije klasičnega uporabnika so vse prakse medijske pismenosti kratkega diha, saj je teh (lažnih) vsebin enostavno preveč.”
Vpliv botov na oblikovanje javnega mnenja
Študije po svetu razkrivajo, da socialni boti niso zgolj pasivni akterji, temveč lahko akumulirajo in usmerjajo pozornost množic ter povečujejo vidnost določenih narativov nad drugimi. V analizi komentarjev na Twitterju glede teorije o izvoru COVID‑19 so raziskovalci ugotovili, da kar tretjina aktivnih računov v razpravi kaže bot‑podobno vedenje, in da takšni računi, čeprav morda nimajo najboljše verodostojnosti, lahko potiskajo nepreverjene informacije po omrežju ter s tem posredno vplivajo na percepcijo ljudi.
Drugi podatki kažejo, da socialni boti uspešno promovirajo članke z nizko verodostojnostjo in igrajo pomembno vlogo pri njihovem širjenju, saj v zgodnjih fazah distribucije pogosto dodatno ojačajo in razširijo vsebino, ki jo nato delijo ljudje. Takšni vzorci in mehanizmi kažejo, da boti delujejo znotraj informacijskih ekosistemov ne le kot posamezni akterji, ampak kot sestavni del širših dinamik, ki lahko polarizirajo javne debate in povečajo lažne ali poenostavljene interpretacije kompleksnih tem.
Raziskave o vplivu botov na dinamiko javnega mnenja poudarjajo, da že relativno majhno število botov lahko spremeni relativno pozornost in dinamiko razprav, saj imajo boti pogosto višjo aktivnost in frekvenco objav kot povprečni ljudje, kar jim omogoča, da izstopajo v algoritmih platform. To pomeni, da se pogledi, ki jih boti intenzivno promovirajo, lahko zdijo bolj razširjeni ali “normalni”, kot v resnici so, kar vpliva na to, kaj uporabniki vidijo in kako interpretirajo dogajanje.
Mediji hkrati oblikujejo tudi javno percepcijo botov: raziskava metod socialnih znanosti je pokazala, da novice o botih lahko vplivajo na dojemanje tveganja in ogroženosti med uporabniki, pri čemer je izobraževanje o botih povezano z večjo digitalno samozavestjo in zmanjšanjem občutka ogroženosti. To pomeni, da novinarsko poročanje, ki podpira kritično razumevanje in razloži, kako boti delujejo, lahko zmanjša napetosti in strahove, hkrati pa poveča zaupanje v medijski prostor kot celoto.
Medijski in regulativni kontekst
Slovenski mediji o pojavu neavtentičnih računov in vplivih botov razpravljajo predvsem skozi analize komentarjev in opažanja javnosti, vendar dostop do podatkov, ki bi omogočali celovito tehnološko analizo, pogosto omejujejo pravila platform in pomanjkanje transparentnosti. To medijem narekuje, da v svojem poročanju pojasnijo metodologije raziskav in jasno ločijo med neavtentičnimi vzorci in potrjenimi bot računi, hkrati pa opozorijo na pomen regulacije in odgovornosti velikih tehnoloških platform. Evropski Akt o digitalnih storitvah (DSA) na primer uvaja mehanizme in zahteve po večji preglednosti pri moderiranju vsebin in razkritju, kako platforme uporabljajo algoritme in kako se borijo proti neavtentičnim računom – kar lahko posredno okrepi orodja, ki so na voljo tako novinarjem kot raziskovalcem.
Medtem ko se znanstvene in tehnološke metode za zaznavanje botov nenehno razvijajo, ostaja novinarska vloga pri razlagi teh fenomenov ključna, saj premika diskurz z zgolj razlage tehničnih terminov proti globljemu razumevanju družbenih posledic. Medijsko poročanje ima moč pomagati javnosti razumeti, kako in zakaj boti vplivajo na pogovore, kako se razlikujejo od neavtentičnih človeških profilov in kakšne so njihove širše implikacije na zaupanje v medije in demokratične debate.
Avtorja: Vid Zorko in Lara Stegnar
























