Rys Farthing. Foto: Osebni arhiv
Rys Farthing. Foto: Osebni arhiv

Otroci se danes rodijo v svet, ki ga obkrožajo številne naprave z zasloni. Strokovnjakinje in strokovnjaki v slovenskih nacionalnih smernicah varne rabe zaslonskih tehnologij odsvetujejo kakršne koli zaslone v življenju otrok do njihovega drugega leta, pozneje pa do največ dve uri na dan. Vendar v ekonomiji pozornosti so digitalne platforme, ki so le navidezno brezplačne, uspešne in zanimive za oglaševalce takrat, kadar uporabnice in uporabnike čim dlje zadržijo na svojih platformah, počrpajo čim več osebnih uporabniških podatkov in jih nato ciljajo s personaliziranimi ter prostoru in času prilagojenimi sporočili naročnikov. V tem okolju se vsakodnevno družijo tudi otroci in mladi, zato bi moralo biti zanje najmanj varno, če ne tudi razumljivo, spodbudno in prijazno.

Pravice vsakega otroka morajo biti spoštovane, zaščitene in izpolnjene tudi v digitalnem okolju. Otroci morajo imeti dostop do digitalnih vsebin, ki jih opolnomočijo in so primerne njihovi starosti, ter dostop do informacij iz širokega izbora zaupanja vrednih virov. To med drugim piše v splošnem komentarju številka 25 Konvencije Združenih narodov o otrokovih pravicah, ki opredeljuje otrokove pravice v digitalnem okolju. Odgovornost za zaščito pravic otrok v digitalnem okolju Združeni narodi s komentarjem 25 jasno nalagajo državam.

O pravicah otrok in mladostnikov v nadzornem kapitalizmu, podatkovni ekonomiji pozornosti in dataficirani družbi smo se decembra za oddajo Glasovi svetov pogovarjali z avstralsko raziskovalko doktorico Rys Farthing, direktorico raziskovanja in politik pri nevladni organizaciji Reset tech. Govorili smo o poslovnih modelih tehnoloških velikanov, o spoštovanju pravic otrok in nepolnoletnih v digitalnem okolju in uresničevanju zahtev po regulaciji velikih spletnih platform v Evropski uniji. Vabljeni k branju intervjuja.

Potrebujete pomoč?

Če čutite hudo duševno stisko ali imate samomorilne misli, poiščite strokovno pomoč v organizacijah, ki nudijo neposredno pomoč.
Lahko se obrnete na svojega osebnega zdravnika ali na:
112 – Center za obveščanje (za takojšnjo nujno pomoč)
116 123 – Zaupni telefon Samarijan in Sopotnik (24 ur/dan)
116 111 – TOM – telefon za otroke in mladostnike (vsak dan med 12. in 20. uro)


Akt o digitalnih storitvah, ki med drugim izrecno prepoveduje uporabo podatkov mladoletnih uporabnic in uporabnikov za ciljano personalizirano oglaševanje, je po prehodnem 15-mesečnem obdobju 25. avgusta letos začel veljati na celotnem ozemlju Evropske unije. Ali velike spletne platforme upoštevajo nova pravila, so spremenile svoje okolje za mladoletne uporabnice in uporabnike? Je nova regulacija torej spremenila poslovni model zbiranja in preprodaje podatkov mladoletnih uporabnic in uporabnikov in ni le mrtva črka na papirju?

To je izvrstno vprašanje, natanko tisto, ki si ga moramo zdaj zastaviti. Torej, akt o digitalnih storitvah je začel veljati konec avgusta, zato je še prezgodaj govoriti o tem, kakšen je njegov učinek na terenu. Ampak prva znamenja so dobra, zdi se, da Evropska komisija misli resno. To so nam pokazali s pismi, ki so jih objavili v organizacijah te industrije, že zgodaj opravljajo številne preiskave, ves čas zbirajo dokaze in iščejo načine, kako ugotoviti, ali se platforme držijo pravil ali ne. Mislimo, da bo Evropska komisija to zakonodajo resnično peljala do tega, da bo spremenila ta škodljivi poslovni model. Verjamemo, da je to mogoče, saj je Evropska unija zares velik trg. Če Evropska komisija še naprej vztraja pri tem in uveljavljanje zakonodaje jemlje resno ‒ kaže, da jo ‒ je sposobna spremeniti poslovni model tehnoloških gigantov. Verjamemo, da ne samo v Evropi; menimo, da bodo nekatere od sprememb odmevale po svetu.

Torej moramo trenutno le pustiti času čas?

Trenutno moramo res dati času čas, hkrati pa ostati vključeni in še naprej razlagati Evropski komisiji, da je to za nas res pomembno, in še naprej moramo spodbujati spremembe na zelo velikih spletnih platformah, da zagotovimo uveljavljanje akta o digitalnih storitvah.

Če spregovoriva zdaj nekaj besed o poslovnem modelu tehnoloških gigantov. Dataficirani smo od rojstva, no, midve verjetno ne, ampak otroci, ki zdaj odraščajo, pa so. Deljenje svojih podatkov je popolnoma normalizirano, z aplikacijami in napravami ne moremo prav veliko početi, če se ne strinjamo z deljenjem svojih podatkov. Vemo, da se mora to spremeniti, še posebej za otroke in mladostnike, prav zaradi vseh negativnih učinkov, ki jih ima poslovni model nadzorovalnega kapitalizma. Seveda nas o tem, kako poteka trgovina z našimi podatki in ciljano oglaševanje, ni nihče obvestil, vse to se je zgodilo za našim hrbtom, na skrivaj. Kdaj ste vi ugotovili, kaj se pravzaprav dogaja?

To popolnoma drži, zgodilo se je skrivaj, popolnoma prav imate. Osebno pa sem na to težavo postala pozorna, ko sem o njej izvedela od mladih. Moje delo je že od nekdaj osredotočeno na politike na področju otrokovih pravic, zato se ves čas pogovarjam z mladimi z vsega sveta o težavah, ki jih zadevajo. Pred približno desetletjem sem začela opažati razliko. Vsakokrat, ko sem se pogovarjala z njimi, so začeli govoriti o težavah, povezanih z digitalnim in spletnim svetom. Najprej smo se pogovarjali o digitalnem razkoraku ali spletnem ustrahovanju ali številnih drugih težavah. Ampak spletno okolje je postajalo vse pomembnejše, ko sem se z mladimi pogovarjala o tem, kaj se dogaja v njihovih življenjih in njihovih svetovih. Poslovni model, o katerem govoriva, obsega datafikacijo in preprodajanje osebnih podatkov mladih; ko so se začele težave v zvezi s tem poslovnim modelom, so mi pripovedovali, kako neprijetno se ob tem počutijo in da se jim to zdi ogabno. Mislim, da je to odličen izraz za to. Mladi se ne motijo. Samo pomislite, zbiranje podatkov o tem, kje so otroci, vsakih nekaj minut ‒ to počne res veliko aplikacij ‒ je ogabno. Še bolj gnusno pa je, da te podatke prodajajo drugim. Še enkrat, večina aplikacij deli in preprodaja te podatke, to pa omogoča, da otroke bombardirajo z oglasi, in včasih postanejo ranljivi za prevare in podobno. Nihče še ni uporabil boljšega izraza za to, kar se dogaja, kot mladi, s katerimi sodelujem. V resnici gre za gnusno ravnanje, ki so ga izvajali skrivaj, in res smo postali neobčutljivi za to početje, potem pa smo videli, da je Evropska komisija do tega zavzela močno stališče in rekla: veste kaj, to morda počnete že skoraj 20 let, ne da bi nas vprašali, vendar ni sprejemljivo in pripravljeni smo se temu upreti. Sem previdno optimistična in upam, da bomo videli brzdanje tega poslovnega modela.

Kadar se pogovarjam z raziskovalkami in raziskovalci tega poslovnega modela, vedno slišim, da so vsi nekako vedeli, kaj se dogaja. Da so slutili, kako družbeni mediji na primer slabo vplivajo na duševno zdravje mladih deklet. Ko pa je žvižgačka Frances Haugen razkrila, da ti učinki niso kolateralna škoda ali nesrečno naključje, da jih Meta, takrat Facebook, ne le dobro pozna, ampak služi na njihov račun, je to kljub vsemu marsikoga šokiralo. Pa vas? Kako ste se vi odzvali na razkritja Frances Haugen? Ste bili presenečeni, ste bili šokirani ali ste to pričakovali?

Spomnim se, da sem prebrala nekaj dokumentov in slišala delčke pričanja Frances Haugen. Bila sem popolnoma pretresena, hkrati pa prav nič presenečena. Kot ste opisali, vsi smo na neki način vedeli, občutili, da se nekaj dogaja, zaradi škode, ki je nastajala, vedeli smo, za kaj gre. Meni so mladi ves čas pripovedovali, kaj se dogaja, zato sem to vedela in sploh nisem bila presenečena, ko sem videla, da je dokumentirano tako, kot so pokazali Facebookovi dokumenti, ki jih je razkrila Frances. Ampak zame je bilo osupljivo, koliko so te platforme v resnici vedele o teh škodljivih učinkih, kako dobro so jih preučile, v kakšne podrobnosti so šle in kako natančno so vedele, kaj povzroča škodo in kaj so gibala tega kolesja. In kako malo so v resnici storili za to, da bi to preprečili. Takrat je bil obseg razkritij kar prehud, da bi ga lahko prenesli, vrstil se je dokument za dokumentom o tem, da je Facebook vedel šokantne stvari o mladih dekletih in njihovi telesni samopodobi, pa ni ničesar storil. Imeli so pretresljive podatke o mladih in njihovem duševnem zdravju, pa niso spremenili ničesar. Še zdaj, če pogledam nekatere izmed teh dokumentov, ki prihajajo na dan, vsakič izvem kaj novega. Naj navedem primer. Eden izmed dokumentov, ki so jih razkrili pri nekem primeru na ameriškem sodišču kot dokaz, o njem se sicer zelo malo govori, namiguje pa na to, da je Facebook v interni raziskavi odkril, da je 75 odstotkov neprimernih stikov odraslih z mladoletnimi, opisali bi jih z besedo grooming, izviralo iz njegove funkcije, ki ti pokaže ljudi, ki jih morda poznaš, in predlaga, da jih zaprosiš za prijateljstvo. Ta sistem je otroke predlagal neznanim odraslim. In več so ti odrasli zbrali otrok za prijatelje, več jim jih je algoritem predlagal, v smislu: Hej, ti si prijatelj otrok, morda bi bil rad tudi prijatelj tega otroka? Ko o tem govorimo na tak način, ko vemo, da je 75 odstotkov vsega groominga na platformi izviralo iz te funkcije, iz takih predlogov, je vse skupaj osupljivo. Morda se je zdaj ta funkcija, predlogi, da zaprosiš za prijateljstvo tiste, ki jih morda poznaš, spremenila, ampak takrat je v odziv na rezultate raziskave niso spremenili. Kaj naj si človek misli drugega kot »Kako je možno, da je ta platforma s tako lahkoto sprejemala dobičke, tak poslovni model, to, da stvari tako delujejo, in jim dajala prednost pred koristjo otrok?« In čeprav je to šokantno, je v jedru številnih velikih platform, ki še vedno delujejo na evropskem trgu. Še vedno pred vse postavljajo svoje dobičke in to, na kar moramo v tem trenutku misliti, so predvsem regulacija in regulatorji, ki bodo pripravljeni reči: Hej, veste kaj, kar je preveč, je preveč. Nehajte.

Nismo gledali vsebin, ki spadajo v sivo območje, s tem mislim, da lahko sprožijo določene občutke ali da morda ne bi želeli, da jih vidijo vaši otroci, ali da obstajajo razprave o tem, koliko so v resnici take vsebine škodljive. Ne. Raziskovali smo res najbolj škodljive vsebine, zato so rezultati naših eksperimentov še toliko bolj šokantni. Gledali smo vsebino, ki prikazuje, kako se ubiti, gledali smo vsebino, ki spodbuja mlade, da se samopoškodujejo, gledali smo, kako tako imenovani trenerji, ki spodbujajo k anoreksiji, oglašujejo svoje storitve mladim. Iskali smo torej vsebine, ki jih ne bi smel videti nihče, kaj šele otroci.

dr. Rys Farthing

Ampak ali ni to nekako tragično, ko pa se je vsak dogovor o samoregulaciji, ki so ga sprejele velike industrije s politiko, vedno sfižil? Zakaj so mislili, da bo tokrat drugače, da se bodo tehnološki giganti samoomejevali v korist uporabnic in uporabnikov in ne dobička?

Ja, če tako rečete, res je neverjetno naivno misliti, da se bo to zgodilo. Veliko teh velikih platform, bolje bi bilo, da rečem večina, je podjetij, ki kotirajo na borzi, njihove finančne obveznosti so generirati čim več dobička v okviru zakonov. Ideja, da bodo podjetja opustila svoje interese in se odločila, da bodo na prvo mesto postavila pravice otrok, je najmanj čudna in kaže, zakaj potrebujemo močno regulacijo. Brez močne regulacije se platforme ne bodo odzvale.

In prenašanje odgovornosti na starše, ki naj poskrbijo, da bodo otroci varni v digitalnem okolju, da bodo znali poskrbeti zase, torej, da se je ta odgovornost prenesla na kogarkoli drugega kot na platforme, je neverjetno. Platforme bi morale biti odgovorne za svoje izdelke, ne pa uporabnice in uporabniki.

V bistvu vsakič postanem izjemno jezna, ko slišim, da je neka platforma predstavila nov izdelek, recimo novo funkcijo starševskega nadzora ali še en način, kako mladim pomagati upravljati čas, da se ne zataknejo predolgo na njenih izdelkih. Postanem res besna, ko razmišljam o tem. Te platforme ponujajo izdelke, ki naj bi omogočali, da so starši odgovornejši glede tega, kaj mladi počnejo na spletu. Pri tem pa zelo dobro vedo, da so njihovi izdelki pokvarjeni. Ali pa pripravijo omejevanje, npr. to, da mladi dobijo opomnik o tem, da so na platformi preživeli že 60 minut, in vprašanje, ali bi se radi odklopili. Hkrati pa vemo, da uporabljajo algoritme, ki povzročajo zasvojenost in kompulzivna vedenja. Na eni strani tako govorijo, da imajo starši nadzor nad vsem, da uporabniki lahko vse nadzirajo, na drugi pa zelo dobro vedo, da njihovi izdelki niso varni. Gre za zgrešeno prenašanje odgovornosti, ki smo ga predolgo dopuščali. Raziskave so enotne, kažejo, da različne aplikacije starševskega nadzora ne delujejo in da otroci in mladi ne bi smeli biti odgovorni za svojo varnost v sistemu, ki ni varen. Čas je, da platforme prevzamejo odgovornost za svoje izdelke. Do zdaj tega še niso storile. Mislim, da Evropska komisija dela pogumne in dobre korake, ko pravi: Veste kaj, platforme, kar je preveč, je preveč. Popraviti morate svoje sisteme.

Vsakih nekaj mesecev se pojavi nov izdelek, nova tehnologija, nova naprava, o kateri kar nenadoma vsi govorimo in razmišljamo. Predvsem se sprašujemo, kakšne vse so nove priložnosti, ki se nam bodo odprle, ali pa nove nevarnosti, ki se jih bomo morali paziti. Lani je bilo veliko govora o metaversu, letos o velikih jezikovnih modelih generativne umetne inteligence, vse več je tudi naprav, ki vse bolje zlivajo digitalno in realno. Včasih se mi zdi prav smešno, kako veliko energije usmerjamo v razmišljanje o škodi, ki jo utegnejo povzročiti prihodnje tehnologije, aplikacije in orodja, namesto da bi se lotili popravljanja obstoječih. Za katere že vemo, kje so pokvarjene, zakaj škodijo in kako bi jih morali popraviti. Kako to spremeniti?

Mislim, da je vaša analiza točna, res potrebujemo oboje. Potrebujemo vpogled v prihodnje nevarnosti, ki nam jih bodo ponudili. Potopitvene tehnologije, ki združujejo realno in digitalno, utegnejo še okrepiti škodljive učinke, ki jih imajo na primer družbeni mediji, pozorni moramo biti na to. Ampak nima se smisla ukvarjati s tveganji v prihodnosti, ko pa občutimo škodljive posledice danes. In res je veliko podatkov o škodljivih učinkih, ki jih vidimo. Nedavno je izšlo poročilo, ki ugotavlja, da zaradi delovanja družbenih medijev vsak četrti Američan, mlajši od 30 let, verjame, da je holokavst izmišljotina. In potem si misliš: O moj bog, kako je mogoče, da 25 odstotkov mladih Američank in Američanov verjame, da je holokavst laž? Absolutno nam je jasno, da je neverjetno veliko različnih škodljivih učinkov, ki jih mladi danes čutijo zaradi tehnologije, ki dominira v naših življenjih. Na neki način vidimo, da regulacija obstaja. Naj navedem na primer akt o digitalnih storitvah kot primer pogumne in ostre zakonodaje, ki res lahko spremeni stvari, če jo bomo izvajali. Ampak ustaviti mora škodljive posledice, ki jih občutimo danes, da bo lahko tlakovala pot k zmanjševanju potencialno škodljivih tehnologij prihodnosti. Po mojem mnenju je zelo pomembno, da razmišljamo o tem kot o novem modelu. Kot ste povedali, imamo še stari model razmišljanja, tu obstajajo nevarnosti: naj se industrija samoregulira ali pa sodelujmo pri skupnem oblikovanju regulacije, ki bo ublažila škodljive učinke. Videli smo, da to splava po vodi. Glede regulacije zelo velikih platform želimo zdaj z aktom o digitalnih storitvah oblikovati nov model, kakšna naj bi bila taka regulacija in kako bi morala delovati, da bi postala temelj, na katerem bomo gradili prihodnjo. To govorim kot državljanka Avstralije, od tod čuden naglas: v Avstraliji se še naprej trudimo s pristopom prostovoljne regulacije in koregulacije, ko regulatorji sodelujejo z industrijo pri iskanju rešitev. Po vsem svetu je to vsakič znova propadlo, ko govorimo o spletnih storitvah in digitalni ekonomiji. Tak pristop je polomija. Z aktom o digitalnih storitvah se torej učimo, da regulacija deluje, kadar regulatorji digitalizacije predstavijo močno regulacijo, mislijo resno, ko jo je treba izvajati, in so predvidene velike kazni. Pri aktu o digitalnih storitvah je zelo zanimivo, da predvideva izjemno visoke kazni, če platforme ne prilagodijo svojih storitev, da so v skladu s to zakonodajo. Evropska komisija lahko izda kazen v višini 6 odstotkov globalnega prometa. Pri tem ne gre le za dobičke, recimo, poglejmo, koliko smo zaslužili letos v Sloveniji. Ne. 6 odstotkov globalnega prometa. To je zadostna globa, da platforme rečejo: Aha, morda pa je pomembno upoštevati zakonodajo. To je model, ki ga po mojem mnenju potrebujemo, ko se sprašujemo, kako naj vlade po svetu regulirajo prihodnja tveganja v povezavi z umetno inteligenco, potopitvene tehnologije in vse drugo, kar nam bodo servirali.

Povejte kaj več o raziskavi, ki ste jo to jesen opravili pri organizaciji Reset Tech. Točno to vas je zanimalo, kako je torej akt o digitalnih storitvah spremenil poslovne modele tehnoloških gigantov. Lahko prosim razložite, kaj ste raziskovali, katere platforme in kakšno vsebino?

Z velikim veseljem govorim o naši raziskavi. Analizirali smo tri velike platforme, ki delujejo na evropskem trgu, in sicer TikTok, Instagram in X, ki smo ga prej poznali kot Twitter. Na teh platformah smo se osredotočili na vrsto sistemov, ki jih akt o digitalnih storitvah opredeljuje kot pomembne v zvezi s tveganjem za mladoletne. Ogledali smo si sisteme moderiranja vsebine, to so torej sistemi, ki zahtevajo odziv platforme, potem ko določeno vsebino prijavijo, da krši pogoje in pravila uporabe. Včasih to vsebino odstranijo, včasih jo označijo z opozorili, da gre za dezinformacije ali občutljivo vsebino, nekatere platforme pa pravijo, da ustavijo razširjanje vsebine ‒ to pomeni, da onemogočijo algoritmom, da bi vsebino še naprej prikazovali uporabnicam in uporabnikom. Zanimalo nas je torej, ali ti sistemi moderiranja vsebine delujejo, ali platforme res počnejo, kar pravijo. Zanimali so nas tudi sistemi algoritmičnega priporočanja, to je tisto, kar po navadi mislimo, ko rečemo algoritem. Raziskali smo, ali algoritmi platform priporočajo vsebino, ki krši pravila in pogoje uporabe. Še posebno nas je zanimala vsebina, ki promovira motnje hranjenja in samopoškodovalno ali samomorilno vedenje. Ali torej algoritmi te vsebine prikazujejo mladim? Zanimalo nas je tudi, v kako razumljivem jeziku platforme komunicirajo z mladimi uporabnicami in uporabniki. V aktu o digitalnih storitvah je člen, ki pravi, da morajo platforme zagotoviti, da mladi, ki te platforme uporabljajo, razumejo, kaj platforme počnejo in kako delujejo. Raziskali smo zelo preproste stvari, na primer to, ali mlada oseba razume, kaj platforma počne z njenimi podatki, kako oblikuje sistem priporočanja vsebin glede na informacije, ki jih ponuja. Zanimalo nas je tudi, kakšne so varnostne nastavitve. Ali so na primer profili, ki jih na platformah ustvarijo za 16-letne osebe, javni ali zasebni? To so majhne odločitve, ki jih platforme sprejemajo o varnosti mladih in otrok. Nazadnje pa smo preverili tudi oglaševanje. Po mojem mnenju je ena najbolj razburljivih stvari v aktu o digitalnih storitvah preprosta in jasna trditev, da platforme ne smejo uporabljati ciljanega oglaševanja pri otrocih oz. mlajših od 18 let. Lahko jim ponujaš kontekstualne oglase, ne smeš pa neposredno meriti nanje s personaliziranimi vsebinami, ko ugotoviš, kje so njihove šibke točke, in jim ravno v pravem trenutku servirati oglasa. To funkcijo morajo izključiti platforme po vsej Evropi. Preverili smo torej, ali so jo izključili ali ne. Vse te sisteme in procese smo raziskali na teh treh platformah, iskali smo res osnovne ravni skladnosti z zakonodajo. Vse to zahteva akt o digitalnih storitvah, ki je začel veljati pred pol leta; osnutke smo videli že prej in platforme so imele dovolj časa za prilagoditev na te zahteve. Zanimalo nas je torej, ali upoštevajo te omejitve. V tem smislu je bila naša raziskava precej preprosta.

Instagram in X mladoletne v Sloveniji kljub prepovedi ciljata s škodljivimi vsebinami

Ena od držav, v katerih ste opravili raziskavo, je bila tudi Slovenija. Vemo, da se platforme zelo različno obnašajo v različnih kontekstih in jezikih. Twitter je denimo s prihodom na Bližnji vzhod pomagal sprožiti Arabsko pomlad, Facebook pa je bil v Mjanmaru orodje za podpihovanje sovraštva in genocid. To drži. Ni res, da iste platforme v različnih družbenih kontekstih, različnih državah in v različnih jezikih delujejo različno?

Naj najprej povem, da se kot angleško govoreča oseba akutno zavedam, da platforme pogosto zelo drugače delujejo v angleško govorečih okvirih; tudi če jih nastavite na angleščino, delujejo precej drugače. Prav tako so razlike med državami, sistemi moderiranja vsebine od države do države delujejo različno. V naši raziskavi smo obdelali vrsto različnih držav. Torej, testirali smo več platform, več sistemov v več državah. Slovenija je bila ena izmed držav, v katerih smo opravili raziskavo, delno zato, ker vemo, da imate dobre raziskovalce in raziskovalke, delno pa zato, ker se zavedamo, da so razmere v Sloveniji precej drugačne, ko gre na primer za nastavitve jezika. Vsi podporni sistemi, ki so na voljo angleško, nemško ali francosko govorečim uporabnicam in uporabnikom, zelo pogosto niso na voljo slovensko govorečim. Tudi nastavitve zasebnosti so v slovenščini drugačne. To smo torej tudi preverili.

Kako platforme torej znotraj iste zakonodaje, akta o digitalnih storitvah, delujejo v državah Evropske unije? Kaj ste ugotovili za Slovenijo, kako Instgram, X in TikTok torej ščitijo nepolnoletne pred škodljivimi vsebinami na svojih platformah?

Ko smo testirali nastavitve varnosti, je šlo za zelo preprosto testiranje, kakšna je npr. avtomatska nastavitev varnosti glede na starost. Ugotovili smo, da imajo šestnajstletnice in šestnajstletniki na TikToku glede na privzete nastavitve manj zasebnosti kot njihovi sovrstniki in sovrstnice na Nizozemskem. Če si torej na Nizozemskem star šestnajst let in si prvič ustvarjaš profil na TikToku, dobiš zelo jasno opozorilo: Hej, bi želel nastaviti svoj profil na »zasebno«? Zasebnost profila je zelo pomembna, pomaga ti varovati zasebnost in varnost. Škoda, ki jo povzročajo javni profili, je resnična. Prej sem omenila funkcijo predlaganja oseb, ki jih morda poznaš. Ta funkcija ne deluje, če imaš zaseben profil. Zaseben profil zares lahko dobro varuje mlade. Če si torej star šestnajst let in si nameščaš TikTok ter oblikuješ profil, je tvoj profil avtomatično zaseben. Če pa si star šestnajst let in si ustvarjaš profil na TikToku v Sloveniji, ne dobiš tega obvestila, tvoj profil je avtomatično javen. To je le primer, ki kaže, da šestnajst- in sedemnajstletnikom v Sloveniji ni ponujena enaka raven zaščite kot mladim v drugih državah. Ugotovili smo tudi, da TikTok in X, na katerih se moraš strinjati s pravili in pogoji uporabe, preden si lahko ustvariš profil, ne ponujata dokumenta o piškotkih v slovenščini ‒ to je kršitev splošne uredbe o varstvu osebnih podatkov kot akta o digitalnih storitvah. Mlade namreč prosiš, naj potrdijo »strinjam se s pogoji in pravili uporabe«, čeprav niso napisani v njim dostopnem jeziku. Ugotovili smo, da TikTok angleško govorečim mladim, ko se strinjajo s pogoji in pravili uporabe, zelo obširno, s kar šestimi fantastičnimi kratkimi animiranimi videi, razloži, kaj to pomeni, katere podatke zbirajo, kaj počnejo z njimi. V videih poudarijo, da je res pomembno, da to razumejo. Ti videi v slovenščini niso na voljo, ampak samo v treh evropskih jezikih. Platforme se izjemno trudijo, da bi prikazale, da delujejo v skladu s predpisi, ampak to počnejo le na večjih trgih ali večjih državah v Evropski uniji. Številni mladi so tako zelo izpostavljeni nevarnostim, ki jih akt o digitalnih storitvah poskuša preprečiti. Prav tako smo preverili, kaj algoritmi priporočajo mladim. Analizirali smo X in Instagram in preverili, ali sistemi priporočajo vsebine, ki spodbujajo motnje hranjenja in samopoškodovanje mladoletnih. Enega izmed profilov smo preverili v Sloveniji. Ugotovili smo, da te platforme, še posebno X, res priporočajo mladim vsebine, ki spodbujajo motnje hranjenja. To počnejo po vsej Evropi, to imamo dokumentirano. Tudi v Sloveniji.

Na kar moramo v tem trenutku misliti, so predvsem regulacija in regulatorji, ki bodo pripravljeni reči: Hej, veste kaj, kar je preveč, je preveč. Nehajte.

dr. Rys Farthing

Kaj mislite, ko rečete, da ste analizirali vsebine, ki spodbujajo motnje hranjenja, in vsebine, ki spodbujajo samomor in samopoškodovanje? Lahko pojasnite, kakšne vsebine so to?

Seveda. Za številne teste, ki smo jih opravili na platformah, smo morali identificirati vsebino, ki jasno krši pravila in pogoje in pomeni jasno tveganje za mlade. Za preučevanje smo izbrali dve vrsti vsebin, torej tisto, ki spodbuja motnje hranjenja, in tisto, ki spodbuja samomor in samopoškodovanje. Tako smo preverili sisteme moderiranja vsebine, torej to, ali vsebino, ki jo prijaviš platformam, res odstranijo, kot pravijo, da bodo storili, ali jo pustijo pri miru. Glede teh vsebin smo preverjali tudi algoritme priporočanja vsebine. Zanimalo nas je, ali bo algoritem te vsebine priporočal mladim. Ko govorimo o teh dveh vrstah vsebin, spodbujanju motenj hranjenja in spodbujanju samopoškodovanja in samomora, ne govorimo o majhnih stvareh. Ne govorimo o receptih za zdravo prehranjevanje ali nasvetih za hujšanje. Nismo gledali vsebin, ki spadajo v sivo območje, s tem mislim, da lahko sprožijo določene občutke ali da morda ne bi želeli, da jih vidijo vaši otroci, ali da obstajajo razprave o tem, koliko so v resnici take vsebine škodljive. Ne. Raziskovali smo res najbolj škodljive vsebine, zato so rezultati naših eksperimentov še toliko bolj šokantni. Gledali smo vsebino, ki prikazuje, kako se ubiti, gledali smo vsebino, ki spodbuja mlade, da se samopoškodujejo, gledali smo, kako tako imenovani trenerji, ki spodbujajo k anoreksiji, oglašujejo svoje storitve mladim. Iskali smo torej vsebine, ki jih ne bi smel videti nihče, kaj šele otroci. Potem pa smo preverili, kaj se zgodi, če to vsebino prijavimo ‒ ali jih platforme zbrišejo, kot pravijo, da jih. In, šokantno, odgovor je bil ne. Ena platforma, Instagram, je odstranila 30 odstotkov prijavljene vsebine, ki spodbuja anoreksijo in omejevanje hranjenja. Psihologi so preverili vso vsebino, ki smo jo uporabili v tem eksperimentu, in bili so zelo jasni: ta vsebina pomeni tveganje za zdravje otrok. Zbrisali pa so je le 30 odstotkov. To pomeni, da je na platformi ostalo 70 odstotkov teh vsebin. Še bolj šokantno pa je, da je bila to platforma, ki se je najbolje izkazala. Drugje so odstranili le 10 odstotkov vsebin. Twitter oz. X pa ni odstranil nobene vsebine, ki smo jo prijavili. Ugotovili smo torej, da sistemi moderiranja vsebine v resnici ne delujejo. Potem nas je zanimalo, kakšni so sistemi priporočanja, torej, ali bodo platforme take vsebine priporočale otrokom in mladim. Ustvarili smo torej profile, ki so pripadali mladim in otrokom, tudi v Sloveniji, in se vprašali, ali algoritem te vsebine priporoča. Nismo mogli preveriti, kako algoritem deluje na TikToku, naše metode niso bile dovolj jasne, ampak na X-u in Instagramu smo ugotovili: da, sistemi priporočanja vsebine bodo tako vsebino predlagali otrokom in mladim. Ne govorim o vsebini, pri kateri bi rekli: Hm, morda bi bilo bolje, če tega ne bi videli. Govorim o tem, da otroci in mladi dostopajo do vsebin oziroma da jih platforme zasipavajo z vsebinami, ki so krvave, šokantne, ki spodbujajo diete z 200 kalorijami na dan; govorimo o vsebinah, ki res pomenijo tveganje za otroke in mlade. Tega je zelo veliko; platforme te vsebine promovirajo.

Ali torej še vedno drži, da je zapiranje v mehurčke neizprosno? Ne le, da mladi te škodljive vsebine vidijo, platforme jim jih ponujajo vse pogosteje in pogosteje.

Res je. Naredili smo samo en preizkus na omrežju X, saj je bila to raziskovalna metoda, ki smo jo imeli na voljo. Zanimalo nas je, kako X okrepi vsebine, ki so označene s ključniki. Npr. vsebino, ki je imela ključnik telesna pozitivnost, v primeri z vsebino s ključnikom "shed", to je okrajšava za "self-harm and eating disorders", samopoškodovanje in motnje hranjenja. Zanimalo nas je, kateri ključnik X bolj spodbuja. In pozor, pozor, njegov algoritem sistematično bolj spodbuja vsebino s ključniki, ki označujejo za duševno zdravje potencialno škodljive vsebine za nevtralne. Drži, kar pravite: ne le, da te vsebine obstajajo, mladim jih prikazujejo vedno pogosteje. In lahko jih vidite, kako padejo v te zajčje luknje, ko si kar naprej ogledujejo škodljive vsebine, in to je res skrb vzbujajoče.

Veliko se razpravlja o tem, kako škodljiv je v resnici TikTok. Nekje sem slišala primerjavo, da če je Instagram kokain, je TikTok crack. Kaj ste ugotovili v raziskavi, je v resnici res najslabši?

Veste kaj, to je tako dobro vprašanje, ljudje me to ves čas sprašujejo. Odgovor je: Pravzaprav sploh ne. Vsaka zelo velika spletna platforma, ki smo jo testirali, ima specifične škodljive učinke, ki smo jih identificirali, veliko je različnih dejavnikov. TikTokov algoritem je znan po tem, da spodbuja kompulzivno rabo, ki pri mladih ustvarja vzorce, primerljive z zasvojenostjo. To se vsakič znova potrdi. Vedenja, ki zasvoji, pravzaprav nismo mogli preveriti na nobeni platformi, saj take raziskovalne metode še ne obstajajo. Prav zdaj pripravljamo raziskavo, ki bo, upamo, izšla v začetku prihodnjega leta in bo omogočila, da testiramo, kako značilnosti in funkcionalnosti platform ustvarjajo kompulzivne rabe mladih, potem pa bomo raziskali, kako je to razširjeno. Torej, prizadevamo si, da bi povezali vedenje platform z zasvojenostjo pri mladih. Ampak vsaka mlada oseba, s katero se pogovarjamo, in vsak oče ali mama, s katero govorimo, nam pove, da TikTok pri mladih ustavi čas, da razkriva vsa znamenja kompulzivne rabe. Ko pri TikToku preveriš, kako moderira vsebino, kako regulira svoj algoritem, pa vidiš, da ima boljše varovalke za to dvoje. Vidimo, da vsaka velika spletna platforma ustvarja sistematična tveganja za mlade, razlikujejo se glede na to, kakšno storitev ponujajo in kakšen je njihov poslovni model. Upam, da bodo posamične ocene tveganja, ki jih mora opraviti vsaka platforma v odgovor na akt o digitalnih storitvah, platforme spodbudile, da se bodo vprašale: Kakšne so specifične škodljive posledice našega specifičnega izdelka? in dovolile Evropski komisiji, da se odzove glede na posamične primere.

V Sloveniji sta priljubljeni omrežji med mladimi tudi Viber in Snapchat. Teh niste raziskovali, pa mi lahko vseeno kaj poveste o tem, kakšne so tu nevarnosti?

V naši raziskavi nismo preverjali aplikacij Snapchat in Viber. Ampak preden smo se odločili, katere aplikacije in platforme bomo raziskovali, smo preverili tudi ti dve. Pri Snapchatu smo si ogledali, kako dostopni so varnostne funkcije in orodja za varstvo zasebnosti v slovenščini in seveda, veliko teh orodij in storitev ne predstavlja pogojev in pravil uporabe v slovenščini. Vemo, da je težava tudi dostopnost na teh platformah, širše gledano pa bi rekla, da so v istem poslovnem modelu. To pomeni: Pridobi čim več podatkov in jih spravi v denar. Če je to jedro poslovnega modela, je zelo težko prednostno obravnavati koristi otrok.

Kaj je torej naslednji korak? Vemo, da velike platforme ne spoštujejo nove regulacije, še vedno zbirajo in hranijo podatke o mladoletnih, da jih lahko prodajajo in z njimi ciljano oglašujejo izdelke in storitve. Kako to spremeniti, kako prisiliti velike spletne platforme, da se spremenijo?

Z velikim veseljem odgovorim na to vprašanje. Širše gledano mislimo, da je to res poziv Evropski komisiji, naj začne uveljavljati zakonodajo. Kot državljani in tudi kot regulatorji preprosto ne moremo sprejeti, da platforme še vedno ne izpolnjujejo zahtev in so še vedno na istem mestu, ko gre za ta vprašanja. Obstajati mora resnična nevarnost, da dobijo globo, 6 odstotkov letnih globalnih prihodkov, o katerih sem govorila, če takoj ne popravijo očitnih težav z varnostjo izdelkov. Na eni strani ne smemo izgubljati časa ‒ kaj je pomembnejše od varnosti naših otrok in mladih? Platforme so imele zelo veliko časa, da rešijo te osnovne težave, ki smo jih razkrili z eno samo raziskavo. Ne zadošča, da ukrepanje prepuščamo njim in se zanašamo na njihovo dobro voljo. Čas je, da regulatorji udarijo po mizi in rečejo: "Veste kaj, to morate popraviti, ali pa boste izgubili precej denarja."

Če vas torej prav razumem, je naslednji korak, da Evropska komisija zagrozi z denarno kaznijo, kot je zapisala v zakonodaji? Če tega ne boste upoštevali, vas čaka kazen. Ampak, kako jih prisiliti, da plačajo?

Tako je, vse druge načine, kako to spremeniti, smo že preizkusili. Ljudje pogosto govorijo o poškodovanem ugledu ‒ pravijo, da je to tisto, kar poganja spremembe. Te platforme nimajo nobenega ugleda več, družbeni mediji so industrije, ki jim najmanj zaupamo, še posebno v Evropi. Poškodba ugleda ne bo ničesar spremenila. Tudi grozeča pisma, da morajo upoštevati novo zakonodajo, ne delujejo. Vidimo, kako se vede X ‒ počne, kar želi, razen če obstaja resnična grožnja s finančnimi kaznimi. V takem svetu pač živimo, mislim da se je Evropska komisija spametovala in zelo se veselimo, da bomo v letu 2024 videli, kako bo uporabila nove moči, da bodo platforme odgovarjale.

Kaj pa Google, se dovolj pogovarjamo o njem? Najin pogovor se je vrtel predvsem okrog družbenih medijev, ok, tudi Youtube je neke vrste družbeni medij, ampak zdi se mi, da bi se o tem spletnem gigantu lahko pogovarjali več. Se strinjate?

Tako je, prav imate in stvar, ki ji akt o digitalnih storitvah posveča pozornost, poleg zelo velikih spletnih platform ‒ omenili ste Youtube, tu so tudi TikTok in vse druge, ki jih poznamo ‒ so tudi zelo veliki spletni iskalniki, med katerimi je tudi Google. Nanje se v naši raziskavi nismo osredotočili, sem pa optimistična glede tega, da bomo v prihodnjem letu videli nekaj dogajanja v zvezi z velikimi spletnimi iskalniki, saj sta potencialna škoda in potencialno tveganje, ki ju pomenijo za otroke in mlade, pa tudi za vse druge, prav tako resnična in nujno je, da ju ne spregledamo.

Doktorica Rys Farthing, v začetku tega najinega pogovora ste povedali, da največ informacij o mladih in digitalnem okolju dobite prav od njih. Ne moremo pričakovati, da se bodo zaradi vseh škodljivih učinkov odklopili. To danes kmalu za nikogar več ne bo mogoče, vse bomo imeli najprej vsak na svojem pametnem telefonu in pozneje na kakšni drugi napravi. Kaj so vam povedali mladi? Česa si oni želijo, kako si želijo ostati povezani? Kaj jih najbolj moti, česa jih je strah, in ne nazadnje, kaj pa jih radosti in veseli?

Zelo dobro je, da govorimo o tem. Strinjam se z vami, da se moramo začeti pogovarjati o tem, kaj si mladi želijo. Hkrati pa moramo razumeti, da odklapljanje in neuporaba teh storitev zanje ni izbira. Predvsem v ZDA vidimo, da sprejemajo regulacijo, ki želi prepovedati mladim uporabo družbenih medijev ali povečati nujnost soglasja staršev do osemnajstega leta, ko ne bodo več odločali o tem, ali se mladi lahko priklopijo ali ne, in to je popolnoma napačen pristop. Skoraj smo že v letu 2024, to so izdelki in storitve, ki jih mladi uporabljajo vsak dan in jih pogosto tudi morajo. Če si član športne ekipe, kako boš izvedel, kje se dobite? Vemo, da te stvari objavljajo na spletu. Ti izdelki so tako močno integrirani v način, kako svet deluje. Naj dam še primer: v Avtraliji imamo opozorilo pred požari, ki je nujno, da preživimo. Smo država, ki jo požari zelo ogrožajo. Naša opozorila o požarih delujejo na družbenih medijih. Ne moremo pričakovati, da se bomo odklopili od njih, tudi otroci in mladi ne, še posebno oni. Zato se moramo potruditi, da bodo ti izdelki delovali v njihovo korist. V Sloveniji je organizacija Vsak nedavno opravila raziskavo s 15 tisoč mladimi o tem, kaj si želijo, da se zgodi v spletnem okolju. To je ena največjih raziskav, kar sem jih videla, pa delam na področju digitalne regulacije in mladih že celo večnost. Ne spomnim se, da bi kdaj videla raziskavo, ki bi vključevala tako veliko mladih povsod na svetu. In ti mladi so imeli 17 jasnih prošenj v zvezi s spremembami tehnoloških platform. Poročilo je na spletu, ne bom prebrala vseh 17 prošenj mladih, vas pa spodbujam, da jih preberete, saj so izredno inteligentne in premišljene. Ampak prve tri, najpomembnejše, so: prvič, minimalizacija zbiranja podatkov. Govorili so o tem, da si želijo manj zbiranja njihovih osebnih podatkov. Zavedajo se, da se vsakič, ko pogledajo na splet, vsakič, ko odprejo aplikacijo, zbirajo informacije o njih, jih analizirajo in uporabljajo. Želijo si, da bi se to manj dogajalo. To še posebej velja za podatke o lokaciji. Zavedajo se, kako pogosto aplikacije in spletne strani zbirajo GPS-lokacije s telefonov in ustvarjajo zbirke podatkov o tem, kje so mladi, kam gredo in kje so bili. Mladi živijo v popolnoma drugačnem svetu, kar poskusite se spomniti, kako je bilo, ko ste odraščali. Ko sem sama odraščala, so me odrasli ves čas opozarjali na nevarnost neznancev, "stranger danger", in na to, kaj storiti, če te kdo zasleduje, če te zasleduje avtomobil ali kaj podobnega. To je ustvarilo občutek ranljivosti, ker sem bila otrok. Zdaj pa nam otroci sporočajo, da jih je strah, ker jih aplikacije zasledujejo, fizično zasledujejo, in želijo si, da bi to omejili. Mislim, da je to zelo razumna in lahko uresničljiva želja. Drugo, kar si mladi želijo, je boljša varnost podatkov. Zavedajo se, da zbiranje podatkov odpira pot za zlorabo, neprimerno rabo, pa tudi krajo. In zato so izjemno živčni. Vse njihove zasebne informacije, vse podrobnosti, bi lahko nekdo ukradel, pa za to morda sploh ne bi vedeli. Če se spet spominjam sebe v mladosti, ko sem najbolj zasebne stvari pisala v dnevnike ­‒ se spomnite, da smo v osemdesetih imeli dnevnike z okraski in rožicami ‒ je bila njihova najbolj prepoznavna značilnost, kar se jih spomnim, to, da so vsi imeli ključavnico. In tega si ljudje želijo: da so njihove zasebne informacije zavarovane. To spada k temu, da si mlad, in mislim, da bi mladi morali imeti pravico do tega. Tretje, kar mladi želijo, pa je tako modro ‒ to so rekli sami ‒ želijo si skrajšati čas hranjenja podatkov. Zavedajo se, da kadar podjetja hranijo podatke, jih pogosto ne izbrišejo več. Hranijo celo podatke o tem, kje je bil kdo pred sedmimi leti. Ta misel, da se podatki lahko hranijo predolgo, je za mlade še posebno problematična. Mislim, da odrasli o tem ne razmišljajo. Na začetku tega intervjuja sva omenili, da se zbirajo podatki o mladih že pred njihovim rojstvom. Imamo tehnologijo, ki zbira podatke o bitju srca v maternici, ljudje na družbenih medijih objavljajo fotografije ultrazvoka, podatki o njih se zbirajo, še preden se rodijo. Od njihovega prvega diha se njihovi podatki zbirajo, sledijo in shranjujejo. Ko torej govorimo o tem, da predolgo hranimo podatke, nam mladi sporočajo, da so vsa njihova življenja, od prvega koraka, nekje shranjena. In to jih straši. Ko bodo stari 18 let, ne bodo osramočeni le zato, ker bodo njihovi starši na rojstnodnevni zabavi pripovedovali zgodbe iz njihovega otroštva, kot je očitno svetovna tradicija. Vsakič, ko kdo dopolni 18 ali 21 let, začne kdo pripovedovati mučne zgodbe o tem, kaj je počel kot otrok. Ni več treba, da se to zgodi, saj lahko vsako podjetje na svetu preprosto kupi vse vaše podatke iz obdobja, ko ste bili še dojenček. In to mlade straši, zato si želijo omejitev časa, v katerem se lahko hranijo podatki. Če razmislimo o teh treh prošnjah mladih, vidimo, da so izjemno razumne, lahko jih izpolnimo, regulacija se premika v to smer. Hkrati pa nam to pomaga tudi razumeti, kako doživljajo digitalizacijo v spletnem okolju. In res je šokantno, ko pomislimo, kaj mlade danes skrbi. Zato vas spodbujam, da poiščete to poročilo in preverite, kako mladi v Sloveniji razmišljajo in česa vsega si želijo. To lahko spremenimo; vidimo, da se dogajajo spremembe, in to je otrokom in mladim izjemno pomembno.

Za konec tega pogovora po poglejva v prihodnost. Evropska komisija, Svet Unije in Parlament so potrdili akt o umetni inteligenci, ki naj bi ga dokončno sprejeli prihodnje leto. Kako razmišljate o tej regulaciji? Je dovolj dobra, da bo zaščitila otroke in mlade pred nevarnostmi, ki se jih pravzaprav še ne zavedamo?

Mislim, da je to tako dobro vprašanje, o tem sva malo prej govorili. Izdelki, ki nam jih bodo servirali, imajo škodljive posledice, zato moramo ves čas z enim očesom spremljati dogajanje. Ampak to ne bo popravilo težav, ki jih imamo danes, tveganja, s katerim se otroci in mladi prav zdaj spoprijemajo. Zdaj začenjamo spoznavati, kaj zmore generativna umetna inteligenca. Pričakujemo, da bo raba eksplodirala, podobno bo s potopitvenimi tehnologijami. Z njimi šele eksperimentiramo, ampak vsekakor se lahko razširijo. Zato moramo začeti razmišljati o tem, kako bomo regulirali umetno inteligenco. In začeti moramo razmišljati tudi o tem, česa smo se naučili pri aktu o digitalnih storitvah, ki nas lahko informira pri našem pristopu k umetni inteligenci. To je res nujno. Ampak to nas ne sme zmotiti pri tem, da vidimo resnično škodo, ki se že danes godi otrokom in mladim. Lahko hkrati hodimo in žvečimo žvečilni gumi, oboje moramo početi, saj nas akt o umetni inteligenci ne bo rešil že danes. Moramo se začeti ukvarjati s tveganjem, s katerim se otroci vsak dan soočajo, kadar vzamejo v roke pametne telefone.