Web Analytics
Korisnik društvenih medija za BBC: 'Prljaju mi mozak' - BetaRS

Korisnik društvenih medija za BBC: 'Prljaju mi mozak'

Tehnologija | Izvor: Beta | 02.09.2024 | access_time 14:55
Korisnik društvenih medija za BBC: 'Prljaju mi mozak'
Šesnaestogodišnji Kai je 2022. sa 16 godina počeo da skroluje na svom telefonu i "niotkuda" su mu preporučeni video-snimci teških saobraćajnih nesreća, monolozi influensera s mizoginim stavovima i snimci tuča, piše BBC.

U Dablinu, Endru Kaung je u to vreme radio kao analitičar za bezbednost korisnika TikToka i ispitao je koji sadržaj u Velikoj Britaniji preporučuju algoritmi aplikacije, uključujući i 16-godišnjake. Otkrio je da se nekim tinejdžerima prikazuju postovi nasilja i pornografije i promovišu mizoginisti stavovi, rekao je on za BBC. S druge strabe, tinejdžerkama su preporučivani veoma različiti sadržaji na osnovu njihovih interesovanja.

TikTok i druge kompanije društvenih medija koriste alate AI za uklanjanje velike većine štetnog sadržaja i za slanje sumnjivog sadržaja za pregled moderatorima - ljudima. Ali ti alati ne mogu da identifikuju sve.

Kaung kaže da bi svi video snimci koje AI nije uklonio s TikToka, ili ih je poslao moderatorima, kao i drugi koje su moderatorima prijavili korisnici, bili pregledani tek ako broj broj pregleda dostigne određeni prag - jedno vreme je to bilo više od 10.000.

Plašio se da to znači da su neki mladi korisnici izloženi štetnim video-snimcima tim pre što im većina velikih kompanija društvenih medija dozvoljava da se prijave već sa 13 godina.

TikTok kaže da 99 odsto sadržaja koji uklanja zbog kršenja njegovih pravila, uklone AI ili moderatori pre no što dostignu 10.000 pregleda. Takođe kaže da istražuje i video-snimke s manje pregleda od toga.

Kada je prethodno, 2019-2020, radio u Meti koja ima Instagram i Fejsbuk, Kaung kaže da je postojao drugačiji problem: iako je većina video-snimaka uklanjena ili se slala moderatorima pomoću AI alata, sajt se ipak oslanjao na korisnike da prijave problematične video-snimke.

Kaže da je u obe kompanije izrazio zabrinutost, ali je naišao na nereagovanje zbog straha od količine posla i troškova, mada je kasnije bilo nekih poboljšanja u TikTok-u i u Meti, ali kaže da su mlađi korisnici, kao što je Kai, ipak bili u opasnosti.

Nekoliko bivših zaposlenih u kompanijama društvenih medija reklo je za BBC da su i oni zabrinuti kao i Kaung i da imaju sličnog iskustva s tim.

Algoritmi svih velikih kompanija društvenih medija nenamerno preporučuju deci štetan sadržaj, kaže britanski regulator Ofcom za BBC.

"Kompanije su zatvarale oči i tretirale su decu kao i odrasle", rekla Almudena Lara, direktorka Ofcom za razvoj politike bezbednosti na mreži.

TikTok je rekao Bi-Bi-Siju da ima "vodeća" bezbednosna podešavanja za tinejdžere i da više od 40.000 ljudi radi na zaštiti korisnika. Izjavili su da samo ove godine očekuju da će uložiti "više od dve milijarde dolara u bezbednost" i da preventivno, pre bilo kakve prijave, nalaze 98 odsto sadržaja koji uklanjaju zbog kršenja svojih pravila.

Meta koja je vlasnik Instagrama i Fejsbuka, kaže da ima više od 50 alata, resursa i funkcija za pružanje tinejdžerima "pozitivnog iskustva koje odgovara tom uzrastu".

Kai je za Bi-Bi-Si rekao da je pokušao da koristi jedan od Instagramovih alata i sličan alat TikTok-a da bi označio da ga ne zanima nasilni ili mizogini sadržaj, ali i dalje dobija takav sadržaj.

"Kad jednom dobiješ sliku u glavi, ne možeš da je izbaciš. To prlja mozak, to ostaje", rekao je on.

Devojkama istih godina koje on poznaje, preporučeni su video-snimci o muzici i šminki, a ne o nasilju, kaže on.

Kai kaže da je primetio da su video-snimci s milionima lajkova ubedljivi za mlade njegovih godina, te je tako jedan od njegovih prijatelja, uvučen u sadržaj kontroverznog influensera, počeo da prihvata mizogine stavove, te je došlo do toga da je morao da prijatelju objašnjava o čemu se tu radi.

Po analitičaru Endru Kaungu, "gorivo" algoritama je angažovanje, bez obzira da li je pozitivno ili negativno. To bi delimično moglo objasniti zašto nisu radili Kaiovi napori da se ponaša po algoritmima.

Prvi korak za korisnike je da navedu interesovanja kada se registruju. Endru kaže da je deo sadržaja koji su algoritmi prvobitno servirali, recimo, 16-godišnjaku, zasnovan na preferencijama drugih korisnika sličnog uzrasta na sličnom mestu.

Mada TikTok kaže da algoritmi ne znaju pol korisnika, Endru je rekao da interesovanja tinejdžera automatski dovode do podele po rodnim linijama.

Taj bivši službenik TikTok-a kaže da bi neki 16-godišnji dečaci mogli biti odmah izloženi nasilnom sadržaju jer su drugi tinejdžeri sa sličnim preferencijama izrazili interesovanje za tu vrstu sadržaja, čak i ako nisu rekli i da ih to privlači, već je sam program samo registrovao da provode više vremena na takvim video-snimcima.

On kaže i da su interesovanja koja su mnoge tinejdžerke navele u profilima - "pop pevačice, pesme, šminka", sama po sebi značila da im nije preporučen nasilni sadržaj.

On kaže da algoritmi koriste "učenje s pojačanjem" - sistemi veštačke inteligencije "uče" na osnovu pokušaja i grešaka i obučavaju se da otkriju ponašanje po različitim video-zapisima.

Endru Kaung kaže da su sistemi projektovani tako da maksimiziraju angažovanje time što pokazuju video-snimke za koje očekuju da će ih korisnik duže gledati, komentarisati ili lajkovati - sve da bi se vratio po još.

Algoritam koji preporučuje sadržaj na TikTok-ovoj stranici "Za tebe", kaže on, ne pravi uvek razliku između štetnog i neštetnog sadržaja.

Po Endrjuu, jedan od problema koji je identifikovao dok je radio u TikToku bio je taj što timovi uključeni u obuku i kodiranje tog algoritma nisu uvek znali prirodu video-zapisa koje je program preporučio.

"Oni vide broj gledalaca, godine, trend, što sve proizlazi iz veoma apstraktnih podataka", kaže taj bivši analitičar TikToka.

Zbog toga su 2022. godine on i njegov kolega odlučili da pogledaju koje vrste videa se preporučuju nizu korisnika, uključujući i neke 16-godišnjake i zabrinulii su se zbog nasilnog i štetnog sadržaja koji se servira tinejdžerima, te su i predložili TikToku da ažurira svoj sistem moderiranja.

Želeli su da TikTok jasno označi video-snimke da bi svi koji tamo rade mogli da vide zašto su štetni: ekstremno nasilje, zlostavljanje, pornografija, i da angažuju više moderatora specijalizovanih baš za te oblasti. Endru kaže da su njihovi predlozi odbijeni.

TikTok kaže da je u to vreme imao specijalizovane moderatore i, kako je ta platforma rasla, zapošljavao ih je sve više. Takođe je rečeno da je razdvojio različite vrste štetnog sadržaja za kjoje je zadužio grupe moderatora.

Endrju Kaung kaže da je iznutra, u TikTok-u i Meti, bilo teško napraviti promene za koje je mislio da su neophodne jer time "tražimo od privatne kompanije čiji je interes da promoviše svoje proizvode, da se umeri, kao da od tigra tražite da ne jede meso".

On smatra da bi životi dece i tinejdžera bili bolji kada bi prestali da koriste svoje pametne telefone.

Ali za Kaia zabrana telefona ili društvenih medija za tinejdžere nije rešenje. Njegov telefon je sastavni deo njegovog života, važan način ćaskanja s prijateljima, za orijentaciju napolju i za plaćanje.

Umesto toga, on želi da kompanije društvenih medija više slušaju šta tinejdžeri ne žele da vide. On želi da kompanije učine efikasnijim alate koji omogućavaju korisnicima da to izraze.

"Osećam se kao da kompanije društvenih medija ne poštuju naše mišljenje sve dok im to donosi novac",  rekao je Kai.

U Velikoj Britaniji, novi zakon će primorati kompanije društvenih medija da provere uzrast dece i zaustave sajtove koji pornografiju ili druge štetne sadržaje preporučuju mladima. Britanski medijski regulator Ofcom je zadužen da to sprovede.

Almudena Lara, Ofcom-ova direktorka za razvoj politike bezbednosti na mreži, kaže da, iako su štetni sadržaji koji pretežno pogađaju mlade žene - video-snimci posledica poremećaja u ishrani i samopovređivanja, s pravom bili u centru pažnje, ali manje pažnje su dobili algoritamski putevi koji izazivaju mržnju i nasilje uglavnom među dečacima i mladićima.

"Manjina dece biva izložena najštetnijem sadržaju, ali znamo da kada jednom budete izloženi tom štetnom sadržaju, on postaje neizbežan", kaže Lara.

Ofcom kaže da može da kažnjava kompanije i da može da pokreće krivično gonjenje ako one ne urade dovoljno, ali to će stupiti na snagu tek iduće, 2025. godine.

Teme