Social network

Challenge e bufale online, le contromisure di TikTok per difendere gli adolescenti

Il social network rafforza le difese contro sfide, autolesionismo e altri comportamenti pericolosi: nascono da bugie e falsità, ma hanno effetti veri e concreti nel mondo reale
3 minuti di lettura

I casi più noti ed eclatanti sono quelli di Blue Whale e Blackout, di cui si scrisse tantissimo fra 2017 e 2019: erano quelle che gli inglesi chiamano online hoax, cioè bugie, bufale, falsi miti che grazie a Internet si propagano in maniera difficilmente controllabile. Sono cose che nel mondo reale magari non esistono, ma che nel mondo reale hanno conseguenze concrete e pericolose: adolescenti spinti al suicidio o sfidati a privarsi dell’ossigeno sino a morire.

Il problema, con le online hoax, è proprio questo: sono bugie, e alla fine si finisce per capire che sono bugie, ma è complicato fermarne la diffusione e resistere alla tentazione di provare. Soprattutto per i teenager. È un problema per i social network ed è un problema soprattutto per quelli frequentati dai giovanissimi, come TikTok. Per questo, la piattaforma ha pensato ad alcuni strumenti per contrastare le challenge che si basano su questi fenomeni e di solito si manifestano attraverso un hashtag che le raggruppa, come appunto #BlueWhale o #Blackout oppure ancora, per citare un caso positivo, #IceBucketChallenge (video).

La ricerca su oltre 10mila persone
Alexandra Evans, responsabile europea della Safety Public Policy di TikTok, ha spiegato che per metterli in piedi, il social network ha condotto un’indagine su oltre 10mila persone in Argentina, Australia, Brasile, Germania, Italia, Indonesia, Messico, Regno Unito, Stati Uniti e Vietnam per capire quali fossero le origini dei problemi e le loro conseguenze. Partendo da un presupposto, confermato dal dottor Richard Graham, psichiatra clinico infantile, e dalla dottoressa Gretchen Brion-Meisels, scienziata comportamentale: “L’adolescenza è un periodo che è da sempre associato a un’elevata assunzione di rischi”. Resta da capire come e quanto i teenager siano in grado di valutare il rischio delle challenge cui vogliono provare a sottoporsi e come gli adulti possano aiutarli a capire ed eventualmente proteggerli.

Dallo studio è emerso che per quasi la metà degli adolescenti (il 48%) le challenge trovare online sono percepite come “sicure” e sono state definite “divertenti o spensierate”, il 32% le ha trovate “associate a un certo rischio”, il 14% le ha descritte “rischiose e pericolose”, il 3% “molto pericolose” e lo 0,3% degli intervistati ha dichiarato di avere preso parte a una challenge che considerava pericolosa. I numeri sembrano confortanti, ma c’è un altro aspetto positivo: dalla ricerca è venuto fuori che prima di prendere parte a una challenge i ragazzi cercano di comprendere i rischi, guardando video di altri partecipanti, leggendo i commenti sui social e parlando con gli amici. E però, quasi la metà del campione (il 46%) ha detto che vorrebbe “maggiore disponibilità di informazioni valide sui rischi” e “sulle attività estreme”.

Qui nasce l’altro problema con le online hoax e le challenge che ne derivano, cioè il cosiddetto rischio emulazione, che mette gli adulti in una difficile posizione: meglio parlarne con i propri figli o con i propri studenti, rischiando di suscitare la loro curiosità, o meglio sorvolare? Rispondere è complicato: più della metà dei genitori consultati da TikTok (il 56%) ha dichiarato di “non affrontare una discussione riguardo a un contenuto sull’autolesionismo” se non viene introdotto prima dal minore e il 37% ritiene che sia “difficile parlarne senza suscitare allo stesso tempo un interesse negli adolescenti”.

Che cosa cambierà su TikTok
Per questo, il social network cinese (fa capo al colosso ByteDance), che già rimuove le clip che contengono bufale che potrebbero portare a comportamenti autolesionistici, ha deciso di fare di più: “Elimineremo anche i contenuti allarmistici che, trattando come reali i contenuti ingannevoli e le bufale, possono essere dannosi - ha spiegato Evans - Invece, continueremo a consentire le conversazioni che cercano di eliminare il panico e promuovere informazioni accurate”. Non solo: “Abbiamo ampliato l’utilizzo della tecnologia (TikTok usa anche l’intelligenza artificiale per la moderazione dei contenuti) per segnalare ai team di sicurezza i picchi improvvisi di contenuti illeciti associati a determinati hashtag, oltre a cogliere comportamenti potenzialmente pericolosi”. Un esempio è quello di #FoodChallenge: in genere è usato per condividere ricette, ma in caso di un aumento di contenuti illeciti associati a questo hashtag (come sfide a chi mangia di più, a chi non mangia, a chi mangia solo determinati cibi e così via), “indagheremo le cause e intraprenderemo misure per prevenire la presenza di contenuti potenzialmente dannosi”.

Infine, “con la collaborazione del dottor Graham e della dottoressa Brion-Meisels, abbiamo reso più efficace il linguaggio usato nei messaggi di avviso visualizzati quando si cercando contenuti relativi a sfide pericolose o bufale” e “un nuovo messaggio incoraggia a visitare il Centro Sicurezza (si raggiunge da qui, ndr) per saperne di più e, nel caso di bufale associate a suicidi o autolesionismo, verranno visualizzate ulteriori risorse anche nella ricerca”. Che sono queste, per ora solo in lingua inglese.

Tutto questo tenendo sempre presente, come su Italian Tech abbiamo già ricordato, che le IA, la tecnologia, i consigli e le linee guida possono arrivare solo sino a un certo punto: per proteggere i più giovani dai pericoli della Rete, che ci sono e non vanno sottovalutati, serve l’aiuto di genitori e insegnanti. Che devono esserci e fare sentire la loro presenza.