Perché l’algoritmo di TikTok continua a proporre sesso e droga ai minorenni

Perché l’algoritmo di TikTok continua a proporre sesso e droga ai minorenni

Un recente esperimento giornalistico del Wall Street Journal ha permesso di evidenziare una falla nell’ intelligenza artificiale di TikTok che di fatto ripropone la questione della tutela dei minori nel social network cinese, estremamente popolare fra i giovanissimi.

Il tema è interessante anche alla luce del recente intervento del Garante Privacy su TikTok, in avanguardia in Europa.

Indice degli argomenti Sesso e droga su TikTok L’esperimento del Wall Street Journal Le misure adottate da TikTok a tutela dei minori La soluzione di Youtube Le prospettive di TikTok

Sesso e droga su TikTok

L’esperimento del Wall Street Journal dimostra che è possibile “orientare” l’algoritmo di TikTok verso contenuti per adulti e che parlano di droga nonostante il profilo di partenza sia un profilo in cui l’età impostata è quella di un minorenne.

Quella che per l’azienda potrebbe essere considerata una feature (è l’utente che spinge volontariamente l’algoritmo verso contenuti ammiccanti) rappresenta in realtà la dimostrazione del fatto che il social network ha un atteggiamento passivo nei confronti della tutela dei minori e che non interviene se non costretto a suon di sanzioni e/o pubblicità negativa.

Da qualche mese TikTok sta infatti facendo ( obtorto collo ) molteplici sforzi per rispondere alle critiche (e alle sanzioni e provvedimenti interdittivi) che sono piovute sul social network da parte di varie autorità (nel vecchio continente ad agire sono state soprattutto le Autorità garanti privacy) per una serie di problematiche nella gestione della piattaforma e che principalmente riguardano il suo utilizzo da parte di giovani e giovanissimi.

L’esperimento del Wall Street Journal

Il Wall Street Journal ha registrato vari bot su TikTok, impostando l’età in una fascia compresa tra i 13 e i 15 anni.

I bot hanno poi iniziato a visualizzare contenuti, soffermandosi su contenuti ammiccanti o per adulti (da OnlyforFans) o a fare ricerche specifiche. L’algoritmo di TikTok ha fatto il suo lavoro, ovvero ha “pescato” contenuti simili (e progressivamente più ammiccanti) a quelli guardati per intero, commentati o “piaciuti” per proporli all’utente. In breve tempo lo scroll di quell’utente era inondato di contenuti osé o che parlavano di droga.

L’algoritmo che gestisce la pagina “ Per Te ” di TikTok è il punto di forza del social network perché consente all’utente di non dover andare a cercare contenuti, proponendogli invece un flusso praticamente infinito di video in linea con quelli che l’utente ha apprezzato in precedenza. Una precedente inchiesta del WSJ ha stabilito che TikTok tiene in considerazione molto soprattutto il tempo di visualizzazione di un video, per profilare l’utente.

Questo flusso nel caso dell’esperimento del Wall Street Journal è stato “deviato” verso contenuti borderline , con alcuni account in particolare che hanno iniziato a visualizzare video che proponevano fantasie ammiccanti sul rapporto fra minori e adulti incaricati di occuparsene (care-giver).

I giornalisti hanno quindi segnalato i video ma (e su questo punto il portavoce di TikTok ha insistito nel rispondere al Wall Street Journal) la maggior parte erano già stati eliminati dal sistema di controllo contenuti della piattaforma.

Il problema, evidente, è però quello per cui la mole di video prodotti consente agli utenti di fruire di un consistente numero di contenuti non permessi nel tempo intercorrente fra il loro upload e la rimozione (attività che comunque, come spesso accade su queste piattaforme, diventa sommaria approssimata per eccesso, risultando così difficile da gestire per i creatori di contenuti legittimi).

Altra problematica riguarda il fatto che la semplice impostazione dell’età su TikTok non orienta i contenuti a cui l’account può accedere (i vari accorgimenti adottati dal social riguardano principalmente chi vede i video caricati da un minorenne e chi può inviargli messaggi).

In pratica quindi un tredicenne, se vuole, può accedere a tutti i contenuti del social network TikTok, anche quelli più ammiccanti e (sempre in pratica perché in teoria TikTok non ammette contenuti non adatti ai minori) può accedere a contenuti non rispettosi delle linee guida di TikTok finché questi non vengono rimossi.

L’articolo relativo all’esperimento del Wall Street Journal non ci dice però se i bot attivati dal quotidiano abbiano o meno impostato (oltre all’età dell’utente come infrasedicenne) anche la modalità limitata resa disponibile dal social network a tutela degli utenti più sensibili (TikTok non lo dice esplicitamente ma è evidente che tra questi utenti possano rientrare a pieno titolo i minorenni ed infatti la modalità limitata può essere impostata per controllo parentale).

TikTok quindi può “difendersi” affermando:

che una soluzione al problema segnalato dal WSJ è già presente e consente all’utente minorenne (se vuole o se i suoi genitori vogliono) di impostare una fruizione protetta del social network;

che il suo algoritmo difficilmente proporrà ad un utente minorenne contenuti che lui non vuole vedere, assecondando invece le sue preferenze verso contenuti più “maturi” solo se l’utente dimostra effettivamente interesse a questi contenuti.

Se parlassimo di un qualsiasi altro social network (come Facebook e Twitter) verosimilmente queste “difese” sarebbero sufficienti a distogliere l’attenzione dei regolatori, ma TikTok è popolarissimo tra giovani e giovanissimi e per questo ogni scelta del social network è valutata con la massima attenzione dalle autorità.

L’unico paragone che può essere interessante per TikTok è forse quello di Youtube, che a differenza del social network cinese ha individuato soluzioni molto più incisive per “separare” i contenuti per minori e per adulti.

Le misure adottate da TikTok a tutela dei minori

Il social network al problema ha risposto con una serie di misure, spesso concordate con le autorità che hanno minacciato o attuato sanzioni nei suoi confronti e, in particolare, ha introdotto le seguenti iniziative:

una nuova verifica dell’età , con eliminazione degli account di soggetti infratredicenni;

gli account per gli utenti infrasedicenni vengono ora impostati come privati per impostazione di default;

l’upload dei contenuti da parte dei minorenni è accompagnato da una dicitura che consente la selezione chiara della platea che potrà visualizzarli;

l’upload dei contenuti da parte dei minorenni è accompagnato da una dicitura che consente la selezione chiara dell’opzione per consentire o meno il download del video;

i messaggi diretti sono ora disattivati per gli utenti infrasedicenni;

i messaggi diretti sono ora disattivati di default per gli utenti di 16 e 17 anni;

è stata introdotta una modalità “ Family Pairing ” che lega l’account di un minorenne agli account dei genitori, permettendo a questi ultimi di prendere alcune decisioni sensibili sulle impostazioni dell’app;

è stata introdotta una “ Modalità Limitata ” che esclude video rivolti ad un pubblico più maturo o comunque dal contenuto sensibile e può essere impostata sia dal genitore in modalità Family Pairing che direttamente sull’app dell’interessato con un codice (sarà necessario inserire il codice per abbandonare la modalità limitata;

Il social network ha infine promosso campagne di informazione e sensibilizzazione per un utilizzo più consapevole dell’app.

Nonostante tutte queste modifiche, che hanno falcidiato numerosi account di TikTok e compromesso le modalità d’uso da parte degli utenti più giovani (che costituiscono una grossa fetta della demografica di TikTok, per comprendere la dimensione del fenomeno basti pensare che secondo dati riportati dal New York Times un terzo degli utenti statunitensi di TikTok avrebbe meno di 14 anni) TikTok continua a crescere ed ha recentemente superato Youtube per tempo trascorso sull’app negli USA (la ricerca è però limitata ai soli dispositivi mobili Android) forse proprio grazie a questo lassismo del social nel controllo dei contenuti proposti ai minorenni (con TikTok che non va oltre quanto gli è imposto forzosamente dai regolatori).

La soluzione di Youtube

Youtube ha risolto (almeno in parte) il problema dei contenuti proposti dall’algoritmo imponendo agli utenti, prima di ogni upload, di indicare se il video (ed il canale) è rivolto ai bambini o meno, selezionando inoltre se il contenuto non è adatto per i minori.

Abbiamo quindi, in Youtube, tre categorie di video per quel che qui interessa:

I video rivolti ai bambini (in quanto i bambini sono il segmento di pubblico principale del video o comunque il video è diretto a loro in quanto include attori, personaggi, attività, giochi, brani, storie o altri argomenti che riflettono la volontà di rivolgersi ai bambini, questi contenuti sono rivolti anche o solo a infratredicenni);

I video non rivolti ai bambini (tutti gli altri video, rivolti agli over tredicenni);

I video soggetti a limiti di età (ovvero quella fetta di video non rivolti ai bambini che non sono visualizzabili dagli infradiciottenni).

Da un lato l’algoritmo di Youtube propone ai bambini (su Youtube Kids ) solo video rivolti ai bambini (evitando così di farli incappare in proposte di contenuto non adatte a loro), dall’altro lato i video soggetti a limiti di età non sono visualizzabili ai minorenni.

E per confermare l’età è necessario procedere con una verifica molto più approfondita di quella prevista dall’app TikTok; è infatti necessario accompagnare alla verifica della data di nascita il suo confronto con un documento di identità ovvero l’effettuazione di un’operazione a zero su una carta di credito. In questo modo Youtube è ragionevolmente certo di “aprire” un account a contenuti per adulti solo quando ha di fronte un vero adulto e non invece un soggetto che ha semplicemente proposto una data di nascita alterata.

Se TikTok (che non consente la creazione dell’account a infratredicenni) non deve affrontare come Youtube il problema della creazione di contenuti destinati ai bambini, è evidente come il social potrebbe, in maniera abbastanza facile, implementare strumenti per orientare i contenuti dei creator verso maggiorenni o minorenni in sede di upload, orientando quindi l’algoritmo a proporre solo contenuti orientati ai minorenni agli account impostati per queste fasce di età.

Le prospettive di TikTok

TikTok si trova ora in un momento difficile in cui decidere se lasciare le cose come stanno, oppure agire per prevenire un nuovo interessamento da parte delle autorità nazionali.

La questione è, stavolta, difficile da dipanare anche per i regolatori in quanto si chiede azienda di “calibrare” l’algoritmo su cui funziona TikTok da un lato lasciando al social la libertà di assecondare informaticamente le effettive preferenze degli utenti e dall’altro proteggendo i minori non solo dalle conseguenze impreviste e non volute del loro utilizzo della piattaforma, ma anche dalle conseguenze previste e (almeno nell’impulso iniziale) volute dall’utente minorenne .

La soluzione ideale consisterebbe nella replica, da parte di TikTok, del modello implementato da Youtube, catalogando (quantomeno di qui in avanti) i contenuti sulla base del fatto che questi siano orientati o meno ai minorenni, nonché (per evitare che la misura sia facilmente aggirabile) introducendo dei sistemi più evoluti per comprovare l’età degli iscritti.

Si tratta di soluzioni che senz’altro contribuirebbero a diminuire grandemente la portata delle problematiche segnalate dal Wall Street Journal, come visto però, TikTok ha finora adottato un approccio passivo nell’adottare iniziative a tutela dei minori, agendo solo quando costretta a farlo.

Altro problema da considerare (e che assume profili davvero kafkiani anche su Youtube) è quello dei creatori di contenuti, ora vessati da processi sommari (automatici o semi-automatici) che decretano con ampi margini di errore la “fine” di un contenuto magari del tutto innocuo.

Del resto, un social network è sommerso da critiche (e da attenzioni indesiderate da parte delle autorità di controllo) quando propone, a causa dell’errore o della volontà di una minima frazione di creator, contenuti per adulti ai minorenni, non quando invece elimina un’enorme quantità di contenuti per supposte violazioni delle linee guida, ponendosi però come un maldestro e fanatico censore a scapito della libertà della piattaforma.

C’è poi un’ultima difesa che TikTok potrebbe adottare questa volta ed è quella derivante dal fatto che non si comprende davvero quando un sito web o un social network debba implementare determinate misure a tutela dei minori.

È possibile, ad esempio, attivare un account Twitter ed accedere a contenuti apertamente pornografici senza che il social network si curi di implementare alcun serio controllo dell’età dell’utente. Perché accade questo e perché nessuno insorge per questo evidente problema di controllo dei contenuti? La risposta, evidentemente, è perché Twitter è appannaggio soprattutto di adulti e probabilmente a pochissimi minorenni viene in mente di crearsi un profilo sulla piattaforma (sebbene il social network sia accessibile a partire dai tredici anni di età).

TikTok ha quindi ragione a lamentare il fatto di essere diventata “osservato speciale” dei regolatori di tutto il mondo, solamente per il fatto della sua popolarità fra i giovanissimi, situazione di fatto che però non giustifica, a livello normativo, alcun “trattamento speciale” nei confronti della piattaforma, che giustamente potrebbe lamentare il fatto che le autorità stanno dimostrando di utilizzare due pesi e due misure quando si tratta di applicare la normativa in tema di privacy e tutela dei minori a piattaforme (tutte ugualmente aperte ai minorenni) non troppo popolari fra i giovanissimi e basate in USA, e a piattaforme che invece attirano i giovanissimi e sono basate in Cina.

Leave A Comment

Copyright © 2023 securitybutlera.com. All rights reserved.