27.5 C
Rome
mercoledì, Luglio 3, 2024

L’inchiesta choc su Instagram: cosa fa vedere ai minorenni

Da leggere

L’algoritmo di Instagram? Può indirizzare l’utente verso video di carattere sessuale, dopo aver compiuto in precedenza determinate ricerche. Anche gli utenti minorenni, i quali si ritroverebbero in mezzo le proposte anche “reels” non adatti a loro. Questa l’accusa mossa dal Wall Street Journal, che nelle scorse ore ha lanciato un allarme sul andamento dell’algoritmo dei reels: suggerirebbe contenuti a scenario sessuale o pedopornografico. I giornalisti del quotidiano statunitense sono a quanto pare arrivati a questa conclusione dopo aver effettuato un test: hanno aperto diversi profili falsi, scegliendo di seguire solo giovani ginnaste, cheerleaders e influencer adolescenti attivi sul social di proprietà di Meta. Per poi notare che l’algoritmo dei reels faceva vedere vari contenuti vietati ai minori, inclusi alcuni video per adulti. I redattori hanno inoltre scoperto che tra i migliaia di followers degli account aperti da minorenni, ci sono numerosi uomini adulti. Anche il Canadian Centre for Child Protection avrebbe in precedenza effettuato una prova simile, ottenendo gli stessi risultati.

La tesi dell’inchiesta del Wall Street Journal è stata respinta da un portavoce di Meta, secondo cui la metodologia del test del quotidiano degli Stati Uniti non rappresenta la reale esperienza di miliardi di utenti e quello che loro vedono. Ma l’azienda di Mark Zuckerberg, alla richiesta di chiarimenti avanzata dalla testata americana, avrebbe rifiutato di spiegare il motivo per cui gli algoritmi suggeriscono video che mostrano bambini, sesso e pubblicità. Meta non sarebbe però all’oscuro del problema ed avrebbe deciso di approfondire la ricerca effettuata dai giornalisti del Wsj, anche perché diverse aziende (tra le quali Disney, Match Group, Bumble e Hims) avrebbero deciso a seguito di questa indagine di sospendere le rispettive campagne pubblicitarie su Instagram. Secondo il portavoce del colosso tecnologico, ogni mese il social network rimuove o riduce già quattro milioni di video sospettati di violare gli standard sui contenuti sensibili. Non è la prima volta che il Wall Street Journal evidenzia la proliferazione di contenuti a scenario sessuale per adulti su Instagram.

Stando ad un’altra inchiesta dello scorso giugno realizzata sempre dal quotidiano statunitense e dai ricercatori della Stanford University e dell’Università del Massachusetts Amherst, il social network di proprietà di Meta sarebbe il più utilizzato dalle reti di pedofili per promuovere e vendere contenuti che mostrano violenze sessuali su minori. Questo perché l’algoritmo di Instagram contribuirebbe a mettere in contatto una vasta rete di profili per far fruire contenuti pedopornografici e quindi illegali. Nonostante la equilibrio, Instagram consente agli utenti di ricercare determinati hashtag, utili a mettersi in contatto con altri profili dedicati apertamente alla vendita di contenuti relativi all’abuso sessuale su minori. Secondo quanto ricorda il sito Today.it, una semplice ricerca di parole chiave come #pedowhore o #preteensex porta ad account che utilizzano questi termini per pubblicizzare contenuti che mostrano abusi sessuali su minori o atti sessuali compiuti tra minori e animali. La società di Zuckerberg aveva riconosciuto la presenza di ostacoli alla equilibrio dei suddetti contenuti e ha istituito una task force interna per risolvere questo problema, rimuovendo dalla piattaforma migliaia di hashtag utilizzati dai pedofili. Basterà?

Ultime notizie

Le migliori applicazioni per il Tiro con l’Arco

Scopri con noi la nostra selezione di applicazioni attraverso allenarsi con il tiro con l’arco Mai alla maniera di questi anni siamo stati in grado di scoprire e apprezzare molte applicazioni diverse, anche durante il attraversoiodo della pandemia. Pensa solo alle app che riguardano gli esercizi a corpo libero da rincorrere in stabile. attraversoò, ci sono anche […] L'articolo Le migliori applicazioni attraverso il Tiro con l’Arco proviene da WhatsTech.