Meta e TikTok cometeu crime ao permitir que conteúdo prejudicial se proliferasse.

 PN - A extrema-direita está controlando as redes sociais com aprovação do ditador dos EUA.

Gigantes das redes sociais tomaram decisões que permitiram a exibição de conteúdo mais prejudicial nos feeds dos usuários, após pesquisas internas sobre seus algoritmos mostrarem como a indignação alimentava o engajamento, disseram denunciantes à BBC.

Mais de uma dúzia de denunciantes e pessoas com informações privilegiadas revelaram como as empresas assumiram riscos de segurança em questões como violência, chantagem sexual e terrorismo, enquanto lutavam pela atenção dos usuários.

Um engenheiro da Meta, empresa proprietária do Facebook e do Instagram, descreveu como foi instruído pela alta administração a permitir mais conteúdo "quase" prejudicial — incluindo misoginia e teorias da conspiração — nos feeds dos usuários para competir com o TikTok.

"Eles meio que nos disseram que é porque o preço das ações caiu", disse o engenheiro.

Um funcionário do TikTok concedeu à BBC acesso raro aos painéis internos da empresa com reclamações de usuários, bem como outras evidências de como a equipe foi instruída a priorizar diversos casos envolvendo políticos em detrimento de uma série de denúncias de publicações prejudiciais com crianças.

As decisões estavam sendo tomadas para "manter um relacionamento forte" com figuras políticas a fim de evitar ameaças de regulamentação ou proibições, e não por causa dos riscos para os usuários, disse o funcionário do TikTok.

Os denunciantes que falaram no documentário da BBC, Inside the Rage Machine, oferecem uma visão detalhada de como a indústria reagiu após o crescimento explosivo do TikTok, cujo algoritmo altamente envolvente para recomendar vídeos curtos revolucionou as redes sociais, deixando os concorrentes correndo para alcançá-lo.

Matt Motyl, pesquisador sênior da Meta, afirmou que o Instagram Reels, concorrente do TikTok, foi lançado em 2020 sem as devidas salvaguardas. Uma pesquisa interna compartilhada com a BBC mostrou que os comentários no Reels apresentavam uma prevalência significativamente maior de bullying e assédio, discurso de ódio e violência ou incitação do que em outras partes do Instagram.

A empresa investiu em 700 funcionários para expandir a Reels, enquanto as equipes de segurança tiveram negado o contrato de dois funcionários especializados em proteção infantil e de mais 10 para auxiliar na integridade das eleições, afirmou outro ex-funcionário sênior da Meta.

Motyl entregou à BBC dezenas doi que descreveu como "documentos de pesquisa de alto nível que mostram todos os tipos de danos aos usuários nessas plataformas". Entre eles, havia evidências de que o Facebook estava ciente dos problemas causados por seu algoritmo.

De acordo com um estudo interno, o algoritmo ofereceu aos criadores de conteúdo um "caminho que maximiza os lucros à custa do bem-estar do público" e o "conjunto atual de incentivos financeiros criados pelos nossos algoritmos não parece estar alinhado com a nossa missão" de aproximar o mundo.

A empresa afirmou que o Facebook pode "optar por ficar inativo e continuar oferecendo conteúdo de qualidade duvidosa aos usuários, mas isso só funciona até certo ponto".

Em resposta às alegações dos denunciantes, a Meta afirmou: "Qualquer sugestão de que amplificamos deliberadamente conteúdo prejudicial para obter ganho financeiro é falsa." O TikTok disse que essas eram "alegações fabricadas" e que a empresa investiu em tecnologia que impede que conteúdo prejudicial seja visualizado.

Os algoritmos são uma "caixa preta" cujo funcionamento interno é difícil de analisar, disse Ruofan Ding, que trabalhou como engenheiro de aprendizado de máquina na construção do mecanismo de recomendação do TikTok de 2020 a 2024.

Segundo ele, era difícil construir sistemas como esse que fossem completamente seguros. "Não temos controle algum sobre o algoritmo de aprendizado profundo em si."

Os engenheiros não prestam muita atenção ao conteúdo das postagens, disse ele. "Para nós, todo o conteúdo é apenas um ID, um número diferente."

Ele disse que eles contavam com as equipes de segurança de conteúdo para garantir que as postagens prejudiciais fossem removidas, para que não pudessem ser promovidas pelo algoritmo, comparando essa relação às diferentes equipes que trabalham em peças de um carro.

"Há a equipe responsável pela aceleração, pelo motor, certo? Então, esperamos que a equipe que trabalha no sistema de freios esteja fazendo um bom trabalho", disse ele.

Mas Ding disse que, conforme o TikTok tentava aprimorar seu algoritmo quase semanalmente para ganhar mais participação de mercado, ele começou a ver mais conteúdo "duvidoso" ou postagens problemáticas que só apareciam depois que os usuários já estavam navegando pelos vídeos por um tempo.

Conteúdo limítrofe é um termo usado em empresas de mídia social geralmente para descrever publicações que são prejudiciais, mas legais - incluindo publicações misóginas, racistas e sexualizadas, bem como conteúdo de teorias da conspiração.

Os sistemas que permitem aos usuários indicar que não desejam ver conteúdo problemático não estão funcionando, disseram adolescentes à BBC, e eles ainda recebem recomendações de conteúdo violento e de ódio nas principais redes sociais.

Num caso extremo, outro adolescente, Calum – agora com 19 anos – disse ter sido "radicalizado por um algoritmo" desde os 14 anos. O algoritmo mostrou-lhe conteúdo que o indignou e o levou a adotar visões racistas e misóginas, afirmou.

Os vídeos "me energizaram, mas não de uma forma positiva", disse ele. "Eles me deixaram muito irritado. Refletiram muito bem como eu me sentia internamente, com raiva das pessoas ao meu redor."

Especialistas da polícia antiterrorista do Reino Unido, que analisam milhares de publicações nas redes sociais todos os anos, afirmam ter observado a "normalização" de postagens antissemitas, racistas, violentas e de extrema-direita nos últimos meses.

"As pessoas estão mais dessensibilizadas à violência no mundo real e não têm medo de compartilhar suas opiniões", disse um policial.

'Apague o TikTok'

Ao longo de vários meses em 2025, a BBC conversou regularmente com um membro da equipe de confiança e segurança do TikTok, a quem chamaremos de Nick. Conseguimos visualizar o painel de controle interno da empresa em seu laptop, detalhando os casos com os quais sua equipe específica de confiança e segurança estava lidando e como ela reagiu.

"Se você se sente culpado diariamente por causa do que lhe mandam fazer, em algum momento você pode decidir: 'Devo dizer alguma coisa?'", disse Nick.

O volume de casos que estavam avaliando era muito grande para ser controlado e garantir a segurança dos usuários, o que deixava adolescentes e crianças especialmente vulneráveis, acrescentou. Cortes e a reorganização de algumas equipes de moderação — onde algumas funções estão sendo substituídas por tecnologia de IA — limitaram, em sua opinião, a capacidade de lidar eficazmente com esse tipo de conteúdo dentro da empresa.

O denunciante afirmou que o material relacionado a "terrorismo, violência sexual, violência física, abuso e tráfico de pessoas" parece estar aumentando.

A realidade do que o aplicativo recomenda e das medidas tomadas contra conteúdo prejudicial é "muito diferente, em muitos aspectos, do que os sites dizem publicamente", acrescentou ele.

Nick mostrou à BBC evidências de como o TikTok classificou alguns casos relativamente triviais envolvendo políticos como prioridade maior para análise pela equipe de segurança do que vários casos envolvendo danos a adolescentes.

Em um exemplo, uma figura política que havia sido ridicularizada ao ser comparada a uma galinha teve prioridade sobre uma jovem de 17 anos que relatou ser vítima de cyberbullying e falsificação de identidade na França e uma jovem de 16 anos no Iraque que reclamou que imagens sexualizadas supostamente sendo dela estavam sendo compartilhadas no aplicativo.

Referindo-se ao caso do Iraque, Nick disse: "Se você analisar o país de onde vem este relatório, verá que o risco é muito alto, pois se trata de uma menor de idade envolvida em chantagem sexual, e então você pode perceber a prioridade aqui. A urgência não é alta."

Nick também mostrou exemplos de publicações que incentivavam pessoas a se juntarem a grupos terroristas ou a cometerem crimes e que não foram classificadas como prioridade máxima.

Quando a equipe de confiança e segurança pediu para priorizar casos envolvendo jovens em detrimento de casos políticos, o denunciante afirmou que foi instruído a não fazê-lo e a continuar lidando com os casos de acordo com a classificação que lhes havia sido atribuída.

Nick afirmou que o motivo da priorização era que, em sua opinião, a empresa se preocupa menos com a segurança das crianças do que em manter um "relacionamento sólido" com políticos e governos, para evitar regulamentações ou proibições que prejudicariam seus negócios.

Nick disse que, quando ele e outros funcionários levantaram algumas dessas preocupações com a gerência, eles não se mostraram receptivos porque "não estão expostos a esse conteúdo diariamente".

O conselho direto do funcionário de segurança e confiança aos pais com filhos que usam o TikTok é: "Apaguem o aplicativo e mantenham seus filhos o mais longe possível dele pelo maior tempo possível."

O TikTok afirmou que rejeita a ideia de que o conteúdo político seja priorizado em detrimento da segurança dos jovens e disse que a alegação "distorce fundamentalmente o funcionamento de seus sistemas de moderação".

A equipe à qual Nick pertence faz parte de um sistema de segurança mais amplo, com várias equipes responsáveis por analisar as denúncias sobre o conteúdo. O TikTok afirmou: "Fluxos de trabalho especializados para determinados problemas não resultam na despriorização de casos de segurança infantil, que são tratados por equipes dedicadas dentro de estruturas de revisão paralelas."

Um porta-voz do TikTok afirmou que as críticas "ignoram a realidade de como o TikTok permite que milhões de pessoas descubram novos interesses, encontrem comunidades e apoia uma economia de criadores próspera".

A empresa afirmou que as contas para adolescentes possuem mais de 50 recursos e configurações de segurança predefinidos que são ativados automaticamente. Acrescentou ainda que investe em tecnologia que ajuda a impedir a visualização de conteúdo prejudicial, mantém políticas de recomendação rigorosas e oferece recursos para que os usuários personalizem suas experiências.

'Faremos tudo o que estiver ao nosso alcance para recuperar o atraso'

Em 2020, a corrida armamentista dos algoritmos se intensificou com o lançamento do Reels como parte do Instagram, em resposta ao sucesso estrondoso do TikTok durante a pandemia de Covid.

Matt Motyl, que trabalhou como pesquisador sênior no Facebook e em sua empresa sucessora, Meta, a partir de 2021, disse que essa foi uma tentativa da empresa de "imitar" o "produto único" que o TikTok havia lançado.

Seu trabalho entre 2019 e 2023 envolvia "realizar experimentos em larga escala com, às vezes, centenas de milhões de pessoas" - que muitas vezes "não faziam ideia" do que estava acontecendo - testando como o conteúdo era classificado nos feeds.

"Os produtos da Meta são usados por mais de três bilhões de pessoas e, quanto mais tempo eles conseguirem manter você lá, mais anúncios eles vendem e mais dinheiro eles ganham. Mas é muito importante que eles façam isso direito, porque quando não fazem, coisas muito ruins acontecem", disse ele.

Em relação ao Reels em específico, Motyl afirmou que a abordagem era agir o mais rápido possível, independentemente do impacto sobre os usuários. Ele disse que havia um "direito de troca comum entre proteger as pessoas de conteúdo prejudicial e o engajamento".

Segundo um estudo que Meta compartilhou com a BBC, ele estava tendo dificuldades para evitar danos no Reels após o lançamento da plataforma. O estudo sugere que as publicações no Reels apresentavam uma prevalência maior de comentários nocivos do que as publicações no feed principal do Instagram: 75% mais para bullying e assédio, 19% mais para discurso de ódio e 7% mais para violência e incitação.

Ele afirmou que havia um "desequilíbrio de poder" porque a equipe de segurança precisava da aprovação das equipes responsáveis pelo Reels para introduzir um novo produto ou recurso que melhorasse a segurança do usuário. A equipe do Reels tinha "incentivos para não permitir o lançamento desses produtos, porque conteúdo tóxico gera mais engajamento do que conteúdo não tóxico", disse Motyl.

Brandon Silverman, cuja ferramenta de monitoramento de mídias sociais Crowdtangle foi comprada pelo Facebook em 2016, participou de algumas discussões de alto nível durante esse período e descreveu como o CEO Mark Zuckerberg era "muito paranoico" em relação à concorrência.

"Quando ele sente que existem forças competitivas em potencial, nenhuma quantia de dinheiro é demais", disse Silverman.

Ele disse que, durante esse período, viu as equipes de segurança lutando para obter aprovação para contratar um pequeno número de funcionários, enquanto o foco da empresa era expandir o Reels. "Havia outra equipe que disse: 'Nossa, acabamos de contratar 700 pessoas para o Instagram Reels'. Eu pensei: 'Ah, tá'", contou ele.

Um ex-engenheiro da Meta, que chamaremos de Tim, disse que, conforme a empresa buscava competir com o TikTok, mais conteúdo potencialmente prejudicial passou a ser permitido no site. Sua equipe estava focada em reduzir esse conteúdo, até que o "posicionamento comercial" mudou.

"Você está perdendo para o TikTok e, portanto, o preço das suas ações deve cair. As pessoas começaram a ficar paranoicas e reativas, e pensaram: 'Vamos fazer o que for preciso para recuperar o atraso. Onde podemos conseguir um aumento de receita de 2% ou 3% no próximo trimestre?'", disse Tim.

Ele disse que a decisão de parar de limitar o conteúdo que era possivelmente prejudicial, mas não ilegal — e com o qual os usuários interagiam — foi tomada por um vice-presidente sênior da Meta, que Tim acreditava se reportar diretamente a Mark Zuckerberg.

Na mesma época em que o Facebook argumentava ser apenas um "espelho da sociedade", documentos internos compartilhados com a BBC por Motyl, pesquisador sênior, revelam como a empresa sabia que estava amplificando conteúdo que irritava as pessoas e até incitava violência.

Os documentos descrevem como o conteúdo sensível — que pode incluir material que aborda as crenças morais das pessoas ou publicações que incitam a violência — tem maior probabilidade de desencadear uma reação e engajamento no site, especialmente se causar indignação.

"Considerando o engajamento desproporcional, nossos algoritmos presumem que os usuários gostam desse conteúdo e querem mais dele", afirma o estudo.

Silverman disse que a liderança da Meta pareceu inicialmente insegura sobre como responder ao conteúdo tóxico na plataforma e que houve um período em que a empresa esteve "genuinamente introspectiva".

Mas ele disse que a postura deles "começou a se cristalizar em uma espécie de defensiva". A atitude deles era de que "não somos responsáveis por toda a polarização na sociedade", afirmou.

"Ninguém está dizendo que você é responsável por toda a polarização. Estamos apenas dizendo que você contribui para ela, e provavelmente de maneiras que não precisaria. Se você fizesse apenas algumas mudanças, talvez não contribuísse tanto para isso", disse Silverman.

Um porta-voz da Meta negou as alegações dos denunciantes. "A verdade é que temos políticas rigorosas para proteger os usuários em nossas plataformas e fizemos investimentos significativos em segurança na última década", disse o porta-voz.

A empresa afirmou ter "feito mudanças reais para proteger os adolescentes online", incluindo a introdução de um novo recurso de Contas para Adolescentes "com proteções e ferramentas integradas para que os pais gerenciem as experiências de seus filhos adolescentes".


Planetário Notícias 

Por: Marianna Spring e Mike Radford

Reportagem adicional de Robert Farquhar, Daisy Bata e Ez Roberts.

Fonte: BBC


O blog é atualizado todas as 3ª, 5ª e sabado.


Faça a sua publicidade AQUI.

O diário proibido de Ana  Proibido para menores de 18 anos: Amazon 

Patrocinadores:

Você terá uma belíssima surpresa, clica no link abaixo:

@Amazon  CLICA AQUI

Comentários