BRcom - Agregador de Notícias
No Result
View All Result
No Result
View All Result
BRcom - Agregador de Notícias
No Result
View All Result

Referência para julgamento no STF, regulação europeia não gerou remoção excessiva nas redes, mostra levantamento

BRCOM by BRCOM
junho 25, 2025
in News
0
Veja impacto de legislação na Europa quanto a retirada de remoção de conteúdo — Foto: Arte O Globo

Citada por ministros e especialistas como referência ao Brasil no julgamento em curso no Supremo Tribunal Federal (STF) sobre responsabilização das big techs — o tema volta hoje a ser analisado pelo plenário (veja mais abaixo) —, a regulação das plataformas implementada nos últimos anos na Europa não levou a uma remoção excessiva de conteúdos após notificações feitas pelos usuários, o chamado chilling effect (efeito inibidor, em inglês). É o que aponta um levantamento inédito feito pelo NetLab, laboratório vinculado à Escola de Comunicação da UFRJ, a partir de relatórios de transparência exigidos na região por lei.

  • Sonar: Gleisi diz que Bolsonaro ‘apela para intervenção estrangeira no Brasil’ após foto ao lado de Trump e Netanyahu
  • Manipulação digital: deepfake ultrarrealista eleva preocupação com eleição e desafia fiscalização para 2026

Em vigor desde agosto de 2023 para redes sociais com mais de 45 milhões de usuários, a Lei de Serviços Digitais (DSA) da União Europeia prevê mecanismos para o recebimento de denúncias de conteúdo potencialmente ilegal, além da derrubada de publicações a pedido de autoridades públicas. Segundo dados do Facebook, Instagram, X e TikTok compilados pela análise do NetLab, a proporção dos pedidos para remover conteúdos que foram efetivamente atendidos pelas big techs não foi significativa. O índice variou entre 21,32%, no caso do Facebook, e 35,42%, no X. Ou seja, as iniciativas de responsabilização não levaram as empresas a retirar do ar indiscriminadamente todos os conteúdos denunciados.

Os dados compreendem um período entre abril e dezembro de 2024. A análise do NetLab mostra ainda que a maior parte da remoção de conteúdo na região foi feita de forma espontânea pelas plataformas e envolve a violação de regras internas previstas pelas plataformas. O volume de postagens retirado do ar com base em denúncias externas representou, por exemplo, apenas 0,75% do total removido no YouTube, 0,18% no Facebook e Instagram e 0,15% no TikTok.

— Na Europa, 99% do conteúdo moderado é por decisão espontânea, ou seja, definido por elas mesmas. Elas já fazem isso em uma escala brutal. A experiência europeia nos mostra que o volume de denúncia é muito menor do que elas já fazem. Equivaleria a aumentar a moderação em 1% — afirma a coordenadora do NetLab e professora da UFRJ Rose Marie Santini.

Veja impacto de legislação na Europa quanto a retirada de remoção de conteúdo — Foto: Arte O Globo

O risco de chilling effect tem sido citado pelas plataformas para defender a manutenção da constitucionalidade do artigo 19 do Marco Civil da Internet, ponto em debate no STF. O trecho estabelece que as plataformas só podem ser responsabilizadas por danos causados por conteúdo de terceiros se, após uma ordem judicial, não o retirarem do ar. O argumento é que uma eventual mudança na legislação para que, por exemplo, as empresas possam ser responsabilizadas nos casos em que forem notificadas da ocorrência de conteúdo ilícito pelos usuários, acarretaria em ameaça à liberdade de expressão e na incapacidade das big techs de lidar com a alta demanda de pedidos.

Para o NetLab, os resultados do levantamento sobre o contexto europeu, porém, indicam o contrário:

— Na Europa, onde se adotou esse modelo, o chilling effect não ocorreu. Elas tiram muito menos conteúdo do que recebem de denúncia. Não há, portanto, risco de cercear a liberdade de expressão — diz Marie Santini, que completa. — Na Alemanha, a lei era super dura, e elas tinham 24 horas para avaliar. Na maioria dos casos, cumpriam esse prazo, e não acatavam todos os pedidos, ou seja, avaliavam mesmo. Isso mostra que há condições técnicas.

Embora o STF já tenha formado maioria para declarar a inconstitucionalidade total ou parcial do artigo 19, o ministro Luís Roberto Barroso busca construir um consenso na Corte para delimitar como a responsabilização se dará e quais critérios serão aplicados. Uma das divergências envolve os crimes contra a honra, como calúnia e difamação. Nesses casos, para alguns ministros, a responsabilização só deveria ocorrer mediante decisão judicial, como já ocorre hoje.

A análise do NetLab voltou-se também para dados relacionados aos crimes contra a honra e discurso de ódio no âmbito da Lei de Aplicação de Rede (NetzDG) da Alemanha. A legislação alemã visava assegurar que infrações já previstas no Código Penal do país fossem aplicadas também no ambiente digital. A lista de crimes incluía difamação, injúria, incitação ao ódio, terrorismo, violência, símbolos de organizações inconstitucionais, pornografia infantil, discriminação religiosa e outros. O laboratório destaca que a maior parte das remoções na Alemanha feitas no YouTube em 2021 correspondia a queixas feitas com base nas próprias diretrizes e termos de serviço das plataformas (9.471 casos reportados pela própria plataforma).

“Conforme demonstram dados disponibilizados pelo YouTube, as plataformas já atuam globalmente na remoção de conteúdos que, embora não necessariamente enquadrados formalmente como ‘crimes contra a honra’ em todos os países, apresentam características associadas à difamação, calúnia ou injúria, de acordo com suas próprias políticas de moderação, demonstrando que é viável exigir mais responsabilidade”.

Marie Santini acrescenta que, com o entendimento de inconstitucionalidade do artigo do Marco Civil, só vai ser moderado o que a plataforma definir que é pertinente, mas que a partir, desse momento, ela será responsável pela decisão ou não de remoção.

— Tem circulado muita desinformação. As plataformas recebem passivamente as denúncias e, a partir do momento que tomarem conhecimento, avaliam se vão retirar o conteúdo ou não — conclui.

Referência para julgamento no STF, regulação europeia não gerou remoção excessiva nas redes, mostra levantamento

Previous Post

Com ou sem Everaldo? Fluminense encara versões para decisão contra Mamelodi Sundowns no Mundial de Clubes

Next Post

PM-SP registra 3,5 mil afastamentos psiquiátricos desde 2020 em meio a ‘boom’ de saídas voluntárias

Next Post
Afastamento de policiais — Foto: Editoria de Arte

PM-SP registra 3,5 mil afastamentos psiquiátricos desde 2020 em meio a 'boom' de saídas voluntárias

  • #55 (sem título)
  • New Links
  • newlinks

© 2026 JNews - Premium WordPress news & magazine theme by Jegtheme.

No Result
View All Result
  • #55 (sem título)
  • New Links
  • newlinks

© 2026 JNews - Premium WordPress news & magazine theme by Jegtheme.