28.11.24 | Brasil
CONIB defende no STF maior responsabilidade civil das redes sociais no combate ao discurso de ódio
O Supremo Tribunal Federal (STF) iniciou nesta quarta-feira (27/11) o julgamento dos processos que discutem a constitucionalidade do Marco Civil da Internet, especialmente de seu artigo 19, que prevê, em regra, que os provedores de aplicações de internet só podem ser responsabilizados civilmente caso não removam conteúdo ilícito após ordem judicial.
A CONIB é 'Amicus Curiae' (Amigo da Corte) no caso, expressão em latim para designar uma instituição que tem por finalidade fornecer subsídios às decisões dos tribunais, oferecendo-lhes melhor base para questões relevantes e de grande impacto.
Fernando Lottenberg e Rony Vainzof, respectivamente, Comissário da OEA e secretário da CONIB, ambos advogados, sustentaram oralmente nesta quarta-feira (27), no plenário do STF, defendendo que os crimes de racismo e discriminação devem ser tratados e removidos em até 24h pelas plataformas digitais que moderam os limites da liberdade de expressão, sob pena de responsabilidade civil. O julgamento será retomado nesta quinta-feira (28), com os votos dos relatores e dos demais ministros da Corte.
Segue a íntegra da fala dos advogados:
1) Há 20 anos, o STF fazia história. Ao negar o habeas corpus nº 82.424/RS, impetrado por Siegfried Ellwanger, um editor neonazista, o STF decidiu, por 8x3, que a liberdade de expressão não é absoluta.
2) Uma liberdade arduamente conquistada – e que deve ser preservada – convive com outros princípios de nossa ordem constitucional, havendo limites imanentes constantes da própria Constituição Federal - tendo o voto de nosso decano sido extremamente detalhado nesse sentido - e não deve ser confundida com o “direito de incitação ao racismo”. Ou, como tem dito o Min. Alexandre: “liberdade de expressão não é liberdade de agressão”. Esse precedente tem sido citado em diversos julgamentos...
3) 10 anos depois dessa decisão, veio o Marco Civil da Internet, uma resposta adequada à época, mas cujo prazo de validade claramente se esgotou, na medida em que a velocidade de propagação e a amplificação dos conteúdos pelos algoritmos não pode ser alcançada pelos ritmos das decisões judiciais.
4) Hoje, temos aqui a oportunidade de virar mais uma página nessa caminhada, nos termos do art. 3º, inciso VI, do Marco Civil.
5) O papel que o rádio significou para a divulgação das ideias nazistas, na década de 1930, hoje é cumprido pelas redes sociais, atingindo tal nível de relevância tal como meio de comunicação de massa, que são nelas onde ocorrem grande parte dos discursos de ódio contra as mais diversas minorias, legitimando a prática de discriminação ou de violência, transitando do mundo virtual para o mundo real.
6) Quando usuários defendem a “globalização da intifada”, enaltecem grupos terroristas e fazem ameaças contra judeus ou israelenses, sob o olhar permissivo das
plataformas, elas acabam se concretizando, como ocorreu após um jogo de futebol em Amsterdã, duas semanas atrás, quando houve uma caça a judeus pelas ruas daquela cidade – convocada por meio das redes - ou, entre nós, com a interrupção de um debate na Universidade Federal do Ceará por defensores do grupo terrorista Hamas ou com os ataques a uma vendedora judia em Arraial d'Ajuda, na Bahia, apenas para citar alguns exemplos.
7) Apesar de as redes sociais não dependerem de ordem judicial para realizarem a moderação, com raras exceções, ao menos no recorte antissemitismo, os números são alarmantes: no último ano, a Confederação Israelita do Brasil constatou mais de 118 mil menções antissemitas nas redes sociais em nosso país, com o perigoso alcance potencial de mais de 95 milhões de visualizações.
8) Tais evidências revelam, mais de dez anos após a vigência do MCI, a necessidade de imputar maior responsabilidade às redes sociais na moderação de conteúdo, por mais difícil que seja essa tarefa.
9) São diversas as normas e decisões internacionais impondo às plataformas a necessidade de adotarem o devido processo informacional na moderação de conteúdo, tais como o Digital Millennium Copyright Act (EUA), Direito ao Esquecimento (UE), NetzDG (Alemanha) e o Digital Services Act (UE).
10) Inclusive, acerca da NetzDG (Alemanha), em vigor desde 1º de outubro de 2017, relatório encomendado pelo Ministério Federal da Justiça e Proteção ao
Consumidor da Alemanha (BMJV), de setembro de 2020, não encontrou quaisquer evidências de um dos seus principais temores: o chamado overblocking sistemático de conteúdo pelas plataformas diante do receio de sanções. Muito pelo contrário, a NetzDG, apesar de seus desafios, tem sido uma ferramenta importante no combate ao discurso de ódio e outros conteúdos ilegais online na Alemanha. A lei tem incentivado as plataformas a removerem conteúdo ilegal, aprimorarem seus mecanismos de moderação e investirem em recursos para lidar com o volume crescente de denúncias, assim como vem ocorrendo com o Digital Services Act, em toda a União Europeia.
11) Não se trata de tornar ilegais discursos anteriormente lícitos, mas da obrigação de se estabelecer regime de responsabilidade e conformidade para o gerenciamento de conteúdo nocivo, manifestamente ilegal, nos seguintes termos, que propomos como teses:
- Crimes tipificados criminalmente, especialmente o racismo, terrorismo, instigação a suicídio, violência contra mulher, ilícitos contra crianças e adolescentes, devem ser tratados e removidos em até 24h pelas plataformas que moderam os limites da liberdade de expressão;
- No caso de subjetividade do conteúdo apontado como ilícito (“ilegalidade não óbvia” da lista de crimes), as plataformas devem adotar medidas para avaliar o caso com maior profundidade e terem mais prazo até tomarem uma decisão;
- Em casos de extrema complexidade, prazo ainda maior, utilizando entidades externas e imparciais para ajudarem na avaliação;
- Essas ações devem ser transparentes, com as plataformas divulgando periodicamente os dados e critérios utilizados na moderação de conteúdo, formalizando assim o “dever de cuidado”. A ciência do cidadão e das autoridades sobre quais são os critérios decisórios é uma garantia contra o arbítrio e a seletividade, e um instrumento poderoso para a fiscalização da coerência na moderação de conteúdo.
12) O STF tem uma excelente oportunidade de regular a responsabilização das aplicações de internet de acordo com as suas atividades, conforme o art. 3º, inc. VI, do próprio MCI, gerando o combate mais efetivo ao discurso de ódio, mais especificamente o crime de discriminação e preconceito, com maior segurança jurídica às redes sociais, ao delimitar quais conteúdos estariam abarcados na inconstitucionalidade do art. 19 do MCI, além de determinar maior transparência.
13) Não se trata de “privatização da função jurisdicional”, mas sim de se reencontrar um equilíbrio acerca de quem tem deve estar na linha de frente no combate ao discurso de ódio, ficando o Poder Judiciário sempre como uma segunda via para questionamentos acerca de moderações abusivas das redes sociais ou sem o contraditório ou ampla defesa, quando pertinente.
14) Regulação não é inimiga dos direitos. Tanto usuários quanto provedores têm a ganhar com um
sistema claro e eficiente de resolução e moderação de conflitos online e de reparação civil no contexto deste julgamento.