O Supremo Tribunal Federal (STF) iniciou, no último dia 27/11, o julgamento da constitucionalidade da regra que estabelece quando as plataformas digitais devem ter responsabilidade por conteúdos publicados por seus usuários. Um dos centros do debate é o artigo 19 do Marco Civil da Internet (Lei 12.965, de 23 de abril de 2014). Este artigo prevê que as plataformas são passíveis de punição somente se receberem decisão judicial determinando a remoção de conteúdos e se negarem a obedecer.
No julgamento em curso no STF, segmentos da sociedade civil – como partidos políticos, movimentos sociais e pesquisadores – reivindicam uma atualização urgente do artigo 19, sob o argumento de que a atual redação do referido dispositivo já não dá conta de situações complexas e dinâmicas surgidas no mundo das comunicações mediadas por plataformas digitais. Como exemplos, os defensores da atualização do artigo 19 citam a velocidade com que postagens danosas – como acusações caluniosas, discursos de ódio, racismo, homofobia, misoginia e negacionismo – se disseminam atualmente nos meios digitais de grandes plataformas como Google, Facebook, Instagram, Tik-Tok e X, entre várias outras. O que dificulta ainda mais a busca de reparação judicial por parte de pessoas e/ou instituições diretamente atingidas, sobretudo no Brasil, onde o acesso ao Poder Judiciário é difícil e custoso monetariamente.
Assim, a principal proposta de modificação do artigo 19 vai no sentido de obrigar as plataformas a praticarem o chamado “dever de cuidado”. Em outras palavras, um sistema que as obrigue a retirar do ar, mediante notificação das partes afetadas, postagens que atentem contra os direitos à dignidade humana e à privacidade. Sem tal modificação, a atual redação do artigo 19 do Marco Civil continuará atribuindo à vítima o ônus da responsabilização.
Do lado dos defensores da manutenção do artigo 19 em seu atual formato, incluindo as plataformas, argumenta-se que a obrigação do “dever de cuidado” pode se configurar em um “atentado contra a liberdade de expressão” consagrada na Constituição Federal de 1988. Tal argumento, no entanto, é no mínimo falacioso. Primeiro, porque liberdade de expressão, nos meios digitais ou fora deles, não pode ser confundida com a existência de um espaço sem lei, uma terra de ninguém na qual cada um diga o que quiser, sem limites ou preocupações com as consequências derivadas de suas mensagens. Segundo, por ser inaceitável o argumento das grandes plataformas digitais, segundo o qual elas atuariam como meras “intermediárias” das postagens de seus milhões de usuários.
Atualmente, todas as grandes plataformas citadas já promovem a curadoria de conteúdos como forma preventiva de evitar a disseminação de discursos de ódio, desinformação, misoginia, racismo, homofobia, calúnia e difamação. O que já foi um avanço em relação ao que tínhamos até a primeira década deste século XXI. No entanto, a curadoria “espontânea” praticada pelas plataformas tem se mostrado insuficiente na prevenção de danos causados a pessoas e/ou instituições por esses discursos nos ambientes virtuais.
Recentemente, a União Europeia (UE) adotou com sucesso uma regra semelhante à que está sendo proposta para a modificação do artigo 19 do Marco Civil da Internet. Ou seja: a obrigatoriedade de as plataformas removerem conteúdos danosos, sem necessidade de ordem judicial. Por que não implementar o mesmo aqui no Brasil?