Os ministros do Supremo Tribunal Federal (STF) chegaram a um acordo nesta quinta-feira (26/6) sobre como será operacionalizada a alteração da responsabilidade civil das plataformas digitais sobre os conteúdos postados por usuários. De acordo com o consenso firmado na Corte, as big techs passam a ter mais responsabilidade sobre o conteúdo de terceiros que circula em seus ambientes. A partir de agora, como regra geral, as empresas devem retirar os conteúdos criminosos assim que houver a notificação do ofendido, sem necessidade de ordem judicial, caso não o façam, podem ter que reparar danos, como pagar indenizações. Antes, isso só ocorria após o descumprimento de uma ordem judicial de retirada.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
O acordo foi construído em um almoço na presidência da Corte que durou mais de quatro horas na sala da presidência. Antes da leitura da tese, o presidente do STF, Luís Roberto Barroso, ponderou que a tese foi construída dentro de “consensos possíveis” e lembrou das divergências dos ministros Edson Fachin, André Mendonça e Nunes Marques. “Foi uma solução equilibrada e moderada, preservando a liberdade de expressão, sem criar um abismo da incivilidade”, disse o presidente.
O tema foi discutido no julgamento de dois recursos que envolviam moderação de conteúdo e a constitucionalidade do artigo 19 do Marco Civil da Internet. Como a discussão se deu em repercussão geral, o que foi decidido valerá para todas as instâncias judiciais daqui para a frente.
O que muda
O STF aumentou a responsabilidade e os deveres das plataformas, principalmente em relação a conteúdos considerados sensíveis. Havia uma leitura entre a sociedade, ministros do STF e vítimas de que o artigo 19 Marco Civil da Internet estava insuficiente para o combate a fake news, violência e discursos de ódio, por isso, seria necessária uma nova interpretação da lei para tentar melhorar o ambiente virtual.
Da forma como foi construída, a regra geral passa a ser o artigo 21 do Marco Civil da Internet. Contudo, há exceções, pois o artigo 19 não foi afastado em sua integralidade. O artigo 19 será aplicado nas hipóteses de crime, sem prejuízo da possibilidade de remoção por notificação extrajudicial. O artigo 19 também aplica-se aos provedores de serviços de e-mail, de reuniões fechadas por vídeo ou voz (como o Zoom e Google Meets) e mensageria instantânea (como Whatsapp e Telegram – exclusivamente no que diz respeito às comunicações interpessoais).
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
As empresas devem derrubar de forma imediata posts com conteúdos ilícitos considerados graves em um rol taxativo, como em publicações sobre racismo, homofobia, pedofilia, ofensas à democracia, pornografia infantil, entre outros. Contudo, a responsabilidade civil só surgirá no caso de falha sistêmica, ou seja, quando a empresa deixar de adotar medidas de prevenção ou remoção dos conteúdos.
De acordo com a decisão do STF, fica estabelecida a presunção de responsabilidade dos provedores em caso de conteúdos criminosos circulados por meio de anúncios e impulsionamentos pagos; ou por rede artificial de distribuição, como chatbot ou robôs. Nestas hipóteses, a responsabilização poderá se dar independentemente de notificação. As empresas de internet ficarão excluídas de responsabilidade se comprovarem que atuaram de forma diligente e em tempo razoável derrubar o conteúdo.
Responsabilidade subjetiva
A responsabilidade das empresas será subjetiva, isto é, exige a comprovação da culpa ou dolo da big tech para que ela seja obrigada a reparar o dano causado. Esse ponto preocupava as empresas porque no voto de um dos relatores, o do ministro Dias Toffoli, foi trazida a responsabilidade objetiva – obrigação de reparação independentemente da comprovação de culpa.
A partir da crise gerada entre o STF com big techs, como o X, os ministros obrigam de forma clara que as empresas com atuação no Brasil devem ter sede e representante legal no país, com identificação e informações para contato. Ainda, as big techs deverão editar autorregulação com sistema de notificações, devido processo legal e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos.
Em relação aos marketplaces, as empresas respondem civilmente de acordo com o Código de Defesa do Consumidor (Lei 8.078/90). Os ministros também fizeram um apelo ao Congresso Nacional para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais.
A responsabilização das plataformas digitais por conteúdos de usuários foi julgada em dois recursos extraordinários com repercussão geral – o RE 1.037.396 (Tema 987) e o RE 1.057.258 (Tema 533).