O chamado projeto de lei das crianças e adolescentes na internet (PL 2628/2022) está prestes a ser votado na Câmara dos Deputados. É a mais importante regulação sobre o ambiente digital em trâmite no Legislativo. Ponto fulcral está no seu artigo 5º, que versa sobre a responsabilidade das empresas de tecnologia digital perante efeitos prejudiciais a crianças e adolescentes.
Na formulação atual, aquele artigo prevê que as big techs deverão observar um “dever de cuidado e de segurança” em relação a produtos disponibilizados para crianças e adolescentes, e, por outro lado, “ativamente impedir o uso” por crianças e adolescentes de produtos que não sejam a elas destinados.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
No recente julgamento pelo Supremo Tribunal Federal (STF) do artigo 19 do Marco Civil da Internet, a responsabilidade dos provedores de conteúdo foi ampliada na hipótese de crimes, excetuados aqueles contra a honra, retirando-se a exigência de prévia ordem judicial para a obrigação de exclusão de conteúdo, uma faceta do dever de cuidado, no sentido de atuar para reduzir riscos de danos a terceiros. Mas até onde deve ir esse papel ativo das big techs quando tratamos de crianças e adolescentes?
O PL delimita o conteúdo das obrigações para mitigar riscos quanto ao uso de produtos e serviços digitais por crianças e adolescentes, o que já consubstancia o dever de cuidado. Explicitá-lo no texto pode trazer a interpretação de que se espera algo além, o que cria insegurança jurídica, pois o conceito não é definido no Código Civil brasileiro. A situação é diferente da menção ao “dever de segurança do produto”, que tem seu regime definido no Código de Defesa do Consumidor.
Já o dever de “ativamente impedir o uso” faz lembrar debate constitucional sobre o papel do Estado, em economia baseada na livre iniciativa, quanto aos riscos da comunicação social e da propaganda de produtos nocivos. Na época, havia a preocupação de que a intervenção direta para proteger os destinatários da comunicação acabasse por inserir na Constituição Cidadã uma indesejada postura estatal paternalista.
A solução constitucional foi, então, prever, no artigo 220 § 3º, inciso II, que o Estado deveria apenas prover “os meios que garantam à pessoa e à família a possibilidade de se defenderem de programas ou programações potencialmente nocivas”.
Se a Constituição não quer um Estado paternalista, também não quer big techs paternalistas, que venham a se responsabilizar por impedir crianças de acessar ou usar inadequadamente conteúdos impróprios. Às techs deve caber apenas prover os meios técnicos e informações necessárias para assegurar que os responsáveis e a família possam proteger as crianças a adolescentes no ambiente digital, mas não se apropriar da autonomia dos cidadãos no cuidado, formação e orientação educacional de seus filhos. Tal proteção é dever de todos, em colaboração: do Estado, das big techs e da família.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
E a forma mais eficaz de fazê-lo é inserir os meios de proteção no próprio design dos produtos. O artigo 7º do PL traz, de forma confusa, a obrigação às big techs de garantir a privacidade e proteção de dados por concepção e por padrão. É importante separar os conceitos.
Desde a concepção dos produtos e serviços, devem os fornecedores seguir o estado da arte e melhores práticas para oferecer, quando cabível, diferentes configurações de privacidade e de funcionalidades adequadas à progressão de desenvolvimento da criança e do adolescente, sempre no seu melhor interesse.
Já por padrão, deve disponibilizar o produto configurado com o mais alto grau de proteção e fornecer informações claras e acessíveis para que a criança e seus responsáveis eventualmente consintam com configurações menos protetivas. Dessa forma, sem ressuscitar o arcaísmo paternalista, respeita-se a autonomia do cidadão, para que a família se proteja no ambiente digital e não do ambiente digital.