O debate regulatório global vive um momento de descompasso: nunca se falou tanto em regular, mas raramente a discussão de políticas públicas tem incorporado dados empíricos de forma rigorosa.
Um exemplo é que, enquanto países como o Brasil discutem banimento de adolescentes das redes sociais, estudos com mais de 125 mil adolescentes na Austrália e no Reino Unido mostram uma “curva em U”: uso moderado está associado a saúde mental superior à de quem não usa as plataformas. É uma conclusão contraintuitiva para o que tem se tornado senso comum legislativo, já que políticas de proibição total poderiam, ironicamente, prejudicar o próprio grupo que visam proteger – que, aliás, está sendo pouco ouvido nesse debate.
O mesmo padrão se repete com a inteligência artificial: a narrativa dominante afirma que a IA generativa está dizimando postos de trabalho criativos agora. No entanto, o relatório “Futuros Criativos”, publicado pelo Reglab, revela uma realidade mais complexa: a economia criativa brasileira não apenas cresceu nos últimos cinco anos como viu um aumento de produtividade em setores que já utilizam IA intensivamente.
Por que, então, reguladores, profissionais de políticas públicas e até gestores corporativos continuam não levando em conta essas evidências?
O problema é estrutural – e começa na nossa formação
A formação jurídica brasileira nos ensina a trabalhar com princípios e danos: “Isso é constitucional?”, “Qual o pior cenário caso isso dê errado?”. É um raciocínio necessário, mas que naturalmente enfatiza a hipótese de dano. Já as ciências sociais e a economia trabalham com probabilidades e trade-offs: “Qual a chance estatística disso ocorrer?”, “Quais os custos e benefícios distribuídos de cada escolha?”, “Quem ganha e quem perde com esta decisão?”.
São idiomas diferentes. Cientistas falam grego, e juristas falam latim. Nesse vácuo de comunicação, o “achismo” prospera. É para preencher essa lacuna que nasce esta coluna.
Evidências em destaque
Nossa proposta aqui não é oferecer mais uma opinião jurídica, mas sim fazer tradução de políticas públicas (policy translation).
O conceito é simples, mas trabalhoso: transformar estudos acadêmicos densos, modelos econômicos e bases de dados brutos em inteligência acionável para quem toma decisão.
Queremos mostrar o que a evidência diz sobre a eficácia de uma regulação, quais são os custos invisíveis de uma nova lei e quem são os verdadeiros ganhadores e perdedores de cada política pública em discussão no campo de mídia e tecnologia.
Para isso, assumimos um compromisso de rigor. No Reglab, utilizamos internamente a regra AJR (Afirmação, Justificativa, Ressalva): nenhuma afirmação de impacto sobre tecnologia deve ser feita sem a devida justificativa empírica e, crucialmente, sem a ressalva de suas limitações. Fugiremos das generalizações absolutas do tipo “a IA vai acabar com a democracia” ou “a regulação vai matar a inovação”. O mundo real raramente é binário; ele é feito de trade-offs.
O que esperar desta coluna em 2026
Ao longo deste ano, utilizaremos este espaço para aplicar esse ceticismo informado a temas que devem definir a agenda de discussão do digital.
No primeiro semestre, abordaremos os desafios de implementação do ECA Digital, o avanço do projeto de lei de regulação da inteligência artificial, os dilemas na regulação de influenciadores digitais e a repercussão da decisão do STF sobre responsabilidade das plataformas.
E com tantas leis, investigaremos também “ressaca” da regulação, monitorando os efeitos de segunda ordem, como custos de conformidade que barram novos entrantes, concentração de mercado e a adaptação dos modelos de negócio. E, claro, também teremos um olhar cauteloso sobre as eleições de 2026 para além do pânico sobre deepfakes.
O convite está feito. Para quem busca navegar o debate regulatório com menos retórica e mais evidência: bem-vindos ao nosso radar.

