No mês passado, lamentamos a criação da Lei de Inteligência Artificial de Fronteira da Califórnia de 2025. A lei prioriza a conformidade em detrimento da gestão de riscos, ao mesmo tempo que protege burocratas e legisladores da responsabilidade. Em sua maior parte, ela impõe normas regulatórias de cima para baixo, em vez de permitir que a sociedade civil e especialistas do setor experimentem e desenvolvam padrões éticos de baixo para cima.
Fonte: De autoria de Elen Irazabal Arana e Nikolai G. Wenzel via TheDailyEconomy.org
Talvez pudéssemos descartar a lei como apenas mais um exemplo da tendência intervencionista da Califórnia. Mas alguns políticos e reguladores americanos já estão defendendo que a lei sirva de “modelo para harmonizar a supervisão federal e estadual”. Outra fonte para esse modelo seria a União Europeia (UE), portanto, vale a pena ficar de olho nas regulamentações que emanam de Bruxelas.
A UE já está muito à frente da Califórnia na imposição de regulamentações problemáticas e autoritárias. De fato, a Lei de Inteligência Artificial da UE de 2024 segue o princípio da precaução da UE. Como explica o think tank interno do Parlamento Europeu , “o princípio da precaução permite que os decisores adotem medidas preventivas quando as evidências científicas sobre um risco ambiental ou para a saúde humana são incertas e os riscos são elevados”.
O princípio da precaução confere imenso poder à UE no que diz respeito à regulamentação em situações de incerteza — em vez de permitir a experimentação com as salvaguardas das multas e da responsabilidade civil (como nos EUA). Isso sufoca o aprendizado ético e a inovação. Devido ao princípio da precaução e à regulamentação associada, a economia da UE sofre com maior concentração de mercado, custos mais elevados de conformidade regulatória e menor inovação — em comparação com um ambiente que permite a experimentação e a gestão sensata de riscos. Não é de admirar que apenas quatro das 50 maiores empresas de tecnologia do mundo sejam europeias.
Da inovação sufocada à privacidade sufocada
Juntamente com o princípio da precaução, a segunda força motriz por trás da regulamentação da UE é a promoção de direitos — mas através da seleção arbitrária, a partir da Carta dos Direitos Fundamentais da UE , de direitos que frequentemente entram em conflito com outros. Por exemplo, o Regulamento Geral de Proteção de Dados (RGPD) da UE, de 2016, foi imposto com a ideia de proteger um direito fundamental à proteção de dados pessoais (este direito é tecnicamente distinto do direito à privacidade e confere à UE muito mais poder de intervenção — mas isso é assunto para artigos acadêmicos). O RGPD acabou por restringir o direito à liberdade econômica.
Desta vez, os direitos fundamentais estão sendo usados para justificar a luta da UE contra o abuso sexual infantil. Todos nós amamos os direitos fundamentais e todos nós detestamos o abuso infantil. Mas, ao longo dos anos, os direitos fundamentais têm sido usados como uma arma contundente e poderosa para expandir os poderes regulatórios da UE. O regulamento proposto sobre Abuso Sexual Infantil (CSA) não é exceção. O que é excepcional é a extensão da intrusão: a UE propõe monitorar as comunicações entre cidadãos europeus, agrupando-as todas como ameaças potenciais, em vez de considerá-las como discurso protegido que goza de um direito prima facie à privacidade.
A partir de 26 de novembro de 2025, a máquina burocrática da UE tem negociado os detalhes da Lei de Abuso Sexual Infantil (CSA). Na versão mais recente, a varredura obrigatória de comunicações privadas foi felizmente removida, pelo menos formalmente. Mas há uma ressalva. Os provedores de serviços de hospedagem e comunicação interpessoal devem identificar, analisar e avaliar como seus serviços podem ser usados para abuso sexual infantil online e, em seguida, tomar “todas as medidas de mitigação razoáveis”. Diante de um mandato tão abrangente e da ameaça de responsabilidade legal, muitos provedores podem concluir que a maneira mais segura — e juridicamente prudente — de demonstrar que cumpriram a diretiva da UE é implementar varreduras em larga escala de comunicações privadas.

A minuta do CSA insiste que as medidas de mitigação devem, sempre que possível, ser limitadas a partes específicas do serviço ou a grupos específicos de usuários. Mas a estrutura de incentivos aponta em uma direção. O monitoramento generalizado pode acabar sendo a única opção viável para o cumprimento da regulamentação. O que hoje é apresentado como voluntário corre o risco de se tornar uma obrigação de fato amanhã.
Nas palavras de Peter Hummelgaard, Ministro da Justiça da Dinamarca: “Todos os anos, milhões de arquivos são compartilhados, retratando o abuso sexual de crianças. E por trás de cada imagem e vídeo, há uma criança que foi submetida aos abusos mais horríveis e terríveis. Isso é completamente inaceitável.”
Ninguém contesta a gravidade ou a perversidade do problema. No entanto, sob essa narrativa, espera-se que a indústria de telecomunicações e os cidadãos europeus absorvam medidas perigosas de mitigação de riscos, que provavelmente envolverão a perda de privacidade dos cidadãos e amplos poderes de monitoramento para o Estado.
O custo, dizem-nos, é insignificante em comparação com o benefício.
Afinal, quem não gostaria de combater o abuso sexual infantil? Já passou da hora de respirarmos fundo. Os abusadores de crianças devem ser punidos severamente. Isso não exime uma sociedade livre de respeitar outros valores fundamentais.
Mas espere. Tem mais…
Monitoramento generalizado? Bem, não completamente generalizado.
Apesar do imperativo moral de proteger as crianças — um imperativo tão forte que a UE está disposta a violar outros valores fundamentais para promovê-lo — a proposta de lei sobre abuso sexual infantil introduz uma exceção conveniente. Tudo o que se enquadra na segurança nacional e qualquer serviço de comunicação eletrônica que não seja de acesso público ( ou seja, disponível apenas para autoridades eleitas e burocratas) permaneceria totalmente intocado. Conversas privadas entre cidadãos exigem escrutínio — mas as conversas daqueles que afirmam nos proteger estão fora de questão.
Como disse o ministro, “por trás de cada imagem e vídeo há uma criança que foi submetida aos abusos mais horríveis e terríveis”. Se isso é de fato verdade para cada “imagem e vídeo”, por que não seria também verdade para as mensagens protegidas pelas exceções de segurança nacional e não públicas da CSA? O horror se dissipa de alguma forma quando os usuários são políticos ou burocratas? O inaceitável se torna repentinamente aceitável quando diz respeito a quem cria as regras?
Na hierarquia de direitos da UE, a proteção das crianças está acima da privacidade. Mas a proteção dos eurocratas está acima da proteção das crianças. No fim das contas, a tecnologia moderna oferece aos políticos oportunidades sem precedentes para monitorar os cidadãos, enquanto se isentam de qualquer escrutínio.
Não há ainda nenhuma conversa — que saibamos — sobre a imposição de medidas semelhantes nos EUA. Mas, desde o imposto sobre a riqueza até a regulamentação da IA — e as próprias origens do Estado administrativo americano — as más ideias vindas da Europa têm uma maneira desagradável de atravessar o Atlântico.



