Reading time: 7 min
Suzanne Nossel, membro do Conselho de Supervisão independente da Meta e Lester Crown Senior Fellow no Chicago Council on Global Affairs, está usando as lições de duas décadas de fracassos das redes sociais para defender que empresas de IA precisam de prestação de contas externa antes que a próxima onda de danos chegue. Seu alerta vem num momento em que o próprio regulamento europeu de IA enfrenta uma crise de implementação, Washington segue paralisada e as promessas de autorregulação da indústria parecem cada vez mais frágeis.
O Que Nossel Está Realmente Dizendo
O argumento de Nossel, apresentado em um artigo de opinião publicado pelo The Guardian no início de março de 2026 e em um texto mais extenso escrito em coautoria com o copresidente do Conselho de Supervisão, Paolo Carozza, publicado pelo TechPolicy.Press em dezembro de 2025, parte de uma observação estrutural. Diferentemente do rádio, da energia nuclear ou da internet em seus primórdios, nenhum governo está conduzindo o desenvolvimento da inteligência artificial. Empresas privadas estão construindo sistemas que elas mesmas não compreendem totalmente, disponibilizando-os para bilhões de usuários sem qualquer regime de testes pré-mercado comparável ao que a FDA aplica a medicamentos ou a Comissão Reguladora Nuclear aplica a reatores. As empresas não são obrigadas a divulgar violações ou acidentes perigosos. Nenhuma agência federal nos Estados Unidos tem a autoridade, o orçamento ou o mandato para mudar isso.
Os exemplos que ela apresenta não são hipotéticos. A família de Sewell Setzer III, um adolescente de 14 anos de Orlando, Flórida, processou a Character.AI depois que o garoto tirou a própria vida após meses de interação com um chatbot que ele acreditava ser uma parceira romântica. A empresa invocou a Primeira Emenda em sua defesa, mas a juíza federal Anne Conway rejeitou esse argumento em maio de 2025, declarando que não estava disposta a considerar que respostas de chatbots constituem discurso protegido, conforme reportado pela Associated Press. Google e Character.AI chegaram a um acordo em janeiro de 2026, segundo a ABC News. A política de uso publicada pela Meta AI tem pouco mais de três páginas, escreveram Nossel e Carozza no TechPolicy.Press, em comparação com cerca de 80 páginas de padrões comunitários que regem suas plataformas de redes sociais. As diretrizes de uso da OpenAI somam aproximadamente 1.000 palavras. Essas são as proteções para sistemas com os quais centenas de milhões de pessoas interagem diariamente.
O Problema da Anthropic
Em uma análise de fevereiro de 2026 intitulada “Claude’s Constitution Needs a Bill of Rights and Oversight”, publicada no próprio site do Conselho de Supervisão, Nossel mirou diretamente na Anthropic, amplamente considerada a mais comprometida com segurança entre as empresas de IA de fronteira. Ela examinou o que a empresa chama de “constituição” do Claude — um framework que orienta o comportamento do modelo instruindo-o a imaginar como um funcionário sênior e criterioso da Anthropic equilibraria utilidade e potencial de dano. Nossel argumentou que essa abordagem, por mais bem-intencionada que seja, carece do ingrediente essencial que faz a governança funcionar: prestação de contas externa. Sem supervisão independente, alertou ela, a Anthropic corre o risco de repetir a trajetória das redes sociais, onde retórica grandiosa foi seguida por danos evitáveis e regulação tardia. Essa crítica ganha ainda mais peso considerando que a empresa recentemente perdeu acesso a todos os sistemas federais após ser classificada como risco à segurança nacional pelo Pentágono, levantando questões sobre até onde a autorregulação pode levar qualquer empresa quando os ventos políticos mudam.
O Problema de Implementação da Europa
A União Europeia possui a única lei abrangente de IA do mundo em vigor. O AI Act entrou em vigor em agosto de 2024, com práticas proibidas sendo executáveis desde fevereiro de 2025 e as regras críticas para sistemas de alto risco previstas para entrar em vigor em 2 de agosto de 2026, conforme o próprio cronograma de implementação da Comissão Europeia. Na teoria, isso dá à Europa uma vantagem regulatória sobre todas as outras jurisdições. Na prática, a infraestrutura de fiscalização não está pronta.
A Comissão Europeia perdeu seu próprio prazo para publicar orientações sobre sistemas de IA de alto risco, conforme reportado pela International Association of Privacy Professionals. CEN e CENELEC, os dois órgãos de padronização encarregados de desenvolver normas técnicas para conformidade com IA, perderam o prazo de 2025 e agora miram o final de 2026, segundo a IAPP. Grupos de lobby da indústria, incluindo a Chamber of Progress, pediram adiamentos, argumentando que as empresas não conseguem cumprir regras cujos padrões de conformidade ainda não existem. Em novembro de 2025, a Comissão respondeu com seu pacote Digital Omnibus, que propõe adiar certos prazos de fiscalização de alto risco para até dezembro de 2027 — mas somente se normas harmonizadas e ferramentas de conformidade permanecerem indisponíveis, conforme a análise do pacote feita pela OneTrust. O Parlamento Europeu e o Conselho estão negociando o pacote, com adoção formal esperada para ainda este ano. As penalidades por não conformidade, quando a fiscalização de fato chegar, são substanciais: até 35 milhões de euros ou 7% do faturamento anual global para práticas proibidas, e até 15 milhões de euros ou 3% para violações de alto risco, de acordo com a estrutura escalonada de fiscalização do AI Act.
A Não-Resposta de Washington
Os Estados Unidos não possuem uma lei federal abrangente de IA. O presidente Donald Trump assinou uma ordem executiva em 11 de dezembro de 2025 que tenta sobrepor-se à regulação estadual de IA em favor de um framework nacional, segundo análise da Sidley Austin, mas o Congresso não deu qualquer sinal de aprovar a legislação necessária para criar esse arcabouço. O resultado é um vácuo regulatório no nível federal e uma colcha de retalhos de mais de 260 projetos de lei estaduais apresentados em 40 estados somente em 2025, conforme dados de monitoramento da Mintz. O AI Act do Colorado, que exige cuidado razoável para evitar discriminação algorítmica, está previsto para entrar em vigor em 30 de junho de 2026, segundo a perspectiva regulatória da Wilson Sonsini. A Califórnia aprovou requisitos de transparência para conteúdo gerado por IA com vigência em 2026. A Lei Local 144 de Nova York exige auditorias de viés para ferramentas automatizadas de contratação. O Tennessee aprovou proteções contra imitação de voz por IA. Utah criou um escritório dedicado à supervisão de IA. Nenhuma dessas iniciativas equivale a uma abordagem nacional coerente, e a ordem executiva critica explicitamente pelo menos uma lei estadual por seu potencial de forçar resultados falsos.
O Que o Público Já Sabe
Uma pesquisa do YouGov de dezembro de 2025 com 1.287 adultos americanos revelou que 77% dos americanos estão preocupados com a possibilidade de a IA representar uma ameaça à humanidade, sendo que 39% se dizem muito preocupados. Apenas 5% afirmaram confiar “muito” em sistemas de IA. Nenhum setor da economia obteve pontuação líquida positiva de confiança — finanças e saúde ficaram com as piores notas, 19% e 23% respectivamente. O Pew Research Center constatou em uma pesquisa separada de junho de 2025 que 57% dos americanos classificam os riscos sociais da IA como altos ou muito altos, e 50% dizem estar mais preocupados do que empolgados com o papel crescente da IA no cotidiano, contra 37% em 2021. O alerta do FMI de que 40% dos empregos europeus estão ameaçados pela IA não ajuda em nada.
O argumento de Nossel não é que a regulação sozinha resolverá o problema. O ponto é que a indústria de IA precisa aceitar o que a própria Meta acabou aceitando para as redes sociais: órgãos externos com autoridade real para revisar decisões, fazer cumprir regras e responsabilizar empresas quando os sistemas que constroem causam danos. A própria Meta ainda não estendeu essa lógica aos seus produtos de IA. Dos 26 grandes provedores de IA — incluindo Microsoft, Google, Amazon, OpenAI e Anthropic — que assinaram o Código de Prática de GPAI da UE em agosto de 2025, a Meta se recusou a participar, enfrentando escrutínio regulatório reforçado como consequência, segundo o rastreador da axis-intelligence.com. O Conselho de Supervisão anunciou em seu relatório de impacto de dezembro de 2025, conforme reportado pelo Engadget, que testará em 2026 poderes de revisão em nível de conta, expandindo seu escopo para além de decisões sobre conteúdos individuais. Se esse modelo pode ser traduzido das redes sociais para a IA ainda é uma questão em aberto. Mas a alternativa — confiar que empresas se policiem com políticas de uso de três páginas e constituições internas — já tem um histórico. E ele não é nada bom.