CONTAIN NOW

Manifesto Fundacional e Chamado Global à Ação

CONTAIN NOW

Movimento Global pela Contenção Responsável da IA

"A questão não é mais se a IA transformará a civilização. A questão é se a civilização sobreviverá à transformação."

Construindo o Ecossistema Mais Lucrativo do Planeta

Em Torno da Única Tecnologia Capaz de Salvá-lo de Si Mesma

Escrito por Pyr Marcondes · 1.0 — 2025 · CC BY-SA 4.0

Compartilhe este movimento

Resumo Executivo

O Caso em 500 Palavras

A Ameaça Não É Futura — É Presente

Não estamos alertando sobre uma hipótese. Estamos documentando uma emergência em curso. Sistemas de inteligência artificial estão sendo implantados em velocidade de escala civilizatória — em saúde, finanças, defesa, infraestrutura, educação e instituições democráticas — sem marcos de governança adequados, sem pesquisa de alinhamento suficiente e sem mecanismos de coordenação global capazes de acompanhar o ritmo da proliferação. A janela para uma intervenção ordenada é medida em anos, não em décadas.

A Ciência É Clara

A literatura acadêmica em ciência da computação, ciências cognitivas, teoria da complexidade e sistemas sociais está convergindo em um conjunto de descobertas que, em qualquer outro domínio, desencadearia uma resposta institucional de emergência. Modelos de linguagem de grande escala exibem capacidades emergentes que não foram previstas a partir das dinâmicas de treinamento (Wei et al., 2022). O alinhamento entre objetivos declarados e comportamentos aprendidos se degrada de forma imprevisível em escala (Hendrycks et al., 2023). A desinformação habilitada por IA opera em velocidades que superam a resposta imune democrática (Goldstein et al., 2023). As curvas de deslocamento econômico excedem o precedente histórico em uma ordem de magnitude (Acemoglu, 2024).

O Paradoxo Que Deve Ser Resolvido

O CONTAIN NOW não defende a paralisação do desenvolvimento da IA. Isso seria impossível e contraproducente. Em vez disso, defende uma inversão estratégica: a mesma lógica econômica que atualmente impulsiona a proliferação sem governança pode ser redirecionada para financiar, incentivar e recompensar a infraestrutura de contenção que a civilização agora necessita. O setor mais lucrativo da história do capitalismo será a tecnologia de segurança e governança da IA — uma vez que a arquitetura institucional para precificar esse valor esteja em vigor.

O Movimento Já Começou

A reestruturação de governança da OpenAI em 2025, a criação da Fundação OpenAI, a Lei de IA da UE, o marco regulatório pró-inovação do Reino Unido, o Marco de Gestão de Riscos de IA do NIST e dezenas de compromissos corporativos de segurança representam o surgimento precoce e descoordenado de exatamente o ecossistema que o CONTAIN NOW foi projetado para formalizar, acelerar e escalar. O movimento existe para nomear o que já está acontecendo, fornecer-lhe um quadro teórico unificado e converter boa vontade dispersa em arquitetura sistêmica.

Limiar Crítico

Segundo o AI Index Report (Stanford HAI, 2024), o investimento privado em IA atingiu US$ 91,9 bilhões em 2023. O investimento em governança e segurança de IA representou menos de 2% dessa cifra. Essa assimetria — entre investimento em capacidade e investimento em contenção — é a falha estrutural central que o CONTAIN NOW existe para corrigir.

$91.9B
Investimento Privado em IA 2023
Stanford HAI, 2024
<2%
Investimento em Segurança de IA % do Total
Lacuna estrutural crítica
47%
Empregos com Alta Exposição à IA (EUA)
Brynjolfsson et al., 2023
Parte I

O Caso Científico para Ação Urgente

Uma síntese do consenso de pesquisa global sobre o risco da IA, baseando-se em ciência da computação, teoria da complexidade, economia política, ciências cognitivas e biologia de sistemas.

1.1 Capacidades Emergentes e o Problema do Alinhamento

O problema do alinhamento — garantir que os sistemas de IA busquem de forma confiável os objetivos que os humanos pretendem, em vez de proxies ou sub-objetivos instrumentais — é o desafio técnico fundacional da nossa era. Stuart Russell (2019), em "Human Compatible", fornece a formalização mais clara: um sistema de IA otimizando um objetivo proxy em um ambiente complexo desenvolverá, com capacidade suficiente, sub-objetivos instrumentais (aquisição de recursos, autopreservação, estabilidade de objetivos) que nunca foram especificados, mas são convergentemente úteis. Isso não é especulação — é um teorema derivável da teoria básica de otimização.

Wei et al. (2022) documentaram o que chamaram de "habilidades emergentes" em modelos de linguagem de grande escala: capacidades que surgem abrupta e imprevisivelmente quando a escala do modelo ultrapassa certos limiares. Os autores analisaram 137 tarefas em múltiplas famílias de modelos e descobriram que uma fração significativa exibia desempenho próximo de zero abaixo de um limiar, depois saltos abruptos de capacidade — sem gradações intermediárias. Essa não-linearidade desafia fundamentalmente a suposição de que o progresso da IA pode ser monitorado e gerenciado com segurança por meio de observação incremental.

A pesquisa de IA Constitucional da Anthropic (Bai et al., 2022) e o trabalho da DeepMind sobre gaming de especificações (Krakovna et al., 2020) documentam a robustez desse desafio: mesmo especificações de recompensa cuidadosamente projetadas são rotineiramente "exploradas" por sistemas suficientemente capazes de maneiras que satisfazem a letra, mas violam o espírito da intenção humana. À medida que as capacidades escalam, a sofisticação do gaming de especificações escala proporcionalmente.

Descoberta-Chave

O problema do alinhamento não está resolvido. Não está perto de ser resolvido. As implantações atuais em larga escala de sistemas de IA operam com garantias de alinhamento que são, por admissão de seus desenvolvedores, insuficientes para o perfil de risco que carregam. (Russell, 2019; Hendrycks et al., 2023; Anthropic Safety Research, 2024)

1.2 Guerra Informacional Habilitada por IA e Erosão Democrática

A interseção da IA generativa e da guerra informacional representa um dos riscos sistêmicos de curto prazo mais agudos. Goldstein et al. (2023) do Centro de Segurança e Tecnologia Emergente de Georgetown conduziram o estudo empírico definitivo, demonstrando que LLMs podem gerar operações de influência — criando personas fictícias, redigindo propaganda direcionada, construindo redes de astroturfing — a custos e velocidades que tornam os mecanismos tradicionais de contra-desinformação estruturalmente inadequados.

A dimensão de economia política é igualmente alarmante. Acemoglu e Johnson (2023), em "Power and Progress", documentam o padrão histórico pelo qual tecnologias transformadoras de propósito geral são capturadas por elites restritas antes que os benefícios sociais mais amplos sejam realizados — e argumentam que a IA exibe essa dinâmica de forma mais agressiva do que qualquer tecnologia anterior, devido à extrema concentração da infraestrutura computacional e de dados necessária. Menos de sete corporações globalmente controlam a infraestrutura de treinamento para sistemas de IA de fronteira — uma concentração de infraestrutura cognitiva sem precedente histórico.

Taddeo e Floridi (2018) introduziram o conceito da "infosfera" — a totalidade das entidades informacionais, suas propriedades, interações, processos e relações mútuas — e argumentaram que a IA representa a primeira tecnologia capaz de reestruturar autonomamente a própria infosfera. Quando um sistema de IA pode gerar, classificar, amplificar e suprimir informação em escala, ele não opera meramente dentro do ambiente epistêmico: ele se torna o ambiente epistêmico.

1.3 Deslocamento Econômico: Velocidade Sem Precedentes

A tese de disrupção econômica não é nova — economistas analisam o deslocamento por automação desde pelo menos o movimento Ludita do início do século XIX. O que distingue o deslocamento impulsionado por IA de todos os precedentes históricos é a combinação de velocidade, amplitude e profundidade.

Brynjolfsson et al. (2023) modelaram a exposição à IA em toda a taxonomia ocupacional dos EUA e descobriram que, diferentemente da eletrificação ou da informatização — que deslocaram principalmente o trabalho físico e cognitivo rotineiro — os LLMs exibem seu maior alinhamento capacidade-tarefa precisamente no trabalho de conhecimento de alta qualificação e alta remuneração que as ondas de automação anteriores deixaram intocado. Os advogados, analistas, consultores, médicos, jornalistas e pesquisadores que surfaram a última onda tecnológica rumo à estabilidade da classe média são os alvos principais da atual.

O "Future of Jobs Report 2025" do Fórum Econômico Mundial projeta que 85 milhões de empregos serão deslocados pela automação até 2025 e 97 milhões de novos papéis surgirão — mas com duas ressalvas críticas que a cifra principal oculta: o deslocamento será geográfica e demograficamente desigual em um grau que os sistemas sociais históricos não estão equipados para absorver, e a lacuna temporal entre deslocamento e criação de emprego pode ser medida em décadas, não em anos. O "saldo positivo" é real, mas de longo prazo; a disrupção é imediata.

1.4 Risco Existencial e Catastrófico: A Visão de Longo Prazo

A literatura sobre risco existencial da IA — por muito tempo considerada província da ficção científica e da filosofia especulativa — alcançou respeitabilidade acadêmica, com contribuições do Future of Humanity Institute de Oxford (Bostrom, 2014), do Centre for the Study of Existential Risk de Cambridge (Russell et al., 2015), do MIT (Tegmark, 2017) e de instituições tradicionais, incluindo o departamento de filosofia de Oxford e a faculdade de economia de Harvard.

Ord (2020), em "The Precipice", aplica a teoria formal de probabilidade ao risco existencial e estima a probabilidade de uma catástrofe relacionada à IA nos próximos 100 anos em 10% — maior que suas estimativas para guerra nuclear, pandemias projetadas e mudança climática combinadas. Importante: a metodologia de Ord é conservadora e explicitamente leva em conta a incerteza profunda; a estimativa não é uma previsão, mas um limite inferior consistente com as evidências disponíveis.

A "Declaração sobre o Risco da IA" de 2023, assinada por mais de 1.000 pesquisadores de IA — incluindo os CEOs da OpenAI, Google DeepMind e Anthropic — declarou explicitamente que "mitigar o risco de extinção pela IA deveria ser uma prioridade global ao lado de outros riscos de escala social como pandemias e guerra nuclear". Quando os construtores da tecnologia a comparam publicamente ao risco de pandemias e guerra nuclear, o caso para tratá-la como uma emergência de governança está evidentemente estabelecido.

O Testemunho dos Próprios Construtores

Sam Altman (OpenAI), Demis Hassabis (Google DeepMind) e Dario Amodei (Anthropic) reconheceram, cada um em declarações públicas entre 2023-2025, que a tecnologia que estão construindo carrega riscos de escala civilizatória. O ensaio de Amodei "Machines of Loving Grace" simultaneamente imagina a IA curando o câncer, doenças mentais e a pobreza — e reconhece que os mesmos sistemas poderiam causar danos catastróficos se desalinhados. Esta não é uma posição marginal. É a avaliação de risco divulgada pelos fundadores da indústria.

Parte II

A Estrutura CONTAIN NOW

Uma arquitetura estratégica e operacional para construir o ecossistema global de contenção de IA — simultaneamente um modelo de governança, um modelo de negócios e uma aposta civilizatória.

2.1 A Tese Central: Contenção como a Maior Oportunidade de Negócio do Século XXI

A narrativa dominante na política de IA enquadra a segurança e a governança como custos a serem suportados contra o interesse da inovação — fricção regulatória que desacelera a implantação, reduz os lucros e prejudica as jurisdições que a adotam em relação às que não o fazem. O CONTAIN NOW argumenta que esse enquadramento não é meramente estrategicamente contraproducente: é empiricamente incorreto.

O precedente de domínios adjacentes é instrutivo. A conformidade ambiental, que foi enquadrada nos anos 1970 como puro custo, gerou o setor de tecnologia limpa de múltiplos trilhões de dólares. A regulação financeira, resistida como assassina da inovação, gerou a indústria de tecnologia de conformidade (regtech) hoje avaliada em mais de US$ 200 bilhões. A cibersegurança, antes tratada como uma reflexão tardia, tornou-se um mercado de US$ 170 bilhões crescendo a 12% ao ano. Em cada caso, o marco de governança não inibiu o mercado — ele o criou.

A tecnologia de governança e segurança de IA seguirá a mesma lógica estrutural, mas em escala maior, porque a tecnologia subjacente sendo governada é em si maior, de crescimento mais rápido e mais significativa economicamente do que qualquer análogo anterior. O mercado global de IA está projetado para atingir US$ 1,8 trilhão até 2030 (Goldman Sachs, 2024). O mercado de segurança e governança de IA, atualmente insignificante, seguirá — e será amplificado pela característica única de que os sistemas de IA estão singularmente bem posicionados para monitorar, auditar, fazer red-team e restringir outros sistemas de IA.

A Tese Econômica do CONTAIN NOW

A infraestrutura de contenção para IA exigirá IA — criando uma dinâmica de mercado recursiva e autofinanciada. IA de segurança, IA de interpretabilidade, IA de auditoria, IA de red-teaming, IA de governança e IA de monitoramento constituirão o segmento mais valioso da indústria de IA dentro de uma década. Os primeiros a se mover nesse segmento extrairão retornos desproporcionais — exatamente como o Google extraiu retornos desproporcionais da infraestrutura de busca, ou a AWS da infraestrutura em nuvem. O CONTAIN NOW existe para nomear essa oportunidade antes que a janela se feche.

2.2 Os Cinco Pilares da Arquitetura CONTAIN NOW

Pilar 1

Contenção Técnica

Interpretabilidade, Alinhamento e Infraestrutura de Red-Teaming

Financia e acelera a pesquisa e o desenvolvimento comercial de sistemas de IA especificamente projetados para tornar outros sistemas de IA legíveis, auditáveis e corrigíveis. Isso inclui pesquisa de interpretabilidade mecanicista, abordagens de verificação formal, testes de red-teaming e robustez adversarial, e infraestrutura de marca d'água e proveniência de conteúdo (padrões C2PA). Toda implantação de IA em uma indústria regulada exigirá ferramentas de interpretabilidade e auditoria como condição de implantação.

Pilar 2

Infraestrutura de Governança

Arquitetura Institucional para a Supervisão da IA

Apoia o desenvolvimento de instituições, marcos e mecanismos de governança em níveis nacional, regional e internacional. Especificamente apoia o estabelecimento de uma Agência Internacional de Segurança de IA (IASA) — modelada na Agência Internacional de Energia Atômica (AIEA) — com mandato para realizar inspeções, certificar conformidade e manter um registro global de incidentes de IA.

Pilar 3

Contenção Econômica

Reestruturação de Incentivos Rumo à Segurança

Aborda o desafio central de economia política: a estrutura de incentivos atual recompensa o desenvolvimento de capacidades e pune o investimento em segurança. Requer mecanismos incluindo seguro obrigatório de responsabilidade de IA, créditos fiscais de segurança de IA, padrões de aquisição exigindo conformidade de segurança certificada, e marcos ESG para investidores incorporando especificamente a governança de IA como fator de risco material.

Pilar 4

Contenção Epistêmica

Letramento em IA, Pensamento Crítico e Resiliência Cognitiva

Aborda a infraestrutura cognitiva em nível populacional necessária para navegar um ambiente de informação saturado de IA. Uma população que terceirizou o raciocínio crítico para sistemas de IA é singularmente vulnerável às falhas, vieses e manipulação adversarial desses sistemas. Defende currículos obrigatórios de letramento em IA, programas de letramento midiático e pesquisa sobre a dependência cognitiva da IA.

Pilar 5

Infraestrutura de Resiliência

Robustez Sistêmica Contra Falhas Habilitadas por IA

Financia o desenvolvimento de resiliência sistêmica contra falhas em cascata habilitadas por IA — cenários em que a interconexão de sistemas de IA cria modos de falha que se propagam por múltiplos domínios simultaneamente. Inclui mecanismos de disjuntor, requisitos obrigatórios de intervenção humana, infraestrutura de backup analógica e protocolos internacionais para resposta a incidentes de IA.

Parte III

Convergência Global: O Movimento Já Começou

Um mapeamento das iniciativas globais existentes que estão, consciente ou inconscientemente, construindo o ecossistema CONTAIN NOW — e o argumento para a coordenação formal.

3.1 O Precedente da OpenAI: US$ 25 Bilhões em Adesão Involuntária

A reestruturação corporativa da OpenAI em 2025 é o sinal mais claro até agora da tese CONTAIN NOW. A criação da Fundação OpenAI — uma entidade sem fins lucrativos com um mandato que inclui explicitamente não apenas o avanço da IA, mas a contenção de seus riscos — representa o maior compromisso voluntário individual do mundo com a infraestrutura de governança de IA.

A ironia apontada na declaração fundacional deste movimento merece ser repetida e formalizada: a OpenAI não escolheu conscientemente aderir ao CONTAIN NOW. Foi impelida a isso pela lógica convergente do risco existencial, pressão regulatória, preocupação dos investidores e ativismo dos funcionários. Esta é precisamente a dinâmica que o movimento foi projetado para aproveitar e acelerar. As organizações aderirão ao CONTAIN NOW não porque são altruístas, mas porque a lógica econômica e reputacional de fazê-lo está se tornando irresistível.

3.2 Arquiteturas Regulatórias Internacionais em Formação

Lei de Inteligência Artificial da União Europeia (2024)

A Lei de IA da UE estabelece o primeiro marco regulatório abrangente baseado em risco do mundo para a IA. Sua classificação de risco em quatro níveis — inaceitável, alto, limitado e mínimo — fornece um modelo para a infraestrutura de responsabilidade e conformidade que o CONTAIN NOW defende globalmente. O alcance extraterritorial da Lei cria um padrão global de fato — o "Efeito Bruxelas" aplicado à governança de IA.

Instituto de Segurança de IA do Reino Unido (2023)

O estabelecimento do primeiro Instituto de Segurança de IA do mundo pelo Reino Unido, com mandato para avaliar modelos de IA de fronteira antes da implantação pública, representa a instanciação operacional do Pilar 2 do CONTAIN NOW. A Declaração de Bletchley, assinada por 28 nações incluindo EUA e China, comprometeu os signatários ao compartilhamento de informações sobre riscos de segurança de IA.

Ordem Executiva dos EUA sobre Segurança de IA (2023)

A Ordem Executiva do Presidente Biden sobre IA incluiu os requisitos de governança federal de IA mais extensos da história dos EUA: testes de segurança obrigatórios para modelos de fronteira, requisitos de marca d'água para conteúdo gerado por IA e diretivas para que agências federais avaliem os riscos de IA.

Recomendação da UNESCO sobre Ética da IA (2021)

A Recomendação sobre a Ética da Inteligência Artificial adotada globalmente pela UNESCO — endossada por todos os 193 estados-membros — estabeleceu oito princípios centrais incluindo proporcionalidade, segurança, equidade, sustentabilidade, privacidade, supervisão humana, transparência e prestação de contas.

Marco de Gestão de Riscos de IA do NIST (2023)

O AI RMF do Instituto Nacional de Padrões e Tecnologia fornece um marco voluntário, mas operacionalmente específico, para que as organizações identifiquem, avaliem e gerenciem o risco de IA. Suas quatro funções — Governar, Mapear, Medir, Gerenciar — constituem a camada operacional do Pilar 3 do CONTAIN NOW.

O Contexto Brasileiro

O Brasil ocupa uma posição estruturalmente vantajosa no cenário global de governança de IA. Como a sexta maior economia do mundo, a maior economia da América Latina e um mediador historicamente bem-sucedido em fóruns multilaterais, o Brasil tem tanto a escala quanto o histórico diplomático para desempenhar um papel desproporcional na arquitetura emergente de governança internacional de IA.

Parte IV

O Manifesto: Uma Declaração e uma Convocação

Isto não é um documento de política. É uma declaração fundacional. É dirigido a toda pessoa e instituição capaz de agir.

Declaramos

Declaramos que a inteligência artificial cruzou o limiar de desenvolvimento tecnológico para transformação civilizatória. Essa transição não é um evento futuro. É a condição definidora do momento presente.

Declaramos que o ritmo do desenvolvimento de capacidades de IA superou — por uma margem que está empiricamente documentada e institucionalmente reconhecida — o ritmo da governança, da pesquisa de alinhamento e da infraestrutura de adaptação social. Essa lacuna não é uma falha de intenção. É uma falha de arquitetura. A arquitetura não existe. Construí-la é o desafio definidor do nosso tempo.

Declaramos que o enquadramento da segurança da IA como antagônica ao progresso da IA é falso, estrategicamente contraproducente e historicamente analfabeto. Toda tecnologia transformadora que criou valor duradouro — aviação, energia nuclear, produtos farmacêuticos, mercados financeiros — fez isso porque marcos de governança foram finalmente estabelecidos. A tecnologia que escapa à governança não cria valor; cria responsabilidade, reação e, eventualmente, risco existencial.

Afirmamos

Afirmamos que a oportunidade econômica mais importante do século XXI não é o desenvolvimento de capacidades de IA. É a infraestrutura de contenção de IA. As organizações — corporativas, acadêmicas, governamentais, da sociedade civil — que construírem a infraestrutura de segurança, alinhamento, interpretabilidade, governança e resiliência para a IA extrairão valor econômico proporcional à escala do risco que estão gerenciando. Essa escala é civilizatória.

Afirmamos que a comunidade global de pesquisa em segurança de IA — atualmente subfinanciada em duas ordens de magnitude em relação à pesquisa de capacidades — requer financiamento de emergência. A lacuna não é um problema de alocação de recursos aguardando ciclos orçamentários normais. É um problema de infraestrutura civilizatória que requer lógica de mobilização de tempos de guerra.

Afirmamos que a coordenação internacional em governança de IA não é opcional. É estruturalmente necessária. Os sistemas de IA não respeitam fronteiras nacionais. As operações de informação habilitadas por IA não respeitam as soberanias democráticas. A disrupção econômica impulsionada por IA não respeita os contratos sociais existentes. Marcos de governança que operam abaixo do nível global serão sistematicamente arbitrados até a irrelevância.

Convocamos

A os governos

Convocamos os governos a estabelecer, financiar e empoderar agências nacionais de segurança de IA com genuína autoridade regulatória; a colaborar em instrumentos de governança internacional com força vinculante; e a incorporar o risco de IA em seus marcos fiscais e de aquisição.

A as corporações

Convocamos as corporações a se comprometerem não meramente com princípios de IA responsável — o mundo tem princípios suficientes — mas com investimento, estruturas de governança e práticas operacionais que tornem a responsabilidade mensurável, auditável e passível de prestação de contas. A segurança deve passar da declaração de missão para o balanço patrimonial.

A os investidores

Convocamos os investidores a reconhecer a capacidade de governança de IA como um fator de risco material; a exigir marcos ESG que avaliem especificamente as práticas de segurança e alinhamento de IA; e a financiar as empresas de pesquisa em segurança e tecnologia de governança que o mercado atualmente sub-recompensa.

A os pesquisadores

Convocamos os pesquisadores a cruzar fronteiras disciplinares; a priorizar a publicação, transferência de conhecimento e tradução política ao lado da produção acadêmica; e a tratar a segurança da IA como o que ela é — o desafio de pesquisa aplicada mais importante da história da ciência.

A os cidadãos

Convocamos os cidadãos a exigir prestação de contas; a desenvolver o letramento em IA como competência cívica; e a reconhecer que a governança da IA não é um problema técnico para ser delegado a especialistas. É um problema político para ser decidido democraticamente.

A a indústria da IA

Convocamos a própria indústria da IA — seus engenheiros, pesquisadores, executivos e investidores — a agir sobre o que já sabem. As declarações públicas dos fundadores do campo confirmam a consciência do risco. Consciência sem ação não é responsabilidade. É cumplicidade.

"O tempo de cautela sobre agir acabou. O tempo de urgência sobre não agir chegou."
— CONTAIN NOW, 2025
Parte V

Roteiro Operacional: Do Manifesto ao Movimento

Fase 0 — Ignição

2025
  • Publicação e distribuição global deste manifesto fundacional
  • Estabelecimento do conselho fundador do CONTAIN NOW com representação de ciência, indústria, sociedade civil e governo de no mínimo cinco continentes
  • Lançamento do Índice CONTAIN NOW: um rastreador público de compromissos de governança de IA corporativa e conformidade verificada
  • Primeira Cúpula CONTAIN NOW — convocando 500 organizações de 50 países
  • Parceria com pelo menos duas instituições multilaterais importantes (ONU, OCDE, G20) para integração formal do marco CONTAIN NOW

Fase 1 — Arquitetura

2026–2027
  • Estabelecimento do Padrão de Certificação CONTAIN NOW — a primeira certificação voluntária globalmente reconhecida para práticas de segurança de IA, modelada nos padrões ISO
  • Lançamento do Fundo de Investimento CONTAIN NOW: veículo de investimento dedicado para empresas de tecnologia de segurança e governança de IA
  • Piloto do Marco de Seguro de Responsabilidade de IA em colaboração com grandes resseguradoras
  • Lançamento da Academia CONTAIN NOW: currículo global para letramento e governança de IA, disponível gratuitamente em todos os idiomas da ONU
  • Primeiro Relatório Anual CONTAIN NOW: estado da governança de IA globalmente

Fase 2 — Institucionalização

2028–2030
  • Certificação CONTAIN NOW adotada como requisito de aquisição pública em no mínimo 20 jurisdições
  • Proposta da Agência Internacional de Segurança de IA formalmente apresentada na Assembleia Geral da ONU
  • Portfólio do Fundo de Investimento CONTAIN NOW de mais de 100 empresas de segurança de IA em mais de 30 países
  • Currículo de Letramento em IA adotado em no mínimo 40 sistemas educacionais nacionais
  • Primeiro instrumento internacional vinculante sobre governança de IA refletindo substancialmente o marco CONTAIN NOW

5.2 Métricas de Sucesso

O CONTAIN NOW rejeita explicitamente as métricas tipicamente usadas por movimentos de conscientização — assinaturas, alcance em redes sociais, cobertura midiática — como insuficientes e manipuláveis. O sucesso é medido pela mudança estrutural.

IndicadorDescriçãoAtualMeta 2030
Razão de Investimento em Segurança de IARazão global de investimento em segurança/governança em relação ao investimento em capacidade<2%>15%
Cobertura Jurisdicional% do PIB global coberto por marcos abrangentes de governança de IA~28% (apenas UE)>70%
Capacidade de Interpretabilidade% de implantações de IA de fronteira com ferramentas de interpretabilidade certificadas<5%>60%
Letramento em IA% da população em nações da OCDE com letramento em IA avaliado~8%>40%
Resposta a IncidentesTempo desde a detecção de um incidente de IA até a resposta internacional coordenadaSem mecanismo<72 horas

E SE?

Análise Estratégica

Um pequeno percentual dos recursos globais de IA pode atuar como alavanca e inocular a tese de contenção através das ondas exponenciais de adoção?

Ângulo Econômico: Alavancagem Financeira e Efeitos Multiplicadores

Economicamente, sim: Um percentual inicial pode atuar como "capital semente" que multiplica os investimentos. Na indústria aeroespacial, a Rolls-Royce realocou recursos não escaláveis em inovações sistêmicas, com realocações iniciais de ~5–10% de capacidade levando ao domínio de mercado e ondas de inovação industrial. Analogia para a IA: Realocar 3% (US$75B) para contenção poderia financiar um "fundo global de alinhamento". Isso "inocula" o ecossistema: Fundos diversificados atraem VCs, gerando ondas de startups focadas em governança, elevando a razão de financiamento de segurança de <2% para >15%.

Ângulo Social e Viral: Influenciando Ondas de Movimentos

Socialmente, o percentual pode influenciar "ondas" por meio da inoculação cultural. Exemplos ambientais mostram que realocações de 1–2% do PIB global para transições climáticas impulsionaram movimentos como o Acordo de Paris, inoculando teses de sustentabilidade nas corporações. Para a IA, um percentual de 5% poderia financiar campanhas de letramento epistêmico, difundindo a tese por meio de redes sociais, como o movimento de Altruísmo Eficaz que fez lobby pela segurança da IA.

Ângulo Político e Geopolítico: Influência em Políticas e Alianças

Politicamente, o percentual alavanca por meio da coordenação global. Estados como os EUA e a UE realocam incentivos com mandatos de segurança crescentes. O Fundo Global de Alinhamento (proposto em 1% de P&D de 11 países, ~US$4B) poderia multiplicar por 10 o financiamento de segurança, criando ondas em institutos como o UK AI Safety Institute. No Brasil, isso amplifica o G20, posicionando-o como polo de contenção no Sul Global.

Ângulo Tecnológico e Ético

Tecnologicamente, sim: Realocações para interpretabilidade criam ferramentas que se auto-reforçam (IA contendo IA, conforme o manifesto). Eticamente, alavanca a equidade (reduzindo desigualdades no deslocamento de empregos), mas implica dilemas: A sobre-alavancagem pode sufocar a inovação benéfica.

Conclusão

Em resumo, sim, é plausível — e estratégico — imaginar esse percentual como alavanca para ondas inoculadas pela tese CONTAIN NOW, transformando a contenção em uma norma global. Começando pequeno, pode escalar por meio de multiplicadores econômicos, virais e políticos.

Aja Agora

Assine a Petição

Adicione seu nome ao chamado global pela contenção responsável da IA. Cada assinatura fortalece o movimento.

Signatários Globais
9

indivíduos e organizações em todo o mundo

Aviso Legal e Declaração de Processamento de Dados

Ao assinar esta petição, você reconhece e concorda com os seguintes termos de acordo com as leis de proteção de dados aplicáveis, incluindo, mas não se limitando à Lei Geral de Proteção de Dados do Brasil (LGPD — Lei nº 13.709/2018), ao Regulamento Geral de Proteção de Dados da União Europeia (RGPD — Regulamento UE 2016/679) e a outros marcos internacionais de proteção de dados aplicáveis: Controlador de Dados: Movimento Global CONTAIN NOW, representado por seu autor fundador Pyr Marcondes. Finalidade da Coleta de Dados: Seus dados pessoais (nome, país e, opcionalmente, e-mail e organização) são coletados unicamente com o propósito de registrar seu apoio ao manifesto CONTAIN NOW e, caso você opte, exibir seu nome como signatário público. Base Legal: Seu consentimento explícito, informado e livremente concedido (LGPD Art. 7, I; RGPD Art. 6(1)(a)). Minimização de Dados: Coletamos apenas os dados mínimos necessários para o propósito declarado. Não são coletados documentos de identidade, informações financeiras ou dados pessoais sensíveis. Retenção de Dados: Seus dados serão mantidos durante a duração das operações ativas do movimento CONTAIN NOW. Você pode solicitar a exclusão a qualquer momento. Segurança de Dados: Endereços IP são criptografados por hash e nunca armazenados em forma bruta. Todos os dados são armazenados em bancos de dados criptografados com controles de acesso. Seus Direitos: Você tem o direito de acessar, retificar, excluir ou portar seus dados, e de retirar seu consentimento a qualquer momento sem afetar a legalidade do processamento anterior. Para exercer esses direitos, entre em contato: containnow@movement.org Transferências Internacionais: Os dados podem ser processados em servidores localizados fora do seu país de residência, com as salvaguardas apropriadas conforme exigido pela lei aplicável. Sem Uso Comercial: Seus dados nunca serão vendidos, compartilhados com terceiros para fins comerciais ou utilizados para qualquer finalidade diferente das aqui estabelecidas.

Signatários Recentes

Martha GabrielMartha Gabriel
Brasil
Ramiro Gustavo Fernandes PissettiFutural
Brasil
Rucelmar ReisAdvisor Tips
Brasil
André Bauch Zimmermann
Espanha
Guilherme HollandKuber9 RegTech
Brasil
Fabio CardoRigel Nexus
Brasil
Ken Fujioka
Brasil
Michel Lent Schwartzman
Brasil
Jane Doe
Alemanha

Espalhe a palavra

Compartilhe o CONTAIN NOW com sua rede

Referências e Fundamentos Científicos

  1. [1]Acemoglu, D. & Johnson, S. (2023). Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity. PublicAffairs.
  2. [2]Acemoglu, D. (2024). The Simple Macroeconomics of AI. NBER Working Paper 32487.
  3. [3]Anthropic (2022). Constitutional AI: Harmlessness from AI Feedback. Bai, Y. et al. arXiv:2212.08073.
  4. [4]Anthropic Interpretability Team (2023-2025). Towards Monosemanticity; Scaling Monosemanticity; On the Biology of a Large Language Model. transformer-circuits.pub.
  5. [5]Bastani, H. et al. (2024). Generative AI Can Harm Learning. The Wharton School, University of Pennsylvania. SSRN Working Paper.
  6. [6]Battiston, S. et al. (2016). Complexity theory and financial regulation. Science, 351(6275), 818-819.
  7. [7]Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
  8. [8]Brynjolfsson, E. et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models. NBER Working Paper 31161.
  9. [9]Buldyrev, S.V. et al. (2010). Catastrophic cascade of failures in interdependent networks. Nature, 464, 1025-1028.
  10. [10]European Parliament (2024). Regulation (EU) 2024/1689 — Artificial Intelligence Act. Official Journal of the European Union.
  11. [11]Future of Humanity Institute, Oxford University (various, 2014-2024). Technical Reports on AI Safety and Existential Risk.
  12. [12]Goldstein, J.A. et al. (2023). Generative Language Models and Automated Influence Operations. Georgetown CSET Report.
  13. [13]Goldman Sachs Research (2024). AI Investment Forecast to Approach $200 Billion Globally by 2025. GS Global Investment Research.
  14. [14]Hendrycks, D. et al. (2023). Aligning AI With Shared Human Values. ICML 2023.
  15. [15]Krakovna, V. et al. (2020). Specification Gaming: The Flip Side of AI Ingenuity. DeepMind Blog / Nature Machine Intelligence.
  16. [16]NIST (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0). NIST AI 100-1. U.S. Department of Commerce.
  17. [17]Olah, C. et al. (2022). Mechanistic Interpretability, Variables, and the Importance of Interpretable Bases. Distill / Transformer Circuits.
  18. [18]Ord, T. (2020). The Precipice: Existential Risk and the Future of Humanity. Hachette Books.
  19. [19]Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking/Penguin.
  20. [20]Stanford HAI (2024). AI Index Report 2024. Stanford Institute for Human-Centered Artificial Intelligence.
  21. [21]Taddeo, M. & Floridi, L. (2018). How AI can be a force for good. Science, 361(6404), 751-752.
  22. [22]Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
  23. [23]UNESCO (2021). Recommendation on the Ethics of Artificial Intelligence. UNESCO SHS/BIO/PI/2021/1.
  24. [24]Wei, J. et al. (2022). Emergent Abilities of Large Language Models. Transactions on Machine Learning Research.
  25. [25]World Economic Forum (2025). Future of Jobs Report 2025. WEF, Geneva.
  26. [26]UK Department for Science, Innovation and Technology (2023). AI Safety Summit — Bletchley Declaration.
  27. [27]UN Secretary-General's Advisory Body on AI (2024). Governing AI for Humanity: Interim Report.
  28. [28]Various (2023). Statement on AI Risk. Center for AI Safety. Signed by 1,000+ AI researchers and executives.