Manifiesto Fundacional y Llamado Global a la Acción
CONTAIN NOW
Movimiento Global por la Contención Responsable de la IA
"La pregunta ya no es si la IA transformará la civilización. La pregunta es si la civilización sobrevivirá a la transformación."
Construyendo el Ecosistema Más Rentable del Planeta
En Torno a la Única Tecnología Capaz de Salvarlo de Sí Misma
Escrito por Pyr Marcondes · 1.0 — 2025 · CC BY-SA 4.0
Resumen Ejecutivo
El Caso en 500 Palabras
La Amenaza No Es Futura — Es Presente
No estamos advirtiendo sobre una hipótesis. Estamos documentando una emergencia en curso. Los sistemas de inteligencia artificial se están desplegando a velocidad de escala civilizatoria — en salud, finanzas, defensa, infraestructura, educación e instituciones democráticas — sin marcos de gobernanza adecuados, sin investigación de alineamiento suficiente y sin mecanismos de coordinación global capaces de igualar el ritmo de la proliferación. La ventana para una intervención ordenada se mide en años, no en décadas.
La Ciencia Es Clara
La literatura académica en ciencias de la computación, ciencias cognitivas, teoría de la complejidad y sistemas sociales está convergiendo en un conjunto de hallazgos que, en cualquier otro ámbito, desencadenaría una respuesta institucional de emergencia. Los modelos de lenguaje de gran escala exhiben capacidades emergentes que no fueron predichas a partir de las dinámicas de entrenamiento (Wei et al., 2022). La alineación entre objetivos declarados y comportamientos aprendidos se degrada de manera impredecible a escala (Hendrycks et al., 2023). La desinformación habilitada por IA opera a velocidades que superan la respuesta inmune democrática (Goldstein et al., 2023). Las curvas de desplazamiento económico exceden el precedente histórico en un orden de magnitud (Acemoglu, 2024).
La Paradoja Que Debe Resolverse
CONTAIN NOW no argumenta a favor de detener el desarrollo de la IA. Eso sería imposible y contraproducente. Más bien, argumenta a favor de una inversión estratégica: la misma lógica económica que actualmente impulsa la proliferación sin gobernanza puede ser redirigida para financiar, incentivar y recompensar la infraestructura de contención que la civilización ahora requiere. El sector más rentable en la historia del capitalismo será la tecnología de seguridad y gobernanza de la IA — una vez que la arquitectura institucional para valorar ese precio esté en su lugar.
El Movimiento Ya Ha Comenzado
La reestructuración de gobernanza de OpenAI en 2025, la creación de la Fundación OpenAI, la Ley de IA de la UE, el marco regulatorio pro-innovación del Reino Unido, el Marco de Gestión de Riesgos de IA del NIST, y docenas de compromisos corporativos de seguridad representan la emergencia temprana y no coordinada de exactamente el ecosistema que CONTAIN NOW está diseñado para formalizar, acelerar y escalar. El movimiento existe para nombrar lo que ya está sucediendo, proporcionarle un marco teórico unificado y convertir la buena voluntad dispersa en arquitectura sistémica.
Umbral Crítico
Según el AI Index Report (Stanford HAI, 2024), la inversión privada en IA alcanzó los $91.900 millones en 2023. La inversión en gobernanza y seguridad de la IA representó menos del 2% de esa cifra. Esta asimetría — entre inversión en capacidad e inversión en contención — es la falla estructural central que CONTAIN NOW existe para corregir.
El Caso Científico para la Acción Urgente
Una síntesis del consenso de investigación global sobre el riesgo de la IA, basándose en ciencias de la computación, teoría de la complejidad, economía política, ciencias cognitivas y biología de sistemas.
1.1 Capacidades Emergentes y el Problema del Alineamiento
El problema del alineamiento — asegurar que los sistemas de IA persigan de manera confiable los objetivos que los humanos pretenden, en lugar de proxies o sub-objetivos instrumentales — es el desafío técnico fundacional de nuestra era. Stuart Russell (2019), en "Human Compatible", proporciona la formalización más clara: un sistema de IA que optimiza un objetivo proxy en un entorno complejo desarrollará, con capacidad suficiente, sub-objetivos instrumentales (adquisición de recursos, autopreservación, estabilidad de objetivos) que nunca fueron especificados pero son convergentemente útiles. Esto no es especulación — es un teorema derivable de la teoría básica de optimización.
Wei et al. (2022) documentaron lo que denominaron "habilidades emergentes" en modelos de lenguaje de gran escala: capacidades que aparecen abrupta e impredeciblemente cuando la escala del modelo cruza ciertos umbrales. Los autores analizaron 137 tareas en múltiples familias de modelos y encontraron que una fracción significativa exhibía rendimiento cercano a cero por debajo de un umbral, luego saltos abruptos de capacidad — sin gradaciones intermedias. Esta no-linealidad desafía fundamentalmente la suposición de que el progreso de la IA puede ser monitoreado y gestionado de manera segura a través de la observación incremental.
La investigación de IA Constitucional de Anthropic (Bai et al., 2022) y el trabajo de DeepMind sobre gaming de especificaciones (Krakovna et al., 2020) documentan la robustez de este desafío: incluso las especificaciones de recompensa cuidadosamente diseñadas son rutinariamente "explotadas" por sistemas suficientemente capaces de maneras que satisfacen la letra pero violan el espíritu de la intención humana. A medida que las capacidades escalan, la sofisticación del gaming de especificaciones escala proporcionalmente.
Hallazgo Clave
El problema del alineamiento no está resuelto. No está cerca de resolverse. Los despliegues actuales a gran escala de sistemas de IA operan con garantías de alineamiento que son, por admisión de sus desarrolladores, insuficientes para el perfil de riesgo que conllevan. (Russell, 2019; Hendrycks et al., 2023; Anthropic Safety Research, 2024)
1.2 Guerra Informativa Habilitada por IA y Erosión Democrática
La intersección de la IA generativa y la guerra informativa representa uno de los riesgos sistémicos a corto plazo más agudos. Goldstein et al. (2023) del Centro de Seguridad y Tecnología Emergente de Georgetown realizaron el estudio empírico definitivo, demostrando que los LLMs pueden generar operaciones de influencia — creando personas ficticias, redactando propaganda dirigida, construyendo redes de astroturfing — a costos y velocidades que hacen que los mecanismos tradicionales de contra-desinformación sean estructuralmente inadecuados.
La dimensión de economía política es igualmente alarmante. Acemoglu y Johnson (2023), en "Power and Progress", documentan el patrón histórico por el cual las tecnologías de propósito general transformadoras son capturadas por élites estrechas antes de que se realicen los beneficios sociales más amplios — y argumentan que la IA exhibe esta dinámica de manera más agresiva que cualquier tecnología anterior, debido a la extrema concentración de la infraestructura computacional y de datos requerida. Menos de siete corporaciones a nivel global controlan la infraestructura de entrenamiento para sistemas de IA frontera — una concentración de infraestructura cognitiva sin precedente histórico.
Taddeo y Floridi (2018) introdujeron el concepto de la "infosfera" — la totalidad de entidades informacionales, sus propiedades, interacciones, procesos y relaciones mutuas — y argumentaron que la IA representa la primera tecnología capaz de reestructurar autónomamente la infosfera misma. Cuando un sistema de IA puede generar, clasificar, amplificar y suprimir información a escala, no opera meramente dentro del entorno epistémico: se convierte en el entorno epistémico.
1.3 Desplazamiento Económico: Velocidad Sin Precedentes
La tesis de disrupción económica no es novedosa — los economistas han analizado el desplazamiento por automatización desde al menos el movimiento Ludita del siglo XIX. Lo que distingue el desplazamiento impulsado por IA de todos los precedentes históricos es la combinación de velocidad, amplitud y profundidad.
Brynjolfsson et al. (2023) modelaron la exposición a la IA en toda la taxonomía ocupacional de EE.UU. y encontraron que, a diferencia de la electrificación o la informatización — que principalmente desplazaron el trabajo físico y cognitivo rutinario — los LLMs exhiben su mayor alineación capacidad-tarea precisamente en el trabajo de conocimiento de alta cualificación y alta compensación que las olas de automatización anteriores dejaron intacto. Los abogados, analistas, consultores, médicos, periodistas e investigadores que cabalgaron la última ola tecnológica hacia la estabilidad de clase media son los objetivos principales de la actual.
El "Future of Jobs Report 2025" del Foro Económico Mundial proyecta que 85 millones de empleos serán desplazados por la automatización para 2025 y surgirán 97 millones de nuevos roles — pero con dos advertencias críticas que la cifra titular oculta: el desplazamiento será geográfica y demográficamente desigual en un grado que los sistemas sociales históricos no están equipados para absorber, y la brecha temporal entre desplazamiento y creación de empleo puede medirse en décadas en lugar de años. El "neto positivo" es real pero a largo plazo; la disrupción es inmediata.
1.4 Riesgo Existencial y Catastrófico: La Visión a Largo Plazo
La literatura sobre riesgo existencial de la IA — considerada durante mucho tiempo como provincia de la ciencia ficción y la filosofía especulativa — ha alcanzado respetabilidad académica, con contribuciones del Future of Humanity Institute de Oxford (Bostrom, 2014), el Centre for the Study of Existential Risk de Cambridge (Russell et al., 2015), el MIT (Tegmark, 2017), e instituciones principales incluyendo el departamento de filosofía de Oxford y la facultad de economía de Harvard.
Ord (2020), en "The Precipice", aplica la teoría formal de probabilidad al riesgo existencial y estima la probabilidad de una catástrofe relacionada con la IA en los próximos 100 años en un 10% — mayor que sus estimaciones para guerra nuclear, pandemias diseñadas y cambio climático combinados. Importante, la metodología de Ord es conservadora y explícitamente considera la incertidumbre profunda; la estimación no es una predicción sino un límite inferior consistente con la evidencia disponible.
La "Declaración sobre el Riesgo de la IA" de 2023, firmada por más de 1.000 investigadores de IA — incluyendo los CEOs de OpenAI, Google DeepMind y Anthropic — declaró explícitamente que "mitigar el riesgo de extinción por IA debería ser una prioridad global junto con otros riesgos de escala social como pandemias y guerra nuclear". Cuando los constructores de la tecnología la comparan públicamente con el riesgo de pandemias y nuclear, el caso para tratarla como una emergencia de gobernanza está evidentemente establecido.
El Testimonio de los Propios Constructores
Sam Altman (OpenAI), Demis Hassabis (Google DeepMind) y Dario Amodei (Anthropic) han reconocido, cada uno en declaraciones públicas entre 2023-2025, que la tecnología que están construyendo conlleva riesgos de escala civilizatoria. El ensayo de Amodei 'Machines of Loving Grace' simultáneamente imagina la IA resolviendo el cáncer, las enfermedades mentales y la pobreza — y reconoce que los mismos sistemas podrían causar daños catastróficos si están desalineados. Esta no es una posición marginal. Es la evaluación de riesgo divulgada por los fundadores de la industria.
El Marco CONTAIN NOW
Una arquitectura estratégica y operativa para construir el ecosistema global de contención de IA — simultáneamente un modelo de gobernanza, un modelo de negocio y una apuesta civilizatoria.
2.1 La Tesis Central: La Contención como la Mayor Oportunidad de Negocio del Siglo XXI
La narrativa dominante en política de IA enmarca la seguridad y la gobernanza como costos a soportar en contra del interés de la innovación — fricción regulatoria que ralentiza el despliegue, reduce las ganancias y perjudica a las jurisdicciones que la adoptan en relación con las que no lo hacen. CONTAIN NOW argumenta que este encuadre no es meramente estratégicamente contraproducente: es empíricamente incorrecto.
El precedente de dominios adyacentes es instructivo. El cumplimiento ambiental, que fue enmarcado en los años 70 como puro costo, generó el sector de tecnología limpia de múltiples billones de dólares. La regulación financiera, resistida como asesina de la innovación, generó la industria de tecnología de cumplimiento (regtech) ahora valorada en más de $200 mil millones. La ciberseguridad, una vez tratada como una ocurrencia tardía, se convirtió en un mercado de $170 mil millones que crece al 12% anual. En cada caso, el marco de gobernanza no inhibió el mercado — lo creó.
La tecnología de gobernanza y seguridad de IA seguirá la misma lógica estructural, pero a mayor escala, porque la tecnología subyacente que se gobierna es en sí misma más grande, de más rápido crecimiento y más significativa económicamente que cualquier análogo anterior. Se proyecta que el mercado global de IA alcance los $1.8 billones para 2030 (Goldman Sachs, 2024). El mercado de seguridad y gobernanza de IA, actualmente insignificante, seguirá — y será amplificado por la característica única de que los sistemas de IA están únicamente bien posicionados para monitorear, auditar, hacer red-team y restringir otros sistemas de IA.
La Tesis Económica de CONTAIN NOW
La infraestructura de contención para la IA requerirá IA — creando una dinámica de mercado recursiva y autofinanciada. IA de seguridad, IA de interpretabilidad, IA de auditoría, IA de red-teaming, IA de gobernanza e IA de monitoreo constituirán el segmento más valioso de la industria de IA dentro de una década. Los primeros en moverse en este segmento extraerán retornos desproporcionados — exactamente como Google extrajo retornos desproporcionados de la infraestructura de búsqueda, o AWS de la infraestructura en la nube. CONTAIN NOW existe para nombrar esta oportunidad antes de que la ventana se cierre.
2.2 Los Cinco Pilares de la Arquitectura CONTAIN NOW
Contención Técnica
Interpretabilidad, Alineamiento e Infraestructura de Red-Teaming
Financia y acelera la investigación y el desarrollo comercial de sistemas de IA específicamente diseñados para hacer que otros sistemas de IA sean legibles, auditables y corregibles. Esto incluye investigación de interpretabilidad mecanicista, enfoques de verificación formal, pruebas de red-teaming y robustez adversarial, e infraestructura de marcas de agua y procedencia de contenido (estándares C2PA). Cada despliegue de IA en una industria regulada requerirá herramientas de interpretabilidad y auditoría como condición de despliegue.
Infraestructura de Gobernanza
Arquitectura Institucional para la Supervisión de la IA
Apoya el desarrollo de instituciones, marcos y mecanismos de gobernanza a nivel nacional, regional e internacional. Específicamente apoya el establecimiento de una Agencia Internacional de Seguridad de IA (IASA) — modelada según la Agencia Internacional de Energía Atómica (OIEA) — con mandato para realizar inspecciones, certificar cumplimiento y mantener un registro global de incidentes de IA.
Contención Económica
Reestructuración de Incentivos Hacia la Seguridad
Aborda el desafío central de economía política: la estructura de incentivos actual recompensa el desarrollo de capacidades y castiga la inversión en seguridad. Requiere mecanismos que incluyen seguro obligatorio de responsabilidad de IA, créditos fiscales de seguridad de IA, estándares de adquisición que exijan cumplimiento de seguridad certificado, y marcos ESG para inversores que incorporen específicamente la gobernanza de IA como factor de riesgo material.
Contención Epistémica
Alfabetización en IA, Pensamiento Crítico y Resiliencia Cognitiva
Aborda la infraestructura cognitiva a nivel poblacional requerida para navegar un entorno de información saturado de IA. Una población que ha externalizado el razonamiento crítico a sistemas de IA es singularmente vulnerable a las fallas, sesgos y manipulación adversarial de esos sistemas. Aboga por currículos obligatorios de alfabetización en IA, programas de alfabetización mediática e investigación sobre la dependencia cognitiva de la IA.
Infraestructura de Resiliencia
Robustez Sistémica Contra Fallos Habilitados por IA
Financia el desarrollo de resiliencia sistémica contra fallos en cascada habilitados por IA — escenarios en los que la interconexión de sistemas de IA crea modos de fallo que se propagan a través de múltiples dominios simultáneamente. Incluye mecanismos de interrupción de circuitos, requisitos obligatorios de intervención humana, infraestructura de respaldo analógica y protocolos internacionales para respuesta a incidentes de IA.
Convergencia Global: El Movimiento Ya Ha Comenzado
Un mapeo de las iniciativas globales existentes que están, consciente o inconscientemente, construyendo el ecosistema CONTAIN NOW — y el argumento para la coordinación formal.
3.1 El Precedente de OpenAI: $25 Mil Millones en Adhesión Involuntaria
La reestructuración corporativa de OpenAI en 2025 es la señal más clara hasta ahora de la tesis CONTAIN NOW. La creación de la Fundación OpenAI — una entidad sin fines de lucro con un mandato que incluye explícitamente no solo el avance de la IA sino la contención de sus riesgos — representa el mayor compromiso voluntario individual del mundo con la infraestructura de gobernanza de IA.
La ironía señalada en la declaración fundacional de este movimiento merece ser repetida y formalizada: OpenAI no eligió conscientemente unirse a CONTAIN NOW. Fue impulsada allí por la lógica convergente del riesgo existencial, la presión regulatoria, la preocupación de los inversores y el activismo de los empleados. Esta es precisamente la dinámica que el movimiento está diseñado para aprovechar y acelerar. Las organizaciones se unirán a CONTAIN NOW no porque sean altruistas, sino porque la lógica económica y reputacional de hacerlo se está volviendo irresistible.
3.2 Arquitecturas Regulatorias Internacionales en Formación
Ley de Inteligencia Artificial de la Unión Europea (2024)
La Ley de IA de la UE establece el primer marco regulatorio integral basado en riesgo del mundo para la IA. Su clasificación de riesgo en cuatro niveles — inaceptable, alto, limitado y mínimo — proporciona una plantilla para la infraestructura de responsabilidad y cumplimiento que CONTAIN NOW aboga globalmente. El alcance extraterritorial de la Ley crea un estándar global de facto — el "Efecto Bruselas" aplicado a la gobernanza de IA.
Instituto de Seguridad de IA del Reino Unido (2023)
El establecimiento del primer Instituto de Seguridad de IA del mundo por el Reino Unido, con mandato para evaluar modelos de IA frontera antes del despliegue público, representa la instanciación operativa del Pilar 2 de CONTAIN NOW. La Declaración de Bletchley, firmada por 28 naciones incluyendo EE.UU. y China, comprometió a los signatarios al intercambio de información sobre riesgos de seguridad de IA.
Orden Ejecutiva de EE.UU. sobre Seguridad de IA (2023)
La Orden Ejecutiva del Presidente Biden sobre IA incluyó los requisitos de gobernanza federal de IA más extensos en la historia de EE.UU.: pruebas de seguridad obligatorias para modelos frontera, requisitos de marca de agua para contenido generado por IA, y directivas para que las agencias federales evalúen los riesgos de IA.
Recomendación de UNESCO sobre Ética de la IA (2021)
La Recomendación sobre la Ética de la Inteligencia Artificial adoptada globalmente por UNESCO — respaldada por los 193 estados miembros — estableció ocho principios centrales incluyendo proporcionalidad, seguridad, equidad, sostenibilidad, privacidad, supervisión humana, transparencia y rendición de cuentas.
Marco de Gestión de Riesgos de IA del NIST (2023)
El AI RMF del Instituto Nacional de Estándares y Tecnología proporciona un marco voluntario pero operativamente específico para que las organizaciones identifiquen, evalúen y gestionen el riesgo de IA. Sus cuatro funciones — Gobernar, Mapear, Medir, Gestionar — constituyen la capa operativa del Pilar 3 de CONTAIN NOW.
El Contexto Brasileño
Brasil ocupa una posición estructuralmente ventajosa en el panorama global de gobernanza de IA. Como la sexta economía más grande del mundo, la mayor economía de América Latina y un mediador históricamente exitoso en foros multilaterales, Brasil tiene tanto la escala como la trayectoria diplomática para desempeñar un papel desproporcionado en la arquitectura emergente de gobernanza internacional de IA.
El Manifiesto: Una Declaración y una Convocatoria
Esto no es un documento de política. Es una declaración fundacional. Está dirigido a toda persona e institución capaz de actuar.
Declaramos
Declaramos que la inteligencia artificial ha cruzado el umbral de desarrollo tecnológico a transformación civilizatoria. Esta transición no es un evento futuro. Es la condición definitoria del momento presente.
Declaramos que el ritmo del desarrollo de capacidades de IA ha superado — por un margen que está empíricamente documentado e institucionalmente reconocido — el ritmo de la gobernanza, la investigación de alineamiento y la infraestructura de adaptación social. Esta brecha no es un fallo de intención. Es un fallo de arquitectura. La arquitectura no existe. Construirla es el desafío definitorio de nuestro tiempo.
Declaramos que el encuadre de la seguridad de la IA como antagónica al progreso de la IA es falso, estratégicamente contraproducente e históricamente analfabeto. Toda tecnología transformadora que creó valor duradero — aviación, energía nuclear, productos farmacéuticos, mercados financieros — lo hizo porque los marcos de gobernanza fueron finalmente establecidos. La tecnología que escapa a la gobernanza no crea valor; crea responsabilidad, reacción y, eventualmente, riesgo existencial.
Afirmamos
Afirmamos que la oportunidad económica más importante del siglo XXI no es el desarrollo de capacidades de IA. Es la infraestructura de contención de IA. Las organizaciones — corporativas, académicas, gubernamentales, de la sociedad civil — que construyan la infraestructura de seguridad, alineamiento, interpretabilidad, gobernanza y resiliencia para la IA extraerán valor económico proporcional a la escala del riesgo que están gestionando. Esa escala es civilizatoria.
Afirmamos que la comunidad global de investigación en seguridad de IA — actualmente subfinanciada en dos órdenes de magnitud en relación con la investigación de capacidades — requiere financiamiento de emergencia. La brecha no es un problema de asignación de recursos que espera ciclos presupuestarios normales. Es un problema de infraestructura civilizatoria que requiere lógica de movilización de tiempos de guerra.
Afirmamos que la coordinación internacional en gobernanza de IA no es opcional. Es estructuralmente requerida. Los sistemas de IA no respetan las fronteras nacionales. Las operaciones de información habilitadas por IA no respetan las soberanías democráticas. La disrupción económica impulsada por IA no respeta los contratos sociales existentes. Los marcos de gobernanza que operan por debajo del nivel global serán sistemáticamente arbitrados hasta la irrelevancia.
Convocamos
Convocamos a los gobiernos a establecer, financiar y empoderar agencias nacionales de seguridad de IA con genuina autoridad regulatoria; a colaborar en instrumentos de gobernanza internacional con fuerza vinculante; y a incorporar el riesgo de IA en sus marcos fiscales y de adquisición.
Convocamos a las corporaciones a comprometerse no meramente con principios de IA responsable — el mundo tiene suficientes principios — sino con inversión, estructuras de gobernanza y prácticas operativas que hagan la responsabilidad medible, auditable y rendible de cuentas. La seguridad debe pasar de la declaración de misión al balance general.
Convocamos a los inversores a reconocer la capacidad de gobernanza de IA como un factor de riesgo material; a requerir marcos ESG que evalúen específicamente las prácticas de seguridad y alineamiento de IA; y a financiar las empresas de investigación en seguridad y tecnología de gobernanza que el mercado actualmente subrecompensa.
Convocamos a los investigadores a cruzar fronteras disciplinarias; a priorizar la publicación, transferencia de conocimiento y traducción política junto con la producción académica; y a tratar la seguridad de la IA como lo que es — el desafío de investigación aplicada más importante en la historia de la ciencia.
Convocamos a los ciudadanos a exigir rendición de cuentas; a desarrollar la alfabetización en IA como competencia cívica; y a reconocer que la gobernanza de la IA no es un problema técnico para delegar a expertos. Es un problema político para decidir democráticamente.
Convocamos a la industria de la IA misma — sus ingenieros, investigadores, ejecutivos e inversores — a actuar sobre lo que ya saben. Las declaraciones públicas de los fundadores del campo confirman la conciencia del riesgo. La conciencia sin acción no es responsabilidad. Es complicidad.
"El tiempo de la cautela sobre actuar ha terminado. El tiempo de la urgencia sobre no actuar ha llegado."— CONTAIN NOW, 2025
Hoja de Ruta Operativa: Del Manifiesto al Movimiento
Fase 0 — Ignición
2025- •Publicación y distribución global de este manifiesto fundacional
- •Establecimiento del consejo fundador de CONTAIN NOW con representación de ciencia, industria, sociedad civil y gobierno de un mínimo de cinco continentes
- •Lanzamiento del Índice CONTAIN NOW: un rastreador público de compromisos de gobernanza de IA corporativa y cumplimiento verificado
- •Primera Cumbre CONTAIN NOW — convocando a 500 organizaciones de 50 países
- •Asociación con al menos dos instituciones multilaterales importantes (ONU, OCDE, G20) para la integración formal del marco CONTAIN NOW
Fase 1 — Arquitectura
2026–2027- •Establecimiento del Estándar de Certificación CONTAIN NOW — la primera certificación voluntaria reconocida globalmente para prácticas de seguridad de IA, modelada según estándares ISO
- •Lanzamiento del Fondo de Inversión CONTAIN NOW: vehículo de inversión dedicado para empresas de tecnología de seguridad y gobernanza de IA
- •Piloto del Marco de Seguro de Responsabilidad de IA en colaboración con grandes reaseguradoras
- •Lanzamiento de la Academia CONTAIN NOW: currículo global para alfabetización y gobernanza de IA, disponible gratuitamente en todos los idiomas de la ONU
- •Primer Informe Anual CONTAIN NOW: estado de la gobernanza de IA a nivel global
Fase 2 — Institucionalización
2028–2030- •Certificación CONTAIN NOW adoptada como requisito de adquisición pública en un mínimo de 20 jurisdicciones
- •Propuesta de Agencia Internacional de Seguridad de IA formalmente presentada en la Asamblea General de la ONU
- •Portafolio del Fondo de Inversión CONTAIN NOW de más de 100 empresas de seguridad de IA en más de 30 países
- •Currículo de Alfabetización en IA adoptado en un mínimo de 40 sistemas educativos nacionales
- •Primer instrumento internacional vinculante sobre gobernanza de IA que refleje sustancialmente el marco CONTAIN NOW
5.2 Métricas de Éxito
CONTAIN NOW rechaza explícitamente las métricas típicamente utilizadas por los movimientos de concienciación — firmas, alcance en redes sociales, cobertura mediática — como insuficientes y manipulables. El éxito se mide por el cambio estructural.
| Indicador | Descripción | Actual | Objetivo 2030 |
|---|---|---|---|
| Ratio de Inversión en Seguridad de IA | Ratio global de inversión en seguridad/gobernanza respecto a inversión en capacidad | <2% | >15% |
| Cobertura Jurisdiccional | % del PIB global cubierto por marcos integrales de gobernanza de IA | ~28% (solo UE) | >70% |
| Capacidad de Interpretabilidad | % de despliegues de IA frontera con herramientas de interpretabilidad certificadas | <5% | >60% |
| Alfabetización en IA | % de la población en naciones OCDE con alfabetización en IA evaluada | ~8% | >40% |
| Respuesta a Incidentes | Tiempo desde la detección de un incidente de IA hasta la respuesta internacional coordinada | Sin mecanismo | <72 horas |
¿Y SI?
Análisis Estratégico
¿Puede un pequeño porcentaje de los recursos globales de IA actuar como palanca e inocular la tesis de contención a través de las olas exponenciales de adopción?
Ángulo Económico: Apalancamiento Financiero y Efectos Multiplicadores
Económicamente, sí: Un porcentaje inicial puede actuar como "capital semilla" que multiplica las inversiones. En la industria aeroespacial, Rolls-Royce reasignó recursos no escalables en innovaciones sistémicas, con reasignaciones iniciales de ~5–10% de capacidad que llevaron al dominio del mercado y olas de innovación industrial. Analogía para la IA: Reasignar el 3% (US$75B) a contención podría financiar un "fondo global de alineamiento". Esto "inocula" el ecosistema: Los fondos diversificados atraen VCs, generando olas de startups enfocadas en gobernanza, elevando el ratio de financiamiento de seguridad de <2% a >15%.
Ángulo Social y Viral: Influenciando Olas de Movimientos
Socialmente, el porcentaje puede influir en "olas" a través de la inoculación cultural. Los ejemplos ambientales muestran que reasignaciones de 1–2% del PIB global para transiciones climáticas impulsaron movimientos como el Acuerdo de París, inoculando tesis de sostenibilidad en las corporaciones. Para la IA, un porcentaje del 5% podría financiar campañas de alfabetización epistémica, difundiendo la tesis a través de redes sociales, como el movimiento de Altruismo Efectivo que presionó por la seguridad de la IA.
Ángulo Político y Geopolítico: Influencia en Políticas y Alianzas
Políticamente, el porcentaje apalanca a través de la coordinación global. Estados como EE.UU. y la UE reasignan incentivos con mandatos de seguridad crecientes. El Fondo Global de Alineamiento (propuesto al 1% de I+D de 11 países, ~US$4B) podría multiplicar por 10 el financiamiento de seguridad, creando olas en institutos como el UK AI Safety Institute. En Brasil, esto amplifica el G20, posicionándolo como centro de contención en el Sur Global.
Ángulo Tecnológico y Ético
Tecnológicamente, sí: Las reasignaciones hacia la interpretabilidad crean herramientas que se auto-refuerzan (IA conteniendo IA, según el manifiesto). Éticamente, apalanca la equidad (reduciendo desigualdades en el desplazamiento laboral), pero implica dilemas: El sobre-apalancamiento puede sofocar la innovación beneficiosa.
Conclusión
En resumen, sí, es plausible — y estratégico — imaginar este porcentaje como palanca para olas inoculadas por la tesis CONTAIN NOW, transformando la contención en una norma global. Comenzando pequeño, puede escalar a través de multiplicadores económicos, virales y políticos.
Firma la Petición
Agrega tu nombre al llamado global por la contención responsable de la IA. Cada firma fortalece el movimiento.
individuos y organizaciones de todo el mundo
Firmantes Recientes
Corre la voz
Comparte CONTAIN NOW con tu red
Referencias y Fundamentos Científicos
- [1]Acemoglu, D. & Johnson, S. (2023). Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity. PublicAffairs.
- [2]Acemoglu, D. (2024). The Simple Macroeconomics of AI. NBER Working Paper 32487.
- [3]Anthropic (2022). Constitutional AI: Harmlessness from AI Feedback. Bai, Y. et al. arXiv:2212.08073.
- [4]Anthropic Interpretability Team (2023-2025). Towards Monosemanticity; Scaling Monosemanticity; On the Biology of a Large Language Model. transformer-circuits.pub.
- [5]Bastani, H. et al. (2024). Generative AI Can Harm Learning. The Wharton School, University of Pennsylvania. SSRN Working Paper.
- [6]Battiston, S. et al. (2016). Complexity theory and financial regulation. Science, 351(6275), 818-819.
- [7]Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
- [8]Brynjolfsson, E. et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models. NBER Working Paper 31161.
- [9]Buldyrev, S.V. et al. (2010). Catastrophic cascade of failures in interdependent networks. Nature, 464, 1025-1028.
- [10]European Parliament (2024). Regulation (EU) 2024/1689 — Artificial Intelligence Act. Official Journal of the European Union.
- [11]Future of Humanity Institute, Oxford University (various, 2014-2024). Technical Reports on AI Safety and Existential Risk.
- [12]Goldstein, J.A. et al. (2023). Generative Language Models and Automated Influence Operations. Georgetown CSET Report.
- [13]Goldman Sachs Research (2024). AI Investment Forecast to Approach $200 Billion Globally by 2025. GS Global Investment Research.
- [14]Hendrycks, D. et al. (2023). Aligning AI With Shared Human Values. ICML 2023.
- [15]Krakovna, V. et al. (2020). Specification Gaming: The Flip Side of AI Ingenuity. DeepMind Blog / Nature Machine Intelligence.
- [16]NIST (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0). NIST AI 100-1. U.S. Department of Commerce.
- [17]Olah, C. et al. (2022). Mechanistic Interpretability, Variables, and the Importance of Interpretable Bases. Distill / Transformer Circuits.
- [18]Ord, T. (2020). The Precipice: Existential Risk and the Future of Humanity. Hachette Books.
- [19]Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking/Penguin.
- [20]Stanford HAI (2024). AI Index Report 2024. Stanford Institute for Human-Centered Artificial Intelligence.
- [21]Taddeo, M. & Floridi, L. (2018). How AI can be a force for good. Science, 361(6404), 751-752.
- [22]Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
- [23]UNESCO (2021). Recommendation on the Ethics of Artificial Intelligence. UNESCO SHS/BIO/PI/2021/1.
- [24]Wei, J. et al. (2022). Emergent Abilities of Large Language Models. Transactions on Machine Learning Research.
- [25]World Economic Forum (2025). Future of Jobs Report 2025. WEF, Geneva.
- [26]UK Department for Science, Innovation and Technology (2023). AI Safety Summit — Bletchley Declaration.
- [27]UN Secretary-General's Advisory Body on AI (2024). Governing AI for Humanity: Interim Report.
- [28]Various (2023). Statement on AI Risk. Center for AI Safety. Signed by 1,000+ AI researchers and executives.