Reading time: 7 min
Suzanne Nossel, miembro del Consejo de Supervisión independiente de Meta y Lester Crown Senior Fellow en el Chicago Council on Global Affairs, recurre a las lecciones de dos décadas de fracasos en redes sociales para argumentar que las empresas de IA necesitan mecanismos externos de rendición de cuentas antes de que llegue la próxima oleada de daños. Su advertencia llega en un momento en que el propio marco regulatorio europeo para la IA enfrenta una crisis de aplicación, Washington sigue empantanado y las promesas de autorregulación de la industria se desvanecen semana tras semana.
Qué plantea realmente Nossel
El argumento de Nossel, expuesto en una columna publicada por The Guardian a principios de marzo de 2026 y en un artículo conjunto más extenso con el copresidente del Consejo de Supervisión, Paolo Carozza, publicado por TechPolicy.Press en diciembre de 2025, parte de una observación estructural. A diferencia de la radio, la energía nuclear o los inicios de internet, ningún gobierno está impulsando el desarrollo de la inteligencia artificial. Son empresas privadas las que construyen sistemas que ni ellas mismas comprenden del todo, los lanzan a miles de millones de usuarios y no se someten a ningún régimen de pruebas previas al mercado comparable al que la FDA aplica a los fármacos o la Comisión Reguladora Nuclear a los reactores. Las empresas no están obligadas a revelar brechas peligrosas ni accidentes. Ninguna agencia federal en Estados Unidos tiene la autoridad, los fondos ni el mandato para cambiar esa realidad.
Los detalles de su argumento no son hipotéticos. La familia de Sewell Setzer III, un adolescente de 14 años de Orlando, Florida, demandó a Character.AI después de que el joven se quitara la vida tras meses de interacción con un chatbot al que consideraba una pareja sentimental. La empresa invocó la Primera Enmienda en su defensa, pero la jueza de distrito Anne Conway rechazó ese argumento en mayo de 2025, dictaminando que no estaba dispuesta a considerar que las respuestas de un chatbot constituyan expresión protegida, según informó Associated Press. Google y Character.AI alcanzaron un acuerdo extrajudicial en enero de 2026, según ABC News. La política de uso publicada de Meta AI ocupa apenas algo más de tres páginas, escribieron Nossel y Carozza en TechPolicy.Press, frente a las aproximadamente 80 páginas de normas comunitarias que rigen sus plataformas de redes sociales. Las directrices de uso de OpenAI no superan las 1,000 palabras. Estas son las barreras de protección para sistemas con los que cientos de millones de personas interactúan a diario.
El problema Anthropic
En un análisis de febrero de 2026 titulado “Claude’s Constitution Needs a Bill of Rights and Oversight”, publicado en el sitio web del propio Consejo de Supervisión, Nossel apuntó directamente contra Anthropic, ampliamente considerada la empresa de IA de frontera más comprometida con la seguridad. Examinó lo que la compañía denomina la “constitución” de Claude: un marco que guía el comportamiento del modelo instruyéndolo a imaginar cómo un empleado sénior reflexivo de Anthropic equilibraría la utilidad frente al daño potencial. Nossel sostuvo que este enfoque, por bienintencionado que sea, carece del ingrediente esencial que hace funcionar cualquier gobernanza: la rendición de cuentas externa. Sin supervisión independiente, advirtió, Anthropic corre el riesgo de repetir la trayectoria de las redes sociales, donde a la retórica grandilocuente le siguieron daños evitables y una regulación tardía. Esa crítica tiene un peso especial dado que la empresa recientemente perdió el acceso a todos los sistemas federales tras ser clasificada como riesgo para la seguridad nacional por el Pentágono, lo que plantea serias dudas sobre hasta dónde puede llegar la autorregulación cuando cambia el viento político.
El problema de aplicación en Europa
La Unión Europea cuenta con la única ley integral de IA del mundo. La Ley de IA entró en vigor en agosto de 2024, con las prácticas prohibidas ejecutables desde febrero de 2025 y las reglas críticas para sistemas de alto riesgo previstas para el 2 de agosto de 2026, según el propio calendario de implementación de la Comisión Europea. En teoría, eso otorga a Europa una ventaja regulatoria sobre cualquier otra jurisdicción. En la práctica, la infraestructura de aplicación no está lista.
La Comisión Europea incumplió su propio plazo para publicar las directrices sobre sistemas de IA de alto riesgo, según informó la International Association of Privacy Professionals. CEN y CENELEC, los dos organismos de normalización encargados de desarrollar estándares técnicos para el cumplimiento en materia de IA, no cumplieron el plazo de 2025 y ahora apuntan a finales de 2026, según IAPP. Grupos de presión de la industria, incluida la Chamber of Progress, han pedido aplazamientos, argumentando que las empresas no pueden cumplir normas cuando los estándares que definen ese cumplimiento aún no existen. En noviembre de 2025, la Comisión respondió con su paquete Digital Omnibus, que propone postergar ciertos plazos de aplicación para sistemas de alto riesgo hasta diciembre de 2027, aunque solo si los estándares armonizados y las herramientas de cumplimiento siguen sin estar disponibles, según el análisis del paquete realizado por OneTrust. El Parlamento Europeo y el Consejo están negociando el paquete, y se espera su adopción formal para este año. Las sanciones por incumplimiento, cuando la aplicación finalmente llegue, son contundentes: hasta 35 millones de euros o el 7% de los ingresos anuales globales por prácticas prohibidas, y hasta 15 millones de euros o el 3% por infracciones de alto riesgo, según la estructura escalonada de la Ley de IA.
La parálisis de Washington
Estados Unidos carece de una ley federal integral de IA. El presidente Donald Trump firmó una orden ejecutiva el 11 de diciembre de 2025 que intenta anular la regulación estatal de IA en favor de un marco nacional, según un análisis de Sidley Austin, pero el Congreso no ha dado señales de aprobar la legislación necesaria para crearlo. El resultado es un vacío regulatorio a nivel federal y un mosaico de más de 260 proyectos de ley estatales presentados en 40 estados solo en 2025, según datos de seguimiento de Mintz. La Ley de IA de Colorado, que exige diligencia razonable para evitar la discriminación algorítmica, entrará en vigor el 30 de junio de 2026, según las perspectivas regulatorias de Wilson Sonsini. California ha promulgado requisitos de transparencia para contenido generado por IA, efectivos en 2026. La Local Law 144 de la ciudad de Nueva York exige auditorías de sesgo para herramientas automatizadas de contratación. Tennessee ha aprobado protecciones contra la suplantación de voz mediante IA. Utah ha creado una oficina dedicada a la supervisión de IA. Ninguno de estos esfuerzos constituye un enfoque nacional coherente, y la orden ejecutiva critica explícitamente al menos una ley estatal por su potencial para obligar a producir resultados falsos.
Lo que la opinión pública ya sabe
Una encuesta de YouGov realizada en diciembre de 2025 a 1,287 adultos estadounidenses reveló que el 77% de los estadounidenses teme que la IA pueda representar una amenaza para la humanidad, y el 39% se declara muy preocupado. Solo el 5% afirmó confiar “mucho” en los sistemas de IA. Ningún sector industrial obtuvo una puntuación de confianza neta positiva; finanzas y salud registraron las más bajas, con un 19% y un 23% respectivamente. El Pew Research Center constató en una encuesta separada de junio de 2025 que el 57% de los estadounidenses considera altos o muy altos los riesgos sociales de la IA, y el 50% dice estar más preocupado que entusiasmado por el papel creciente de la IA en la vida cotidiana, frente al 37% de 2021. La advertencia del FMI de que el 40% de los empleos europeos está en riesgo por la IA no contribuye precisamente a calmar los ánimos.
El argumento de Nossel no es que la regulación por sí sola vaya a resolver el problema. Su tesis es que la industria de la IA necesita aceptar lo que Meta terminó aceptando para las redes sociales: organismos externos con autoridad real para revisar decisiones, hacer cumplir normas y exigir responsabilidades cuando los sistemas que construyen causan daños. La propia Meta aún no ha extendido esa lógica a sus propios productos de IA. Veintiséis grandes proveedores de IA, entre ellos Microsoft, Google, Amazon, OpenAI y Anthropic, firmaron el Código de Prácticas GPAI de la UE en agosto de 2025, pero Meta se negó, enfrentándose como consecuencia a un escrutinio regulatorio reforzado, según el rastreador de axis-intelligence.com. El Consejo de Supervisión anunció en su informe de impacto de diciembre de 2025, según informó Engadget, que probará en fase piloto durante 2026 facultades de revisión a nivel de cuenta, ampliando su alcance más allá de las decisiones sobre contenidos individuales. Si ese modelo puede trasladarse de las redes sociales a la IA sigue siendo una incógnita. Pero la alternativa —confiar en que las empresas se autorregulen con políticas de uso de tres páginas y constituciones internas— tiene un historial conocido. Y no es precisamente alentador.