Apagón de la IA
Elena
Elena
| 30-03-2026
Equipo de Astronomía · Equipo de Astronomía
Apagón de la IA
El fin de la inteligencia artificial no significaría el colapso de la civilización, pero sí una gran pérdida de eficiencia. En un mundo más lento, menos eficaz y propenso a errores, el desafío no sería solo adoptar la tecnología, sino garantizar la continuidad del negocio cuando los sistemas automatizados fallan de repente.
Han transcurrido 24 horas desde que la inteligencia artificial se desconectó. Existe sorpresa e incertidumbre, pero nadie diría que es el fin del mundo, aunque se percibe en todo el planeta una caída notable de la productividad...
Después de las primeras 24 horas de un apagón de la IA, lo más visible no sería algo dramático, sino más bien ordinario: muchos regresarían abruptamente al trabajo manual en tareas que ya estaban parcialmente automatizadas. No habría un colapso, pero sí un rápido deterioro de nuestra creciente eficacia, obtenida al utilizar estas herramientas revolucionarias.
Mario Garcés, neurocientífico y fundador de The Mind Kind, que trabaja para lograr la inteligencia artificial general, cree que un apagón que redujera la productividad en los primeros momentos "no sería dramático, aunque habría que tenerlo en cuenta en términos de PIB y ciertos impactos colaterales que podrían darse en los mercados financieros o en gobiernos que tratan de salvar determinadas industrias".
Diferentes niveles
Es poco probable que toda la IA desaparezca de golpe, pero es posible que fallen ciertos servicios concretos. Garcés opina que "esto podría ocurrir si mantenerlos cuesta más de lo que realmente aportan. Entonces, algunas empresas podrían dejar de sostenerlos. Y si la IA sigue siendo útil socialmente, aunque sea deficitaria, los estados podrían terminar financiando su infraestructura".
En resumen, un apagón de la inteligencia artificial afectaría en las primeras 24 horas a la atención al cliente, al análisis documental, a la detección de fraudes, al apoyo clínico, a la educación o a algunos servicios de transporte automatizado.
Además, es importante tener en cuenta que en una fase de agentes de IA como la que vivimos, un apagón de la inteligencia artificial dolería más que antes, porque ya no solo interrumpiría respuestas: cortaría el trabajo delegado. El agente no solo asiste, sino que ejecuta tareas. Si falla, deja procesos a medias, obliga a retomar el trabajo manual y paraliza flujos automatizados. El impacto sería mayor en empresas que ya dependen de agentes conectados por API para realizar trabajo real, no solo responder preguntas.
Posible e improbable...
Todo lo que hemos visto hasta ahora es una situación hipotética. La realidad es que es bastante improbable que experimentemos un apagón mundial total y simultáneo de toda la IA. Sin embargo, un apagón parcial, sectorial o temporal es posible. En el Informe de IA Index 2025 de la Universidad de Stanford, se señala que "la IA no es una sola máquina ni un solo botón: son miles de modelos, proveedores, chips, centros de datos, aplicaciones integradas, software empresarial y sistemas locales".
El último informe de seguridad del Instituto de Seguridad de IA del Reino Unido concluye que "no es razonable imaginar que toda la IA del planeta se apague a la vez, pero sí lo es prever interrupciones parciales, retrocesos regulatorios, límites energéticos o fallas de proveedores que hagan que la IA deje de funcionar como lo hace ahora en ciertos lugares, sectores o períodos".
Los primeros efectos
Por lo tanto, en las primeras 24 horas sin inteligencia artificial, un apagón parcial no detendría el mundo, pero ralentizaría los sistemas que ya habían delegado en la IA el primer filtro, la primera redacción, la primera clasificación o la primera prioridad.
Y cuando desaparece esa primera capa, surgen síntomas: más tiempo por tarea, más colas, más revisión humana y más errores de omisión o de prioridad.
También descubriríamos cuántas funciones dependen de la IA sin que el usuario las vea. No solo dejarían de funcionar los chats generativos, sino también los sistemas internos de clasificación, moderación, scoring, búsqueda, predicción o soporte. Esa dependencia silenciosa tiene que ver con el diagnóstico de la Universidad de Stanford que concluye que la IA está "cada vez más integrada" en la vida cotidiana y en sectores como la salud o el transporte.
Apagón de la IA
Siete días después del apagón
Una semana después del apagón, el problema ya no sería solo de comodidad, sino de operaciones empresariales. Después de una semana, no solo se tomaría más tiempo, sino que comenzarían a deformarse procesos de negocios enteros: detección temprana deficiente, colas que no disminuyen, más trabajo repetitivo y una capacidad de respuesta claramente menor.
La OCDE recuerda que entre los usos más comunes están el análisis de datos y la detección de fraudes en finanzas, así como los procesos de producción y mantenimiento en la manufactura.
Si la IA fallara durante una semana en banca y cumplimiento, los bancos seguirían operando, pero de manera menos eficiente. Habría más alertas falsas, más revisión manual, más retrasos en la investigación de fraudes y más riesgo de no detectar casos importantes a tiempo. Esto implica menos eficacia, peor priorización y más acumulación de trabajo pendiente.
Otro ejemplo claro se encuentra en la manufactura. La OCDE señala que el mantenimiento predictivo es uno de los casos de uso de IA más maduros y de mayor impacto en la industria, "porque permite detectar anomalías, anticipar fallas y pasar de un mantenimiento reactivo o programado a uno dinámico basado en datos".
Si la IA no estuviera disponible durante una semana, la fábrica no cerraría, pero volvería a un nivel menos eficiente: más inspecciones manuales, más mantenimiento preventivo o tardío, peor planificación de producción y mayor probabilidad de detenciones inesperadas.
En ciberseguridad, la lógica es similar, pero más peligrosa. Se necesitaría más tiempo para detectar incidentes, más carga de triaje humano y una mayor probabilidad de que una señal débil se pierda entre miles de eventos irrelevantes. Eso es un ejemplo concreto de una "menor capacidad de respuesta".
En la administración pública y los servicios de empleo, el daño también se vuelve estructural en una semana. La OCDE documenta que aproximadamente la mitad de los servicios públicos de empleo de los países miembros ya están mejorando sus herramientas con IA: un 17% utiliza chatbots para informar, un 17% utiliza herramientas de perfilado y un 20% sistemas de coincidencia para recomendar vacantes. Si esas funciones fallan durante una semana, el problema no es solo la menor comodidad digital: aumentan las solicitudes acumuladas, empeora la clasificación de casos, disminuye la capacidad para guiar a demandantes de empleo y los funcionarios dedican más tiempo a preguntas básicas y menos a casos complejos.
Después de un mes de un apagón parcial de la IA, el problema pasaría de ser solo de comodidad y retrasos puntuales a una pérdida estructural de rendimiento en muchos sectores. La economía seguiría funcionando, pero a un ritmo más lento, con menos capacidad y una peor priorización. La clave es que la IA ya no es una promesa futura, sino una herramienta integrada en actividades reales como la salud, el transporte, la banca, la atención al cliente, el software, la administración o la educación.
En la sanidad, la medicina no desaparecería, pero se perdería una capa que hoy ayuda a priorizar casos, acelerar diagnósticos y reducir tiempos de espera. Esto generaría más cuellos de botella en radiología, urgencias y revisión manual de pruebas.
En transporte y movilidad, el sistema no se detendría, pero los servicios autónomos y las herramientas de optimización se verían afectados. Habría menos capacidad de ajuste, una previsión deficiente y una movilidad menos eficiente.
En banca, seguros y cumplimiento, el impacto sería serio porque la IA ya filtra enormes volúmenes de alertas y ayuda a detectar fraudes. Sin ella, habría más revisión manual, más falsos positivos, más retrasos y un mayor riesgo de que casos importantes pasen desapercibidos.
En atención al cliente, el servicio seguiría existiendo, pero con colas persistentes, más escalados a personal de mayor jerarquía, un mayor tiempo de resolución y una calidad más desigual.
En otros sectores, como el desarrollo de software, no se detendría la programación, pero habría menos entregas, más retrasos y menos capacidad para asumir nuevas tareas.
En la administración pública y los servicios de empleo, la clasificación automática, el emparejamiento de vacantes y la atención inicial disminuirían, lo que provocaría más expedientes acumulados y menos capacidad de respuesta.
Y en educación, las escuelas y universidades seguirían funcionando, pero con menos apoyo en tutorías, redacción, preparación de materiales y tareas administrativas.
El daño después de un mes sin IA sería competitivo, no marginal. No estaríamos hablando de un colapso de la civilización, pero sí de sistemas reales funcionando un nivel por debajo de la capacidad y eficiencia a la que ya estábamos acostumbrados.
Readopción
Además, en caso de apagón, las empresas no solo tendrían que pensar en dejar temporalmente la IA de lado, sino en recuperarla con otra mentalidad. Menos "implementar IA en todas partes" y más "usar IA donde sobreviva a auditorías, apagones, cambios de proveedor y retorno temporal al trabajo manual".
Un informe de la OCDE arroja conclusiones acerca de la readopción: Si ocurriera un apagón parcial de la IA, las empresas no podrían simplemente esperar a su regreso. Tendrían que pasar de "implementar IA" a asegurarse de que el negocio siga funcionando sin ella: reiniciar procesos manuales, priorizar tareas y decidir qué usos recuperar primero. No todos los usos serían igualmente urgentes. Algunos podrían esperar, otros requerirían sustitutos humanos y los más críticos solo deberían volver cuando demostraran fiabilidad, control y supervisión. El uso de la inteligencia artificial también implica estar preparado para trabajar temporalmente sin ella.
En esta readopción, no solo estaría en una situación comprometedora el CEO de PwC en Estados Unidos, Paul Griggs, quien declaró esta semana que los socios que se resistieran al avance de la IA no tendrían lugar en la firma... Los defensores internos también enfrentarían una dura prueba. Perderían credibilidad aquellos que solo impulsaran entusiasmo sin preparar planes alternativos, y ganarían importancia aquellos que diseñaran controles y continuidad. Las recompensas por dominar la IA probablemente disminuirían, sobre todo en perfiles muy dependientes de herramientas específicas. Seguirían teniendo más valor aquellos que, además de utilizar la inteligencia artificial, pudieran gestionar procesos, riesgos, datos y el retorno temporal al trabajo manual.
Apagón de la IA
Una avería del sistema
La hipótesis de un apagón de la IA se suele representar como un corte absoluto, con pantallas en negro, modelos fuera de servicio y una tecnología completa desapareciendo de repente. Sin embargo, el escenario más plausible se asemeja más a un fallo progresivo: la IA se convierte en crítica para gobiernos, empresas y servicios antes de ser lo suficientemente sólida, útil y verificable, y luego falla justo donde ya se daba por garantizada. Mario Garcés, fundador de The Mind Kind, menciona el choque entre Anthropic, la 'start-up' fundada por Dario Amodei, y Donald Trump, y la fragilidad económica de la gigantesca infraestructura física que sostiene la nueva fiebre de la IA.
Sobre el conflicto entre Trump y Anthropic, el Instituto de Estándares de Estados Unidos (NIST) define la IA 'confiable' como aquella que es válida además de transparente, responsable, segura y resiliente. En su perfil específico para IA generativa, NIST añade que las organizaciones deben preparar procesos alternativos, mecanismos de desconexión y planes de comunicación para la desactivación o retirada de estos sistemas. La IA puede deteriorarse, comportarse de manera inconsistente o simplemente no merecer suficiente confianza para usos críticos. Convertirla en infraestructura esencial antes de resolver eso no es una abstracción filosófica. Se trata de un riesgo operativo, y ahí es donde entra el conflicto entre Anthropic y el gobierno de Trump. El Pentágono recientemente defendió ante los tribunales la decisión de declarar a Anthropic un 'riesgo de cadena de suministro de seguridad nacional' después de que la empresa se negara a levantar las restricciones que prohibían el uso de su tecnología en armas autónomas y vigilancia doméstica. Anthropic llevó el caso a los tribunales y argumentó que la medida era una represalia que podría costarle miles de millones de dólares. Sin embargo, la empresa no se opuso a colaborar con la defensa en general: en julio de 2025 anunció un acuerdo con el Departamento de Defensa por 200 millones de dólares para desarrollar capacidades de IA aplicadas a la seguridad nacional. El conflicto surgió por dos excepciones concretas: armas completamente autónomas y vigilancia masiva interna.
Esto convierte el caso en una lección sobre lo que sería un 'apagón funcional' de la IA. Trump y el Pentágono querían tratar esa tecnología como una capacidad crítica ya disponible para la seguridad nacional. Anthropic respondió que los modelos fronterizos actuales no son fiables para armas totalmente autónomas y que la vigilancia masiva de los estadounidenses vulnera derechos fundamentales. El apagón no consiste solo en que un servidor falle o en que una API deje de responder. También puede tratarse de descubrir demasiado tarde que la tecnología no puede usarse donde el poder político ya la había presupuestado como madura.
Por otro lado, la IA no flota en el aire, sino que se sustenta en chips, centros de datos, redes y un enorme flujo de electricidad. La Agencia Internacional de la Energía recuerda que "no hay IA sin energía", específicamente sin electricidad para los centros de datos. Y la OCDE describe la infraestructura de IA como "un ecosistema altamente complejo y a menudo altamente concentrado". Esta concentración no garantiza un colapso, pero sí que cualquier fallo financiero, técnico o regulatorio tenga un efecto multiplicado.
De este modo, Mario Garcés habla de la "caducidad" de los centros de datos. No existe una regla fija y universal de cinco años para todo el hardware, pero sí una realidad industrial: estos activos se deprecian rápido y la aceleración tecnológica obliga a revisar su vida útil. Amazon informó en 2024 que estaba reduciendo la vida útil de parte de sus servidores y equipos de red de seis a cinco años, y esta revisión reduciría sus ganancias operativas de 2025 en 1.300 millones de dólares. La obsolescencia no es un miedo abstracto, y es válido cuestionar qué sucede si la infraestructura crece más rápidamente que el valor que realmente genera. Así, la conversación ya no se centra solo en si la IA cambiará el mundo, sino en si las cifras cuadran.
Nada de esto por sí solo demuestra una burbuja destinada a explotar, pero muestra una estructura muy sensible a retrasos, caídas en la demanda o ingresos inferiores a los prometidos. Cuando Mario Garcés habla de un eventual 'apagón' vinculado al fracaso de las empresas que lideran actualmente la IA, no se refiere a la desaparición de la tecnología. Se refiere a menos capacidad disponible, precios más altos, menos competencia, mayor dependencia de unos pocos proveedores y, en consecuencia, mayor vulnerabilidad para todos aquellos que han convertido la IA en una pieza crítica. En este escenario, la IA seguiría existiendo, pero el servicio sería más costoso, más escaso y más incierto.
La IA puede volverse crítica antes de ser realmente fiable y verificable, como muestra el pulso entre Anthropic y Trump. Y también puede volverse estratégicamente imprescindible antes de demostrar que el modelo económico que la sostiene es estable a largo plazo. Si ambas cosas coinciden, el 'apagón' de la inteligencia artificial no llegará.