Hace dos semanas, una empresa holandesa de software jurídico perdió el 10% de su valor en bolsa en cuarenta y ocho horas. Una de análisis financiero se dejaba un 21% y otra de gestión documental, un 15%. No fueron los escándalos, ni los malos resultados, ni algún cambio regulatorio. Anthropic acababa de lanzar una actualización de su asistente. Los inversores decidieron, en cuestión de horas, que el modelo de negocio acumulado durante décadas quizá ya no tenía sentido. Comenzaba el SaaSpocalipsis.Una semana después, el CEO de una empresa de 10.000 empleados que crece al 24% con una expectativa de 12.200 millones de beneficio anunciaba en X la rescisión de 4.000 contratos . «La inteligencia que nos hemos dado permite y obliga a una nueva forma de gestión, en la que equipos más pequeños pueden hacer la tarea». Eso es lo que está ocurriendo. Y la mayoría aún no lo sabe.Noticia relacionada general No No Anthropic demanda al Gobierno de Trump por calificar a su IA como un «riesgo» para la seguridad nacional ABCLas empresas tecnológicas norteamericanas han comprometido más de cuatro billones de dólares (casi como el PIB de Alemania) en infraestructuras de inteligencia artificial para antes de 2030. El Gobierno de Estados Unidos ha declarado el control de los chips una cuestión de seguridad nacional. China ha respondido lanzando modelos propios de alto rendimiento que distribuye de forma gratuita al mundo, entre acusaciones de malas prácticas. Y Europa observa desde el asiento trasero, con buenos ingenieros, sin industria propia, alzando muros regulatorios que aíslan y asfixian.En menos de tres años hemos pasado de sistemas que redactaban textos con errores notables a modelos capaces de escribir código como ingenieros, analizar contratos jurídicos complejos o asistir diagnósticos médicos con la precisión de un especialista. El impacto ya es medible: en los sectores legal, financiero y tecnológico, las empresas están revisando sus plantillas antes de que nadie les obligue. Para 2027, muchas empresas contarán con agentes de IA para no renovar las suscripciones de software que han dominado el mercado durante tres décadas. No es especulación. Es lo que ya están descontando las bolsas: el lanzamiento de Claude Cowork , en enero de 2026, provocó una caída bursátil de 285.000 millones de dólares en acciones de software empresarial en una semana.Los agentes son becarios virtuales que no (sólo) responden preguntas, sino que actúan de forma autónoma, dividen problemas en subtareas y ejecutan decisiones con efectos reales en el mundo. Uno solo puede gestionar una cartera de clientes, supervisar una cadena de suministro o preparar un informe financiero sin intervención humana en ningún paso. Sin ponerse enfermo. Las 24 horas. Quién responde cuando uno de ellos cometa un error grave no tiene todavía respuesta en ninguna jurisdicción. Pero la empresa de los mil millones y un único trabajador nacerá este año.Mientras tanto, los arquitectos toman decisiones que nos afectan a todos con una discreción llamativa. En 2022, OpenAI incluyó la palabra ‘safely’ en su declaración de misión. En 2024 la eliminó sin rueda de prensa, sin comunicado; disolvió el equipo de salvaguarda y despidió al vicepresidente que se oponía a introducir contenido sexual en sus sistemas. La empresa del billón de dólares es también la que retiró la palabra seguridad de su misión en un formulario de Hacienda. Su jefa de robótica ha dimitido esta semana por posiciones irreconciliables con la dirección tras la firma del acuerdo con el Pentágono, mientras la gente desinstalaba ChatGPT de sus móviles a un ritmo frenético.Anthropic tomó el camino opuesto. El día 9 presentó dos demandas contra el gobierno de Estados Unidos por una campaña de represalias «ilegal e inconstitucional». El Pentágono había exigido acceso ilimitado a Claude. Había aceptado casi todo, salvo dos excepciones que su fundador Dario Amodei describió como innegociables: no emplear su tecnología para vigilar masivamente a ciudadanos norteamericanos ni para controlar armas 100% autónomas. La administración Trump lo interpretó como una afrenta. El secretario de Defensa designó a Anthropic como riesgo para la cadena de suministro de seguridad nacional, compartiendo ‘honor’ con Huawei y Kaspersky, y ordenó a las agencias federales cesar el uso de Claude. Mientras tanto, ese mismo gobierno seguía usando sus modelos para apoyar operaciones militares en Irán. La contradicción abrió las puertas del cielo.Y a las pocas horas, Microsoft, el principal socio de OpenAI, anunciaba una alianza estratégica con Anthropic para integrar Claude Cowork en el Copilot de Microsoft 365, por el que hoy sólo pagan 15 de sus 485 millones de usuarios. El mercado siempre restaura lo que la política destruye.La inteligencia artificial no es el futuro; es el presente, y ya está reestructurando las reglas del trabajo, del conocimiento y del poder a una velocidad jamás vista antes en la historia. Cada quince días, esta columna ofrecerá los hechos relevantes y el contexto necesario que permitan distinguir lo que importa de lo que sólo parece importante.Eso es la señal.Juan Manuel López-Zafra Doctor en CC.EE. y profesor titular de Cunef Universidad. Hace dos semanas, una empresa holandesa de software jurídico perdió el 10% de su valor en bolsa en cuarenta y ocho horas. Una de análisis financiero se dejaba un 21% y otra de gestión documental, un 15%. No fueron los escándalos, ni los malos resultados, ni algún cambio regulatorio. Anthropic acababa de lanzar una actualización de su asistente. Los inversores decidieron, en cuestión de horas, que el modelo de negocio acumulado durante décadas quizá ya no tenía sentido. Comenzaba el SaaSpocalipsis.Una semana después, el CEO de una empresa de 10.000 empleados que crece al 24% con una expectativa de 12.200 millones de beneficio anunciaba en X la rescisión de 4.000 contratos . «La inteligencia que nos hemos dado permite y obliga a una nueva forma de gestión, en la que equipos más pequeños pueden hacer la tarea». Eso es lo que está ocurriendo. Y la mayoría aún no lo sabe.Noticia relacionada general No No Anthropic demanda al Gobierno de Trump por calificar a su IA como un «riesgo» para la seguridad nacional ABCLas empresas tecnológicas norteamericanas han comprometido más de cuatro billones de dólares (casi como el PIB de Alemania) en infraestructuras de inteligencia artificial para antes de 2030. El Gobierno de Estados Unidos ha declarado el control de los chips una cuestión de seguridad nacional. China ha respondido lanzando modelos propios de alto rendimiento que distribuye de forma gratuita al mundo, entre acusaciones de malas prácticas. Y Europa observa desde el asiento trasero, con buenos ingenieros, sin industria propia, alzando muros regulatorios que aíslan y asfixian.En menos de tres años hemos pasado de sistemas que redactaban textos con errores notables a modelos capaces de escribir código como ingenieros, analizar contratos jurídicos complejos o asistir diagnósticos médicos con la precisión de un especialista. El impacto ya es medible: en los sectores legal, financiero y tecnológico, las empresas están revisando sus plantillas antes de que nadie les obligue. Para 2027, muchas empresas contarán con agentes de IA para no renovar las suscripciones de software que han dominado el mercado durante tres décadas. No es especulación. Es lo que ya están descontando las bolsas: el lanzamiento de Claude Cowork , en enero de 2026, provocó una caída bursátil de 285.000 millones de dólares en acciones de software empresarial en una semana.Los agentes son becarios virtuales que no (sólo) responden preguntas, sino que actúan de forma autónoma, dividen problemas en subtareas y ejecutan decisiones con efectos reales en el mundo. Uno solo puede gestionar una cartera de clientes, supervisar una cadena de suministro o preparar un informe financiero sin intervención humana en ningún paso. Sin ponerse enfermo. Las 24 horas. Quién responde cuando uno de ellos cometa un error grave no tiene todavía respuesta en ninguna jurisdicción. Pero la empresa de los mil millones y un único trabajador nacerá este año.Mientras tanto, los arquitectos toman decisiones que nos afectan a todos con una discreción llamativa. En 2022, OpenAI incluyó la palabra ‘safely’ en su declaración de misión. En 2024 la eliminó sin rueda de prensa, sin comunicado; disolvió el equipo de salvaguarda y despidió al vicepresidente que se oponía a introducir contenido sexual en sus sistemas. La empresa del billón de dólares es también la que retiró la palabra seguridad de su misión en un formulario de Hacienda. Su jefa de robótica ha dimitido esta semana por posiciones irreconciliables con la dirección tras la firma del acuerdo con el Pentágono, mientras la gente desinstalaba ChatGPT de sus móviles a un ritmo frenético.Anthropic tomó el camino opuesto. El día 9 presentó dos demandas contra el gobierno de Estados Unidos por una campaña de represalias «ilegal e inconstitucional». El Pentágono había exigido acceso ilimitado a Claude. Había aceptado casi todo, salvo dos excepciones que su fundador Dario Amodei describió como innegociables: no emplear su tecnología para vigilar masivamente a ciudadanos norteamericanos ni para controlar armas 100% autónomas. La administración Trump lo interpretó como una afrenta. El secretario de Defensa designó a Anthropic como riesgo para la cadena de suministro de seguridad nacional, compartiendo ‘honor’ con Huawei y Kaspersky, y ordenó a las agencias federales cesar el uso de Claude. Mientras tanto, ese mismo gobierno seguía usando sus modelos para apoyar operaciones militares en Irán. La contradicción abrió las puertas del cielo.Y a las pocas horas, Microsoft, el principal socio de OpenAI, anunciaba una alianza estratégica con Anthropic para integrar Claude Cowork en el Copilot de Microsoft 365, por el que hoy sólo pagan 15 de sus 485 millones de usuarios. El mercado siempre restaura lo que la política destruye.La inteligencia artificial no es el futuro; es el presente, y ya está reestructurando las reglas del trabajo, del conocimiento y del poder a una velocidad jamás vista antes en la historia. Cada quince días, esta columna ofrecerá los hechos relevantes y el contexto necesario que permitan distinguir lo que importa de lo que sólo parece importante.Eso es la señal.Juan Manuel López-Zafra Doctor en CC.EE. y profesor titular de Cunef Universidad.
Hace dos semanas, una empresa holandesa de software jurídico perdió el 10% de su valor en bolsa en cuarenta y ocho horas. Una de análisis financiero se dejaba un 21% y otra de gestión documental, un 15%. No fueron los escándalos, ni los malos resultados, … ni algún cambio regulatorio. Anthropic acababa de lanzar una actualización de su asistente. Los inversores decidieron, en cuestión de horas, que el modelo de negocio acumulado durante décadas quizá ya no tenía sentido. Comenzaba el SaaSpocalipsis.
Una semana después, el CEO de una empresa de 10.000 empleados que crece al 24% con una expectativa de 12.200 millones de beneficio anunciaba en X la rescisión de 4.000 contratos. «La inteligencia que nos hemos dado permite y obliga a una nueva forma de gestión, en la que equipos más pequeños pueden hacer la tarea».
Eso es lo que está ocurriendo. Y la mayoría aún no lo sabe.
Las empresas tecnológicas norteamericanas han comprometido más de cuatro billones de dólares (casi como el PIB de Alemania) en infraestructuras de inteligencia artificial para antes de 2030. El Gobierno de Estados Unidos ha declarado el control de los chips una cuestión de seguridad nacional. China ha respondido lanzando modelos propios de alto rendimiento que distribuye de forma gratuita al mundo, entre acusaciones de malas prácticas. Y Europa observa desde el asiento trasero, con buenos ingenieros, sin industria propia, alzando muros regulatorios que aíslan y asfixian.
En menos de tres años hemos pasado de sistemas que redactaban textos con errores notables a modelos capaces de escribir código como ingenieros, analizar contratos jurídicos complejos o asistir diagnósticos médicos con la precisión de un especialista. El impacto ya es medible: en los sectores legal, financiero y tecnológico, las empresas están revisando sus plantillas antes de que nadie les obligue. Para 2027, muchas empresas contarán con agentes de IA para no renovar las suscripciones de software que han dominado el mercado durante tres décadas. No es especulación. Es lo que ya están descontando las bolsas: el lanzamiento de Claude Cowork, en enero de 2026, provocó una caída bursátil de 285.000 millones de dólares en acciones de software empresarial en una semana.
Los agentes son becarios virtuales que no (sólo) responden preguntas, sino que actúan de forma autónoma, dividen problemas en subtareas y ejecutan decisiones con efectos reales en el mundo. Uno solo puede gestionar una cartera de clientes, supervisar una cadena de suministro o preparar un informe financiero sin intervención humana en ningún paso. Sin ponerse enfermo. Las 24 horas. Quién responde cuando uno de ellos cometa un error grave no tiene todavía respuesta en ninguna jurisdicción. Pero la empresa de los mil millones y un único trabajador nacerá este año.
Mientras tanto, los arquitectos toman decisiones que nos afectan a todos con una discreción llamativa. En 2022, OpenAI incluyó la palabra ‘safely’ en su declaración de misión. En 2024 la eliminó sin rueda de prensa, sin comunicado; disolvió el equipo de salvaguarda y despidió al vicepresidente que se oponía a introducir contenido sexual en sus sistemas. La empresa del billón de dólares es también la que retiró la palabra seguridad de su misión en un formulario de Hacienda. Su jefa de robótica ha dimitido esta semana por posiciones irreconciliables con la dirección tras la firma del acuerdo con el Pentágono, mientras la gente desinstalaba ChatGPT de sus móviles a un ritmo frenético.
Anthropic tomó el camino opuesto. El día 9 presentó dos demandas contra el gobierno de Estados Unidos por una campaña de represalias «ilegal e inconstitucional». El Pentágono había exigido acceso ilimitado a Claude. Había aceptado casi todo, salvo dos excepciones que su fundador Dario Amodei describió como innegociables: no emplear su tecnología para vigilar masivamente a ciudadanos norteamericanos ni para controlar armas 100% autónomas. La administración Trump lo interpretó como una afrenta. El secretario de Defensa designó a Anthropic como riesgo para la cadena de suministro de seguridad nacional, compartiendo ‘honor’ con Huawei y Kaspersky, y ordenó a las agencias federales cesar el uso de Claude. Mientras tanto, ese mismo gobierno seguía usando sus modelos para apoyar operaciones militares en Irán. La contradicción abrió las puertas del cielo.
Y a las pocas horas, Microsoft, el principal socio de OpenAI, anunciaba una alianza estratégica con Anthropic para integrar Claude Cowork en el Copilot de Microsoft 365, por el que hoy sólo pagan 15 de sus 485 millones de usuarios. El mercado siempre restaura lo que la política destruye.
La inteligencia artificial no es el futuro; es el presente, y ya está reestructurando las reglas del trabajo, del conocimiento y del poder a una velocidad jamás vista antes en la historia. Cada quince días, esta columna ofrecerá los hechos relevantes y el contexto necesario que permitan distinguir lo que importa de lo que sólo parece importante.
Eso es la señal.
Juan Manuel López-Zafra
Doctor en CC.EE. y profesor titular de Cunef Universidad.
RSS de noticias de economia

