Claude, de Anthropic, experimenta caída este lunes debido a una “demanda sin precedentes”

Anthropic ha experimentado un aumento en el uso de sus servicios debido a su disputa con el Departamento de Defensa de EE.UU.

Por

Bloomberg — El chatbot de inteligencia artificial Claude, de Anthropic PBC, y las aplicaciones relacionadas dirigidas al consumidor dejaron de funcionar este lunes, y la startup afirmó que había estado lidiando con una “demanda sin precedentes” de sus servicios durante la semana pasada.

Cerca de 2.000 usuarios informaron de interrupciones en el servicio de Claude AI en el momento álgido de la avería, alrededor de las 06:40, hora de Nueva York, según el sitio web de monitorización de servicios Downdetector. Las quejas se redujeron a un tercio a las 08:40, pero Anthropic afirmó en un comunicado de WhatsApp que las “interfaces orientadas al consumidor”, como claude.ai y las aplicaciones de la empresa, seguían sin estar disponibles. Las empresas que han integrado los modelos de IA de Claude en sus propios sistemas no se han visto afectadas.

Ver más: Anthropic acusa a DeepSeek y MiniMax de extraer datos de sus modelos de IA

“Agradecemos la paciencia de todos mientras trabajamos para restablecer el servicio, tras haber experimentado una demanda sin precedentes de Claude durante la última semana”, afirmó Anthropic en su comunicado. A las 10:25, hora de Nueva York, la empresa informó que se estaban implementando correcciones para claude.ai y Claude Opus 4.6, según un sitio web de actualización de estado.

Anthropic ha experimentado un aumento en el uso de sus servicios debido a su disputa con el Departamento de Defensa de EE. UU. sobre el posible uso de su tecnología para la vigilancia masiva y el desarrollo de armamento autónomo. El Pentágono ha declarado a Anthropic como un riesgo para la cadena de suministro, una medida sin precedentes contra una empresa estadounidense que amenaza con tener profundas consecuencias para su negocio. El número de usuarios gratuitos de Claude ha aumentado más de un 60% desde enero, y los suscriptores de pago se han más que duplicado desde octubre, según Anthropic.

Ver más: Trump ordena a agencias de EE.UU. prescindir de Anthropic tras disputa con el Pentágono

Anthropic ha estipulado que sus productos no se utilicen para vigilar a los estadounidenses ni para fabricar armas totalmente autónomas, y el viernes afirmó que “ningún tipo de intimidación o sanción por parte del Departamento de Guerra cambiará nuestra postura”. La empresa se comprometió a impugnar ante los tribunales cualquier notificación formal en la que se la designe como riesgo para la cadena de suministro, y su director ejecutivo, Dario Amodei, calificó la medida de “represalia y castigo” en una entrevista con CBS News.

Horas después de que Anthropic fuera declarada un riesgo para la cadena de suministro, su mayor rival, OpenAI, acordó implementar sus propios modelos de IA dentro de la red clasificada del Departamento de Defensa, afirmando que había llegado a un acuerdo que refleja los principios de la empresa, que prohíben la vigilancia masiva nacional y exigen “la responsabilidad humana en el uso de la fuerza, incluso en los sistemas de armas autónomos”.

Ver más: Hacker usa Claude de Anthropic para robar datos confidenciales en México

OpenAI defendió su nuevo acuerdo, afirmando que había incorporado una serie de salvaguardias en el contrato que garantizarían que sus modelos se utilizaran y funcionaran como es debido en el marco de su implementación. Sin embargo, durante el fin de semana ya se habían publicado mensajes en Internet instando a los usuarios a cancelar sus suscripciones a ChatGPT como consecuencia del acuerdo.

Mientras tanto, la aplicación Claude ha encabezado la App Store de Apple Inc. durante varios días, y los trabajadores de Silicon Valley se han unido en apoyo a la postura de la empresa.

Lea más en Bloomberg.com