A comienzos del mes pasado, los principales ingenieros de Amazon (AMZN) se congregaron en su reunión semanal para tratar una pregunta incómoda: ¿por qué su sitio web seguía fallando? Una de las últimas interrupciones duró seis horas, tiempo durante el cual los clientes no pudieron completar su compra. Solo se puede imaginar cuántos carritos de compra quedaron abandonados.
¿La causa de las interrupciones? La propia inteligencia artificial de Amazon, según el Financial Times, que afirma que los incidentes estaban “relacionados con el uso de herramientas de codificación de IA”.
Amazon refuta la versión del FT, afirmando que la IA no fue un factor determinante. Sin embargo, se sabe que las herramientas de IA han causado problemas en otros ámbitos.
En julio de 2025, el asistente de programación de IA de Replit, una empresa de desarrollo de software de IA, borró toda una base de datos de producción a pesar de las instrucciones explícitas de no hacerlo.
En febrero, una investigadora de seguridad de inteligencia artificial de Meta tuvo que precipitarse hacia su computadora “como si desactivara una bomba” luego de que un agente de IA comenzara a borrar todo su buzón de entrada.
Lo cual nos lleva a otra pregunta: si un investigador de seguridad en IA no puede usar estas herramientas de forma confiable, ¿por qué tantos directivos de empresas exigen a sus empleados que lo hagan?
Este tipo de fallos son síntomas de lo que se suele llamar la “brecha entre capacidad y fiabilidad”. Las herramientas de IA son muy impresionantes por lo que son capaces de hacer, aunque solo lo hacen en ciertas ocasiones.
En febrero, unos investigadores de Princeton hicieron públicos los resultados de un estudio en el que dedicaron 18 meses a probar 14 modelos de inteligencia artificial. Lo que encontraron fue que, mientras que la capacidad se disparaba, la fiabilidad apenas variaba.
Los agentes que pueden resolver una tarea una vez pueden fallar la siguiente en condiciones idénticas, con una puntuación de consistencia que oscilaba entre el 30 % y el 75 %.
Además, la mayoría de los modelos no eran capaces de distinguir las respuestas correctas de las incorrectas. Según descubrieron los investigadores, la confianza mide si el proceso se ha desarrollado sin contratiempos, no si la respuesta es la correcta.
Este es el principal problema de fiabilidad de la inteligencia artificial: la fluidez y la corrección no guardan relación entre sí. Y los problemas se agravan con el tiempo.
En otro estudio se diseñó la primera prueba para determinar si los agentes de IA pueden mantener un código fuente a largo plazo, y no solo aplicar soluciones puntuales. Incluso si se acumulan los cambios, hasta los mejores modelos tienen dificultades. Los cambios individuales realizados con ayuda de la IA pueden parecer correctos. Pero, al acumularse, se producen fallos en cadena.
Los investigadores de Princeton tomaron prestado su marco de confiabilidad de la ingeniería de seguridad nuclear y aeronáutica, campos que aprendieron hace décadas que el rendimiento promedio y la confiabilidad son fundamentalmente diferentes. Un motor de avión que funcionara a la perfección el 80% del tiempo no sería certificado como seguro.
Esta distinción tiene una importancia que va mucho más allá de la ingeniería, ya que ayuda a explicar un enigma que ha desconcertado a muchos ejecutivos: ¿Por qué los empleados están mucho menos entusiasmados con la IA que sus jefes?
Una encuesta realizada en agosto de 2025 a 1.400 empleados en Estados Unidos, reveló que el 76% de los ejecutivos creía que sus trabajadores estaban entusiasmados con la adopción de la IA. Sin embargo, solo el 31% de los trabajadores lo estaban realmente.
No se trata de resistencia. Hay una gran diferencia entre experimentar con la IA y depender de ella. Si creas una aplicación que funcione a la primera, te parecerá magia. Pero si la usas durante horas cada día, descubrirás todas sus fallas.
Una encuesta reveló que los mismos profesionales que usan ChatGPT a diario para tareas personales consideran que la inteligencia artificial no es fiable en los sistemas empresariales.
Los ejecutivos, en cambio, suelen encontrarse con la IA en su mejor versión: demostraciones impecables, casos de uso cuidadosamente seleccionados y pruebas comparativas que miden la capacidad sin medir la fiabilidad. Cuando la inteligencia artificial se equivoca, nunca llega a sus manos.
Esta brecha de percepción ha dado lugar a una oleada de medidas obligatorias en materia de IA.
El CEO de Shopify (SHOP) pidió el año pasado a sus trabajadores que demostraran que la inteligencia artificial era insuficiente antes de solicitar personal. Meta (META) vincula hoy las evaluaciones de rendimiento al uso de la IA. Microsoft (MSFT) ha comunicado a sus empleados que el uso de la inteligencia artificial “ya no es opcional”.
Sin embargo, los datos apuntan a que se trata de un problema de ingeniería, no de motivación. Las medidas obligatorias en el ámbito laboral no resuelven un problema tecnológico.
El compromiso de los directivos con la IA es absolutamente necesario y puede influir positivamente en la actitud de los empleados hacia esta tecnología. Los líderes que animan a sus empleados a experimentar están haciendo lo correcto. No obstante, animar no es lo mismo que exigir.
Una imposición obliga a los trabajadores a usar una herramienta no por lo que esta aporta, sino porque se les ordena hacerlo. Esto hace que sean más propensos a rechazarla.
Eric von Hippel, profesor de administración en el MIT (Instituto de Tecnología de Massachusetts), ha documentado un patrón que la mayoría de los ejecutivos consideran contraintuitivo:los usuarios, no los productores, suelen ser la verdadera fuente de innovación. Quienes están más cerca del trabajo comprenden sus propias necesidades mejor que nadie.
La incertidumbre que rodea a la inteligencia artificial hace que este principio sea aún más crucial. Nadie domina la IA todavía. Es entonces cuando la innovación impulsada por el usuario es más poderosa. Miles de empleados experimentando con la IA constituyen un motor de aprendizaje que ninguna directiva corporativa puede replicar.
Amazon afirma que solo una de sus recientes interrupciones involucró una herramienta de IA, y que un “error del usuario” provocó que tuviera “un impacto mayor del que debería”.
Aun así, hay una lección más profunda: la IA no debe implementarse por decreto. Debe aprenderse mediante la experimentación, el fracaso y la adaptación. Los ejecutivos que imponen medidas sobre la inteligencia artificial están dando órdenes a los empleados en lugar de liderarlos.
Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.
Lea más en Bloomberg.com













