Desde el comienzo del auge de la IA generativa, los líderes tecnológicos han alertado sobre los peligros de los mismos sistemas que están tratando de vender. Es una estrategia de marketing paradójica y, desafortunadamente para algunas de las industrias y empresas que se consideran más vulnerables a la disrupción, funcionó de maravilla. Resulta que el miedo es el mejor argumento de venta.
El CEO de OpenAI, Sam Altman, solía afirmar que la tecnología en la que se basa ChatGPT podría suponer una amenaza para la propia civilización humana: “Nos enfrentamos a un riesgo existencial”, declaraba en 2023.
El tono apocalíptico ha quedado relegado al pasado, a juzgar por los nuevos fantasmas a los que Altman y sus colegas han estado aludiendo recientemente: la IA como destructora de empleo y como amenaza para la ciberseguridad.
El CEO de Anthropic, Dario Amodei, advirtió en enero de que la IA podría acabar con la mitad de los puestos de trabajo de oficina de nivel básico de aquí a cinco años, lo que desestabilizaría las economías y la sociedad.
Hoy, su empresa ha advertido que su próximo modelo Mythos es capaz de detectar fallos en una amplia gama de programas de software, sistemas operativos y navegadores. Anthropic sostiene que el modelo es demasiado peligroso para difundirlo y que tan solo unas pocas compañías que han sido previamente evaluadas, entre ellas Apple Inc. (AAPL) y Amazon.com Inc. (AMZN), podrán acceder a este.
Las pruebas aportadas por la empresa son inquietantes. Mythos logró detectar las denominadas vulnerabilidades de “día cero”, errores hasta entonces desconocidos que no dan a los proveedores de software ni un solo día para solucionarlos, en varios sistemas operativos para servidores y ordenadores, con lo que alguien podría llegar a apagar los sistemas o controlarlos. En manos de personas malintencionadas, eso podría provocar estragos.
Ahora bien, dar a conocer este tipo de preocupaciones (con un video muy bien hecho y una entrada de blog, en el caso de Anthropic) tampoco es nada nuevo. Ya en 2019, OpenAI declaró que no lanzaría al mercado su modelo anterior, el GPT-2, porque le parecía demasiado peligroso.
Al final, la empresa sí que distribuyó el software, y lo único que ocurrió fue que aumentó aún más el interés por lo que OpenAI estaba desarrollando.
En la actualidad, los laboratorios de IA están orientando sus advertencias hacia soluciones.
Anthropic afirma estar colaborando con empresas tecnológicas en el Proyecto Glasswing para garantizar que la infraestructura de software no pueda ser pirateada por Mythos una vez que se lance.
Altman, por su parte, propone abordar el desastre laboral con un ambicioso plan para la política industrial.
Este lunes, OpenAI publicó un documento de 13 páginas titulado "Política industrial para la era de la inteligencia", en el que sugiere, entre otras cosas, que los gobiernos creen un fondo público de riqueza para distribuir dinero a quienes se vean perjudicados por la IA, e implementen impuestos a los robots y una semana laboral de cuatro días.
No se trata de ideas descabelladas, aunque Corea del Sur es el único país hasta ahora que ha intentado introducir impuestos a la automatización y la eficacia de esta política aún no está clara.
Y si bien es magnánimo que los laboratorios de IA se ofrezcan a resolver la disrupción laboral y las amenazas cibernéticas, Anthropic también está sentando las bases para lo que prevé sea una oferta pública inicial espectacular.
Mientras que OpenAI probablemente quiera desviar la atención de sus problemas de gestión, su consumo de efectivo y un reciente perfil poco halagador sobre Altman publicado en The New Yorker.
Quizás por eso algunos líderes tecnológicos parecen estar compitiendo entre sí para exagerar el impacto de la inteligencia artificial.
Mustafa Suleyman, exdirector de IA para el consumidor de Microsoft Corp. (MSFT), afirmó en febrero que todas las tareas profesionales podrían automatizarse mediante IA, y su plazo era incluso más corto que el de Amodei: tan solo 18 meses.
En medio de esta aparente honestidad brutal sobre la inteligencia artificial, se percibe claramente un tufillo a estrategia de marketing.
Estudios que datan de la década de 1940 demuestran que un argumento resulta más persuasivo si también se reconocen sus debilidades, especialmente ante audiencias instruidas o escépticas. Transmitir veracidad reduce la sospecha y genera confianza.
Altman parece saberlo bien, ya que lleva mucho tiempo buscando la controversia, desde cuando dirigió su primera empresa emergente a los veinte años y le contó a un reportero del Wall Street Journal todos los riesgos para la privacidad de su producto estrella, hasta cuando declaró recientemente ante una audiencia del Senado estadounidense que la IA podría “salir muy mal”.
Es difícil determinar hasta qué punto las advertencias de Anthropic sobre Mythos rozan el alarmismo sin ofrecer información sobre el modelo en sí. Sin embargo, la supuesta pérdida masiva de empleos para trabajadores de cuello blanco es más difícil de conciliar con la evidencia.
Como ya he argumentado anteriormente, las estadísticas nacionales de productividad y las tendencias del mercado laboral aún no muestran ningún impacto evidente de la inteligencia artificial.
Un informe de investigación publicado el mes pasado por la consultora Oxford Economics sugiere que las predicciones apocalípticas sobre la IA destruyendo empleos masivamente se basan en una serie de suposiciones; en realidad, la IA podría ayudar a los trabajadores en lugar de reemplazarlos, las ganancias que genere podrían reinvertirse y los gobiernos no se quedarán de brazos cruzados si se pierden empleos.
Asimismo, como en cada revolución tecnológica anterior, surgirán nuevas categorías profesionales.
Según el mismo informe, las tasas de contratación han aumentado paralelamente a los despidos en el sector de la información, uno de los más expuestos a la disrupción de la IA.
Además, el 90% de las compañías no ha experimentado ningún impacto de la IA en el empleo en los últimos tres años, según una encuesta realizada a 6.000 ejecutivos de EE.UU. y Europa y divulgada en el mes de marzo por la Oficina Nacional de Investigación Económica.
Aun así, eso no ha impedido que varias grandes empresas, como Block Inc. de Jack Dorsey, se aprovechen del revuelo en torno a la IA para justificar despidos, ni que el propio Altman se estremezca públicamente ante sus intentos de subirse al mismo carro que él.
“Hay una especie de lavado de imagen con la IA, donde se culpa a la ineligencia artificial de despidos que de otro modo se llevarían a cabo”, se quejó en una conferencia a principios de este año. Parece que el oscuro arte del marketing de la IA tiene muchos adeptos.
Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.
Lea más en Bloomberg.com













