Donald Trump
Tiempo de lectura: 5 minutos

Bloomberg Opinión — Una startup tecnológica londinense hizo el lunes algo que la mayoría de las empresas de software nunca hacen: publicó el código detrás de su creación para que cualquiera pueda replicarlo. Cualquier desarrollador del mundo puede reconstruir el modelo de generación de imágenes creado por Stability AI, que puede generar cualquier imagen o foto que se pueda imaginar a partir de un solo texto.

La herramienta es casi mágica (incluso espeluznante) por lo que puede llegar a hacer. ¿Quieres una imagen de un gato azul inglés de pelo corto tocando la guitarra?

PUBLICIDAD

Pero esta herramienta es potencialmente innovadora en comparación con DALL-E 2, un programa similar que OpenAI, con sede en San Francisco, lanzó a principios de este año y que cientos de personas han utilizado para hacer arte loco. El de Stability AI es de libre reproducción y tiene muy pocas restricciones. El código de DALL-E 2 no se ha hecho público y no genera imágenes de personas concretas ni de temas políticamente delicados, como Ucrania, para evitar que el software se utilice de forma indebida. En cambio, la herramienta londinense es una verdadera batalla campal.

De hecho, la herramienta de Stability AI ofrece un enorme potencial para crear imágenes falsas de personas reales. La utilicé para conjurar varias “fotos” del Primer Ministro británico Boris Johnson bailando torpemente con una joven, Tom Cruise caminando entre los escombros de una Ucrania devastada por la guerra, un retrato de aspecto realista de la actriz Gal Gadot y una imagen alarmante del Palacio de Westminster de Londres en llamas. La mayoría de las imágenes de Johnson y Cruise parecían falsas, pero algunas parecían poder ser aceptadas por los más crédulos.

PUBLICIDAD

Stability AI dijo en su comunicado del lunes que su modelo incluye un “clasificador de seguridad”, que bloquea las escenas de carácter sexual, pero que también puede ajustarse o eliminarse por completo según el usuario.

El fundador y CEO de Stability AI, Emad Mostaque, dice que le preocupa más el acceso público a la IA que el daño que pueda causar su software. “Creo que el control de estos modelos no debe ser determinado por un grupo de personas autodesignadas en Palo Alto”, me dijo en una entrevista en Londres la semana pasada. “Creo que deberían ser abiertos”. Su empresa ganará dinero cobrando por el acceso especial al sistema, así como por la venta de licencias para generar personajes famosos, dijo.

PUBLICIDAD

El lanzamiento de Mostaque forma parte de un impulso más amplio para que la IA esté disponible de forma más libre, con el razonamiento de que no debería estar controlada por un puñado de grandes empresas tecnológicas. Es un sentimiento noble, pero que también conlleva riesgos. Por ejemplo, mientras que Adobe Photoshop puede ser mejor para falsificar una foto embarazosa de un político, la herramienta de Stability AI requiere mucha menos habilidad para usarla y es gratuita. Cualquiera con un teclado puede pulsar su botón de actualización una y otra vez hasta que el sistema, conocido como Stable Diffusion, escupe algo que parece convincente. Y las imágenes de Stable Diffusion serán más precisas con el tiempo, ya que el modelo se reconstruye y se entrena con nuevos conjuntos de datos.

La respuesta de Mostaque es que, lamentablemente, nos encontramos en medio de un inevitable aumento de las imágenes falsas, y nuestra sensibilidad tendrá que adaptarse. “La gente será consciente de que cualquiera puede crear esa imagen en su teléfono, en un segundo... La gente dirá: Probablemente se acaba de crea’”, dijo. En otras palabras, la gente aprenderá a confiar en Internet aún menos de lo que ya lo hace y la frase “las fotos o no ocurrió” evolucionará a “las fotos ya no prueban nada”. Aun así, prevé que el 99% de las personas que utilicen su herramienta tendrán buenas intenciones.

PUBLICIDAD

Ahora que el modelo de Mostaque se ha dado a conocer, empresas de medios sociales como Snap Inc. (SNAP) y TikTok de Byte Dance Inc. podrían replicarlo para sus propias plataformas. TikTok, por ejemplo, añadió recientemente una herramienta de IA para generar imágenes de fondo, pero es muy estilizada y no hace imágenes específicas de personas u objetos. Eso podría cambiar si TikTok decide utilizar el nuevo modelo. Mostaque, un antiguo gestor de fondos de cobertura que estudió informática en la Universidad de Oxford, dijo que los desarrolladores de Rusia ya lo habían reproducido.

El enfoque de código abierto de Mostaque va en contra de la forma en que la mayoría de las grandes empresas tecnológicas han manejado los descubrimientos de la IA, impulsados tanto por las preocupaciones de propiedad intelectual como por la seguridad pública. Google, de Alphabet Inc. (GOOGL), tiene un modelo llamado Imagen cuyas creaciones parecen incluso más realistas que el DALL-E 2 de OpenAI, pero la empresa no lo publicará debido a los “riesgos potenciales de uso indebido”. Dice que está “explorando un marco” para un posible lanzamiento futuro, que podría incluir alguna supervisión. OpenAI tampoco publicará detalles sobre sus herramientas para que cualquiera pueda copiarlas.

PUBLICIDAD

Las empresas tecnológicas monopólicas no deberían ser las únicas guardianas de la poderosa IA, porque están obligadas a orientarla hacia su propia agenda, ya sea en la publicidad o en mantener a la gente enganchada a un scroll interminable. Pero también me inquieta la idea alternativa de “democratizar la IA”. El propio Mostaque ha utilizado esta frase, cada vez más popular en la tecnología.

Hacer que un producto sea asequible o incluso de libre acceso no se ajusta realmente a la definición. En el fondo, la democracia se basa en la gobernanza para que funcione correctamente, y hay pocos indicios de supervisión para herramientas como Stable Diffusion. Mostaque dice que se apoyó en una comunidad de varios miles de desarrolladores y seguidores que deliberaron en el foro de chat Discord sobre cuándo sería seguro liberar su herramienta en la naturaleza. Así que eso es algo. Pero ahora que Stable Diffusion ha salido a la luz, su uso no estará en gran medida regulado.

PUBLICIDAD

Se podría argumentar que poner en circulación potentes herramientas de IA contribuirá al progreso humano de alguna manera, y que Stable Diffusion transformará la creatividad como predice Mostaque. Pero deberíamos esperar consecuencias no deseadas e imprevistas que sean tan generalizadas como los beneficios de convertir a cualquiera en un artista de la IA, ya sea una nueva generación de campañas de desinformación, o nuevos tipos de estafas en línea, o algo totalmente distinto.

Mostaque no será la última persona en lanzar al mundo una potente herramienta de IA y, si Stability AI no lo hubiera hecho, alguien más lo haría. Esa carrera por ser el primero en llevar una potente innovación a las masas es, en parte, lo que está impulsando esta zona gris del desarrollo de software. Cuando le señalé la ironía del nombre de su empresa teniendo en cuenta el trastorno que probablemente causará, replicó que “la inestabilidad y el caos iban a llegar de todos modos”. El mundo debería prepararse para un viaje cada vez más accidentado.

PUBLICIDAD

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com