Líderes del campo de la IA advierten por “riesgo de extinción” por la tecnología

Es la más reciente advertencia de alto perfil de líderes de la industria que llaman la atención sobre los graves riesgos que plantea la IA

El logo de ChatGPT
Por Jackie Davalos
30 de mayo, 2023 | 03:38 PM

Lea esta historia en

Portugués

Bloomberg — Los principales exponentes de algunas de las empresas líderes en inteligencia artificial, entre ellas DeepMind de Alphabet Inc. (GOOGL), OpenAI y Anthropic, se unieron a un creciente coro de voces que advierten sobre los daños existenciales de que podría acarrear esta tecnología.

VER +
¿En qué consiste el marco europeo que regula la IA y por qué es controvertido?

En un comunicado publicado el martes por el Centro para la Seguridad de la IA, una organización sin fines de lucro, dijeron que “mitigar el riesgo de extinción (para la humanidad) de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

La declaración fue firmada por más de 350 ejecutivos e investigadores, incluidos Sam Altman, CEO de OpenAI, la empresa detrás de ChatGPT, Demis Hassabis, que dirige DeepMind y Darío Amodei, CEO de Anthropic, una startup cofundada por veteranos de OpenAI.

La nota, que consta de una sola frase, es la más reciente advertencia de alto perfil de líderes de la industria que llaman la atención sobre los graves riesgos que plantea la inteligencia artificial para la sociedad. En marzo, más de 1.100 líderes de la industria, incluidos Elon Musk, Stuart Russell, profesor de informática de la Universidad de California Berkeley y el cofundador de Apple Inc. (AAPL), Steve Wozniak, abogaron por una pausa de seis meses en el entrenamiento de poderosos modelos de IA.

PUBLICIDAD

A pesar de las advertencias de los líderes tecnológicos, algunos escépticos sostienen que la inteligencia artificial no es lo suficientemente avanzada como para justificar los temores de que podría destruir a la humanidad, y que centrarse en los escenarios catastróficos sirve solo como distracción de problemas como el sesgo algorítmico, el racismo y el riesgo de desinformación rampante.

“Creo que es una forma de controlar la narrativa”, dijo Sasha Luccioni, investigadora de la startup de AI Hugging Face. “Deberíamos estar hablando de legislación, cosas como los riesgos de sesgo, las formas en que se usa la IA que son buenas para la sociedad, y en cambio nos enfocamos en los riesgos hipotéticos”, dijo en una entrevista en Bloomberg Technology.

A principios de este mes, Geoffrey Hinton —uno de los llamados padrinos de la inteligencia artificial que pasó décadas revolucionando el campo y ayudando a crear las tecnologías avanzadas de aprendizaje automático de hoy— anunció que dejaba el equipo de investigación de IA de Google, y dijo que las empresas se estaban moviendo demasiado rápido en la implementación de IA al público.

PUBLICIDAD

Más en Bloomberg.com

Lee también:

La IA amenaza más a los puestos ocupados por mujeres

Oportunidades y riesgos del boom de la IA, según un experto de Silicon Valley