ChatGPT podría exponer secretos corporativos e información de clientes: reporte

El temor es que la adopción generalizada de IA deje a las compañías vulnerables a filtraciones y demandas

El logo de ChatGPT
Por Marissa Newman
18 de abril, 2023 | 02:47 PM

Bloomberg — Según un informe de Team8, una empresa de capital riesgo con sede en Israel, las empresas que utilizan herramientas de inteligencia artificial generativa (GenAI) como ChatGPT podrían poner en peligro información confidencial de clientes y secretos comerciales. El temor es que la adopción generalizada de IA deje a las compañías vulnerables a filtraciones y demandas, según el reporte. Además, existe la preocupación de que datos confidenciales introducidos en los chatbots puedan ser utilizados por empresas de IA en el futuro.

VER +
ChatGPT descifra declaraciones de miembros de Fed y predice movimientos bursátiles

Las principales empresas tecnológicas, como Microsoft Corp. (MSFT) y Alphabet Inc. (GOOGL), están en una carrera por mejorar sus chatbots y motores de búsqueda con capacidades de IA generativa, entrenando sus modelos con datos extraídos de Internet para ofrecer a los usuarios una ventanilla única para sus consultas. El informe advierte de que si se introducen datos confidenciales o privados en estas herramientas, será difícil borrar la información.

“El uso empresarial de GenAI puede dar lugar al acceso y tratamiento de información sensible, propiedad intelectual, código fuente, secretos comerciales y otros datos, a través de la entrada directa del usuario o de la API, incluida información privada o de clientes e información confidencial”, decía el informe, que clasificaba el riesgo como “alto”. Describió los riesgos como “gestionables” si se introducen las salvaguardias adecuadas.

El informe de Team8 subraya que las consultas de los chatbots no se introducen en los modelos de lenguaje de gran tamaño para entrenar la inteligencia artificial, contrariamente a lo que se ha informado recientemente sobre la posibilidad de que estas indicaciones puedan ser vistas por otras personas.

PUBLICIDAD
VER +
Musk quiere construir su propia IA ChatGPT para rivalizar con Microsoft y Google

“En el momento de redactar este informe, los modelos de lenguaje de gran tamaño no pueden actualizarse en tiempo real y, por tanto, no pueden devolver las entradas de uno a la respuesta de otro, lo que desacredita esta preocupación. Sin embargo, esto no es necesariamente cierto para el entrenamiento de futuras versiones de estos modelos”, decía.

El documento señalaba otros tres problemas de “alto riesgo” en la integración de herramientas de IA generativa y subrayaba la creciente amenaza de que la información se comparta cada vez más a través de aplicaciones de terceros. Microsoft ha integrado algunas funciones de chatbot de IA en su motor de búsqueda Bing y en las herramientas de Microsoft 365.

“En el lado del usuario, por ejemplo, las aplicaciones de terceros que aprovechan una API GenAI, si se ven comprometidas, podrían potencialmente proporcionar acceso al correo electrónico y al navegador web, y permitir a un atacante realizar acciones en nombre de un usuario”, dijo.

PUBLICIDAD

Existe un “riesgo medio” de que el uso de la IA generativa pueda aumentar la discriminación, dañar la reputación de una empresa o exponerla a acciones legales por cuestiones de derechos de autor.

Ann Johnson, vicepresidenta corporativa de Microsoft, participó en la redacción del informe. Microsoft ha invertido miles de millones en Open AI, desarrolladora de ChatGPT.

VER +
Empresa planea sustituir trabajadores en favor de una IA al estilo ChatGPT

“Microsoft fomenta el debate transparente sobre la evolución de los riesgos cibernéticos en las comunidades de seguridad e IA”, declaró un portavoz de Microsoft.

Decenas de directores de seguridad de la información de empresas estadounidenses también figuran en la lista de colaboradores del informe. El informe de Team8 también cuenta con el respaldo de Michael Rogers, antiguo director de la Agencia de Seguridad Nacional y del Mando Cibernético de Estados Unidos.

Lea más en Bloomberg.com