Samsung prohíbe uso de IA a personal tras subida de código clave a ChatGPT

Empleados filtraron accidentalmente datos sensibles a esta plataforma en abril. Los riesgos que esto representa para las empresas

Por

Bloomberg — Samsung Electronics Co. va a prohibir a sus empleados el uso de herramientas populares de IA generativa, como ChatGPT, luego de descubrir que empleados habían subido código sensible a una de estas plataformas.

La empresa notificó la nueva política al personal de una de sus mayores divisiones a través de un memorándum visto por Bloomberg News. A la empresa le preocupa que los datos transmitidos a estas plataformas de inteligencia artificial, como Google Bard y Bing, se almacenen en servidores externos, lo que dificulta su recuperación y eliminación, y podrían acabar siendo revelados a otros usuarios, según el documento.

La empresa realizó una encuesta el mes pasado sobre el uso de herramientas de IA internamente y determinó que el 65% de los encuestados cree que tales servicios suponen un riesgo para la seguridad. A principios de abril, ingenieros de Samsung filtraron accidentalmente código fuente interno subiéndolo a ChatGPT, según el memorándum. No está claro qué contenía la información.

Un representante de Samsung confirmó que la semana pasada se envió un memorándum prohibiendo el uso de servicios de IA generativa.

“El interés por las plataformas de IA generativa como ChatGPT ha ido creciendo interna y externamente”, dijo Samsung al personal. “Aunque este interés se centra en la utilidad y eficacia de estas plataformas, también existe una creciente preocupación por los riesgos de seguridad que presenta la IA generativa”.

Samsung es la última gran empresa que ha expresado su preocupación por esta tecnología. En febrero, sólo un par de meses después de que el servicio de chatbot de OpenAI suscitara una tormenta de interés por la tecnología, algunos bancos de Wall Street, como JPMorgan Chase & Co. (JPM), Bank of America Corp. (BAC) y Citigroup Inc. (C) prohibieron o restringieron su uso. Italia también prohibió el uso de ChatGPT por temor a la privacidad, aunque en los últimos días ha cambiado de postura.

Las nuevas normas de Samsung prohíben el uso de sistemas de IA generativa en ordenadores, tabletas y teléfonos propiedad de la empresa, así como en sus redes internas. No afectan a los dispositivos de la empresa vendidos a los consumidores, como los smartphones Android y los portátiles Windows.

Samsung pidió a los empleados que utilizaran ChatGPT y otras herramientas en dispositivos personales que no enviaran ninguna información relacionada con la empresa ni datos personales que pudieran revelar su propiedad intelectual. Advirtió de que infringir las nuevas políticas podría suponer el despido.

“Te pedimos que cumplas diligentemente nuestra directriz de seguridad y, de no hacerlo, podría producirse una infracción o poner en peligro la información de la empresa, lo que daría lugar a medidas disciplinarias que podrían incluir el despido”, decía Samsung en el memorándum.

Mientras tanto, la empresa está creando sus propias herramientas internas de IA para traducir y resumir documentos, así como para desarrollar software. También está trabajando en formas de bloquear la subida de información sensible de la empresa a servicios externos. El mes pasado, ChatGPT añadió un modo “incógnito” que permite a los usuarios bloquear sus chats para que no se utilicen en el entrenamiento de modelos de IA.

“La sede central está revisando las medidas de seguridad para crear un entorno seguro que permita utilizar con seguridad la IA generativa para mejorar la productividad y la eficacia de los empleados”, dice la nota. “Sin embargo, hasta que estas medidas estén preparadas, estamos restringiendo temporalmente el uso de la IA generativa”.

Con la asistencia de Sohee Kim.