Samsung prohíbe a su personal el uso de ChatGPT y otras herramientas de IA

La compañía anunció la restricción debido a preocupaciones de seguridad, lo que representa un revés para la difusión de dicha tecnología en el lugar de trabajo

Un visitante se siluetea mientras camina junto al logotipo de Samsung Electronics Co. en Seúl, Corea del Sur, el martes 27 de enero de 2015. Fotógrafo: SeongJoon Cho/Bloomberg
Por Mark Gurman
01 de mayo, 2023 | 09:37 PM

Bloomberg — Samsung Electronics Co. prohíbe a sus empleados el uso de herramientas populares de IA generativa como ChatGPT, Google Bard y Bing por motivos de seguridad, lo que supone un revés para la difusión de esta tecnología en el lugar de trabajo.

La empresa, con sede en Suwon (Corea del Sur), notificó el lunes la nueva política al personal de una de sus mayores divisiones a través de un memorándum analizado por Bloomberg. Según el documento, a la empresa le preocupa que los datos transmitidos a este tipo de plataformas de inteligencia artificial se almacenen en servidores externos, lo que dificulta su recuperación y eliminación, y puedan acabar siendo revelados a otros usuarios.

VER +
Microsoft podría reemplazar a Google como buscador de Samsung en medio de carrera IA

“El interés por las plataformas de IA generativa como ChatGPT ha ido creciendo tanto interna como externamente”, dijo Samsung al personal. “Si bien este interés se centra en la utilidad y eficiencia de estas plataformas, también hay una creciente preocupación por los riesgos de seguridad que presenta la IA generativa”.

Samsung es solo la última gran empresa en expresar su preocupación por esta tecnología. En febrero, solo un par de meses después de que el servicio de chatbot de OpenAI suscitara una tormenta de interés por la tecnología, algunos bancos de Wall Street, entre ellos JPMorgan Chase & Co., Bank of America Corp. y Citigroup Inc. prohibieron o restringieron su uso. Italia también prohibió el uso de ChatGPT por temor a la privacidad, aunque en los últimos días ha cambiado de postura.

PUBLICIDAD

Un representante de Samsung declinó hacer comentarios.

Las nuevas normas de Samsung prohíben el uso de sistemas de IA generativa en ordenadores, tabletas y teléfonos propiedad de la empresa, así como en sus redes internas. No afectan a los dispositivos de la empresa vendidos a los consumidores, como los smartphones Android y los portátiles Windows.

VER +
Nokia y Samsung llegan a un acuerdo de varios años sobre patentes 5G

Samsung pidió a los empleados que utilizan ChatGPT y otras herramientas en dispositivos personales que no envíen ninguna información relacionada con la empresa ni datos personales que puedan revelar su propiedad intelectual. Advirtió de que el incumplimiento de las nuevas políticas podría acarrear el despido.

PUBLICIDAD

“Les pedimos que sigan con diligencia nuestras directrices de seguridad; de lo contrario, la información de la empresa podría verse comprometida y dar lugar a medidas disciplinarias, incluido el despido”, afirma Samsung en la nota.

La empresa realizó una encuesta el mes pasado sobre el uso de herramientas de inteligencia artificial a nivel interno y afirmó que el 65% de los encuestados cree que estos servicios suponen un riesgo para la seguridad. A principios de abril, los ingenieros de Samsung filtraron accidentalmente código fuente interno subiéndolo a ChatGPT, según el memorando.

VER +
Samsung lanza hub inteligente para el hogar que se adentra en el terreno de Amazon

“La sede central está revisando las medidas de seguridad para crear un entorno seguro para utilizar de forma segura la IA generativa con el fin de mejorar la productividad y la eficiencia de los empleados”, decía la nota. “Sin embargo, hasta que estas medidas estén preparadas, estamos restringiendo temporalmente el uso de IA generativa”.

Mientras tanto, la empresa está creando sus propias herramientas internas de IA para traducir y resumir documentos, así como para el desarrollo de software. También está trabajando en formas de bloquear la subida de información sensible de la empresa a servicios externos. El mes pasado, ChatGPT añadió un modo “incógnito” que permite a los usuarios impedir que sus chats se utilicen para entrenar modelos de IA.

--Con la ayuda de Sohee Kim.