Deutsche Bank y Goldman recurren a la IA para detectar conductas indebidas de operadores

El prestamista alemán está trabajando con Google Cloud de Alphabet para desarrollar un gran modelo lingüístico que detecte anomalías en órdenes, operaciones y movimientos del mercado.

Por

Bloomberg — Deutsche Bank AG (DB) y Goldman Sachs Group Inc. (GS) están recurriendo a la inteligencia artificial agéntica para reforzar la supervisión de operaciones bursátiles y rastrear posibles conductas indebidas, en una señal de que las instituciones financieras están incorporando esta tecnología a sus operaciones.

El prestamista alemán está trabajando con Google Cloud de Alphabet Inc. (GOOGL) para desarrollar un gran modelo lingüístico que detecte anomalías en órdenes, operaciones y movimientos del mercado, según Bernd Leukert, responsable de tecnología, datos e innovación del Deutsche Bank.

Ver más: Wall Street rechaza la tesis de Citrini de que la IA puede provocar un desempleo masivo

La IA agéntica suele estar diseñada para planificar y emprender acciones de forma autónoma, a diferencia de los chatbots de IA que se limitan a suministrar información. El Deutsche Bank está desarrollando la herramienta con la intención de señalar posibles abusos del mercado a un responsable de cumplimiento humano una vez que esté operativa.

El Deutsche Bank también tiene previsto utilizar un LLM para supervisar las comunicaciones de los operadores, vendedores y demás personal de cara al cliente, con un despliegue previsto para finales de este año.

Mientras tanto, Goldman Sachs ha estado estudiando la posibilidad de utilizar IA agéntica para analizar las operaciones y buscar cualquier señal o movimiento sospechoso en el mercado, dijeron personas con conocimiento del asunto, que pidieron no ser identificadas por tratarse de información privada. Un representante de Goldman declinó hacer comentarios.

En Nomura Holdings Inc., los ejecutivos están en conversaciones con otro banco global para entrenar juntos modelos de vigilancia de IA, según Tahir Zafar, jefe internacional de estrategia de IA de la firma.

Muchos bancos están evaluando formas de integrar la inteligencia artificial como forma de ahorrar costos y mejorar la eficiencia. En la actualidad, la mayor parte de la vigilancia de las operaciones se realiza mediante un algoritmo basado en reglas, programado para detectar problemas.

“Hemos retirado los sistemas heredados y reconstruido la forma en que hacemos el cumplimiento”, dijo Leukert, del Deutsche Bank. “Antes nos llevaba muchísimo tiempo recopilar datos de distintas fuentes”.

Ver más: Economista de la Casa Blanca califica informe de Citrini sobre IA como ‘ciencia ficción’

Estas reformas -que forman parte de una revisión más amplia del cumplimiento- han permitido al Deutsche Bank cerrar 200 servidores internos que se utilizaban para la vigilancia. El banco también ha reducido en más de un 25% los falsos positivos que pueden desencadenar sondeos más profundos, según Leukert.

“El LLM puede hacer el análisis y ayudar a recomendar la ruta que el responsable de cumplimiento puede validar y luego cerrar la alerta”, dijo. “La decisión final queda en manos del responsable de cumplimiento y puede profundizar tanto como quiera”.

El banco tiene previsto supervisar las comunicaciones del personal de negociación y ventas a través de un LLM diseñado para captar actividades anómalas, como el reenvío por parte de los empleados de información confidencial a direcciones de correo electrónico personales. Por ahora, el sistema de vigilancia del Deutsche Bank rastrea más de 40 canales internos y externos para supervisar al personal de front-office, y examina 1 terabyte de comunicaciones electrónicas al día.

“A los bancos les preocupa la prevención de la pérdida de datos”, afirma Sid Nadella, responsable global de soluciones para mercados de capitales de Google Cloud. “Supervisar las comunicaciones, asegurarse de que no hay ninguna actividad problemática, siempre ha formado parte de ello. Eso puede amplificarse utilizando la IA”.

Al colaborar con un banco rival, Nomura pretende compartir información cuando proceda, al tiempo que protege sus propios intereses. “Eso significa que podemos ejecutar nuestros modelos patentados y ellos pueden ejecutar los suyos”, dijo Zafar. “Podemos mantener protegida nuestra propiedad intelectual pero compartir información sobre entidades y transacciones”. La empresa también está en conversaciones con un regulador que está interesado en financiar la colaboración del banco con otras empresas y ayudarles a conectarse para compartir ideas.

Los ejecutivos de Nomura declinaron nombrar al banco o al regulador. La firma cree que la IA podría ayudar a reducir los falsos positivos entre un 30% y un 40%, ahorrando potencialmente hasta US$5 millones al año en costos de cumplimiento. “En esta fase no buscamos tener a los humanos fuera del bucle”, dijo Zafar. “Incluso con los flujos de trabajo agénticos nos aseguramos de que haya un humano comprobando y verificando todo, pero significa que podemos aumentar el rendimiento”.

Los bancos también están utilizando la IA generativa para mejorar el cumplimiento en torno a los clientes y las contrapartes. La empresa de tecnología financiera ThetaRay está ayudando a bancos como el Banco Santander SA a mejorar los controles contra el blanqueo de capitales con IA agéntica, es decir, modelos que pueden realizar tareas con una intervención humana limitada.

Ver más: Las ‘Big Tech’ recortan recompras de acciones al nivel más bajo desde 2019 por gasto en IA

“Imaginen al personaje de Marvel, Falcon, rodeado de drones”, dijo Brad Levy, director ejecutivo de ThetaRay. “Por ahora, la capacidad de acción seguirá siendo humana, pero con el tiempo se convertirá en la tecnología más autónoma”.

Aun así, la mayoría de los bancos están siendo cautos con la tecnología y la están implantando paso a paso, según Benny Porat, director ejecutivo de Twine Security. La IA agéntica puede introducir nuevas vulnerabilidades si no se controla estrictamente. Si se ve comprometida, podría exponer datos sensibles de los clientes o emprender acciones no autorizadas, como revocar el acceso al sistema o no explicar por qué tomó una decisión.

“Se abre a sistemas externos y, si no se controla, existe el riesgo de que exponga datos accidentalmente”, afirmó Porat. “Hemos pasado décadas perfeccionando la forma en que contratamos y confiamos en los humanos. ¿Agentes de IA? La mayoría de las organizaciones aún están averiguándolo”.

Con la colaboración de Shona Ghosh.

Lea más en Bloomberg.com