OpenAI puede restaurar la confianza si actúa con menos secretismo

Por

Bloomberg — La crisis de la junta directiva que los trabajadores de OpenAI han bautizado como “El Blip” (una señal luminosa) amenaza con hacer honor a su calificativo, y no debiera.

La empresa acaba de anunciar los resultados de un estudio jurídico independiente relativo al despido de su CEO Sam Altman en noviembre del 2023. Su nueva directiva “manifestó su total confianza” en la continuidad del liderazgo de Altman sobre la base del bufete de abogados; la mayor parte de la industria de tecnología pasó página y aguarda con ansiedad una actualización de ChatGPT para finales de este año.

Sin embargo, ese escándalo no fue nada del otro mundo, y conviene examinar las conclusiones de dicha investigación.

Según OpenAI, los abogados confirmaron que su directiva no había despedido a Altman por motivos relacionados con la seguridad de los productos o la situación financiera de la compañía, sino porque había habido una “ruptura de la confianza” entre esta y Altman, y que su comportamiento “no requería su destitución”.

Esto no deja de ser un reflejo inquietante del amplio manto de secreto en que se ha cubierto OpenAI mientras lanzaba al mundo poderosos modelos de inteligencia artificial. Cada vez es más importante la confianza, pues un pequeño grupo de empresas tecnológicas poco transparentes, como Google de Alphabet Inc. (GOOGL) y Microsoft Corp. (MSFT), dominan algunas de las innovaciones más revolucionarias que las empresas y la sociedad han experimentado en años.

Sorprendentemente, las propias comunicaciones de OpenAI han socavado su confiabilidad. A principios de este mes, en respuesta a una demanda de Elon Musk, publicó los primeros correos electrónicos de ejecutivos que incluían una admisión de su científico jefe de que OpenAI estaba compartiendo detalles sobre su tecnología “con fines de reclutamiento” en lugar de un deseo genuino de servir a la humanidad. Quizás OpenAI sepa que su encuadre público se ve en gran medida como un espejismo.

Pero Altman podría cambiar eso, recuperando la confianza no solo con su junta directiva sino también con el público, y devolverle la “apertura” a OpenAI con solo unos pocos pasos cruciales.

Primero, hacer que la empresa sea tan transparente como sugiere su nombre, particularmente en torno a los datos que utiliza para entrenar sus modelos. Sabemos que OpenAI utilizó 45 terabytes de datos de texto sin formato para construir su modelo GPT-3 hace cuatro años porque así lo dijo en un artículo de investigación . Pero no dijo qué sitios web se utilizaron, y fue aún más reservado sobre el modelo más nuevo que sustenta ChatGPT, citando “el panorama competitivo [y] las implicaciones de seguridad”.

Publicar detalles de datos de entrenamiento no sería peligroso. Simplemente facilitaría a los investigadores examinar una herramienta que ya ha mostrado prejuicios raciales y de género en las decisiones de reclutamiento, según una investigación reciente de Bloomberg News.

Podría revelar qué sitios web se utilizan para el entrenamiento, similar al desglose de un popular conjunto de datos realizado por el Washington Post y, mejor aún, facilitar el acceso a esa información, para que personas que no son programadores puedan explorarla en busca de efectos secundarios perjudiciales.

Esto abriría la puerta a “científicos sociales, reguladores, periodistas y activistas de derechos”, afirma Margaret Mitchell, antigua codirectora del equipo de IA ética de Google y actual jefa de ética de la empresa de IA Hugging Face Inc.

OpenAI dispone de mecanismos de seguridad y filtros para garantizar que ChatGPT no diga cosas ofensivas, pero no explica cómo funcionan esos sistemas. Eso debería cambiar, según Sasha Luccioni, otra científica de inteligencia artificial de Hugging Face.

Finalmente, la empresa ya tiene algunas licencias con organizaciones como Axel Springer SE y Associated Press, a quienes paga por un acceso especial a los datos para entrenar modelos de IA. No obstante, hay miles de artistas y escritores cuyos datos han sido extraídos sin consentimiento y de forma gratuita, y que no tienen los recursos para cerrar acuerdos.

Probablemente no sea realista pedirle a OpenAI que compense a algunos de esos creadores, ya que su configuración sería costosa y llevaría mucho tiempo. Pero como mínimo, podría ofrecerles un sistema para que opten por no utilizar su contenido para entrenar IA, dice Mitchell.

Una portavoz de OpenAI declinó hacer comentarios.

Sam Altman ha dicho que está “contento de que todo esto haya terminado”, según Axios, en referencia a la investigación realizada por el bufete de abogados WilmerHale.

Ahora que los dos miembros de la junta directiva que lo obligaron a irse ya no están, está trabajando con una junta más amigable con las corporaciones que incluye ejecutivos de compañías como Sony Group Corp., Instacart Inc. (CART) y Salesforce Inc. (CRM), que podría acelerar más que nunca el desarrollo de la IA de OpenAI. Esto, sumado al alejamiento de OpenAI de sus raíces no lucrativas, hace que la introducción de una nueva línea de denuncia de irregularidades parezca vacía.

Altman fue despedido porque la junta original cumplió al pie de la letra su deber fiduciario con la “humanidad”, creyendo que había comprometido la misión de OpenAI al no ser lo suficientemente sincero con ellos.

Su exoneración fortalece su posición en la empresa, pero también dificulta que los empleados que ven daños potenciales hablen. Es la más remota de las posibilidades, pero si Altman diera al menos un paso para volverse más transparente, contribuiría en cierta medida a restaurar la confianza en la empresa. La confianza es en lo que se basa la sociedad cuando sólo unas pocas grandes empresas controlan el desarrollo de la IA; Actualmente, es escaso.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com