Bloomberg — Peter Steinberger, creador del popular programa de inteligencia artificial de código abierto OpenClaw, se unirá a OpenAI Inc. para ayudar a reforzar la oferta de productos del desarrollador de ChatGPT.
“OpenClaw vivirá en una fundación como proyecto de código abierto que OpenAI seguirá apoyando”, escribió el consejero delegado de OpenAI, Sam Altman, en un post en X Sunday, añadiendo que Steinberger se “une a OpenAI para impulsar la próxima generación de agentes personales”.
Steinberger escribió en otro post en su página web el sábado que se unirá a OpenAI para “formar parte de la frontera de la investigación y el desarrollo de la IA, y seguir construyendo”.
“Siempre ha sido importante para mí que OpenClaw siga siendo de código abierto y que se le dé libertad para florecer”, escribió Steinberger. “En última instancia, sentí que OpenAI era el mejor lugar para seguir impulsando mi visión y ampliar su alcance”.
OpenClaw, anteriormente llamado Clawdbot y Moltbot, ha cosechado seguidores de culto desde su lanzamiento en noviembre por su capacidad para funcionar de forma autónoma, limpiando las bandejas de entrada de los usuarios, haciendo reservas en restaurantes y registrando vuelos, entre otras tareas. Los usuarios también pueden conectar la herramienta a aplicaciones de mensajería como WhatsApp y Slack y dirigir al agente a través de esas plataformas.
“Mi próxima misión es construir un agente que hasta mi madre pueda utilizar”, escribió Steinberger. “Eso necesitará un cambio mucho más amplio, mucha más reflexión sobre cómo hacerlo de forma segura y acceso a los modelos y las investigaciones más recientes”.
Esta medida se produce en medio de una creciente preocupación por la seguridad en torno a OpenClaw, después de que un usuario informara de que el agente “se volvió pícaro” y envió cientos de mensajes de spam tras obtener acceso a iMessage. Los expertos en ciberseguridad advierten de que la herramienta es arriesgada porque tiene acceso a datos privados, puede comunicarse con el exterior y está expuesta a contenidos que no son de confianza, lo que un investigador denominó la “trifecta letal” de la IA.
©2026 Bloomberg L.P.