Publicidad
Revista Digital
Publicidad

OpenClaw, la IA que dejó de responder, empezó a hacer y redefinió la industria

Cuando una herramienta se vuelve cultura, el lenguaje se disputa. Los nombres dejan de ser etiquetas y se vuelven territorio.
jue 26 febrero 2026 06:01 AM
OpenClaw, la IA que dejó de responder, empezó a hacer y redefinió la industria
La pregunta ya no es si la IA piensa, sino quién se hace responsable cuando la IA actúa. Porque en la era OpenClaw el futuro no se escribe en prompts. Se ejecuta, apunta Juan Carlos Chávez. (Foto: iStock)

Imagina que ya no “usas apps”. Mandas un WhatsApp: “paga esta factura, responde estos correos, agenda la junta”. Y listo. OpenClaw se vende como “la IA que realmente hace cosas” desde el chat que ya usas. Esa promesa —tan simple— es lo que la vuelve peligrosa (y poderosa): ya no es un modelo que te sugiere pasos; es un agente que toma el teclado.

Publicidad

La historia explica el ruido. Reuters contó que, desde su lanzamiento en noviembre, OpenClaw rebasó 100,000 estrellas en GitHub y atrajo 2 millones de visitantes en una sola semana. También, reportó que su creador, Peter Steinberger, se sumó a OpenAI y que el proyecto migrará a una fundación para seguir siendo open source. En su blog, Steinberger lo describió como un “playground project” que provocó olas: el clásico experimento que, sin pedir permiso, se vuelve infraestructura.

En ese ascenso, cambió de nombre: Clawdbot, luego Moltbot y, por fin, OpenClaw. Parte de la explicación fue un reclamo de marca y presión reputacional por la similitud con “Claude/Clawd”. Parece anécdota, pero es señal: cuando una herramienta se vuelve cultura, el lenguaje se disputa. Los nombres dejan de ser etiquetas y se vuelven territorio.

¿Y qué es, en concreto? Un agente: software que conversa y ejecuta. Corre en tu máquina (macOS, Windows o Linux), puede ir en sandbox o con acceso total, y trabaja con modelos comerciales o locales. Su diferencia no está en “contestar bien”, sino en “hacer”: abrir aplicaciones, navegar, llenar formularios, mover archivos, correr comandos, automatizar rutinas y encadenar acciones como lo harías tú, pero sin cansancio. Por eso los usos más repetidos hoy son los de fricción baja y alto volumen: bandeja de entrada, calendario, check-in de vuelos, trámites y hasta lidiar con aseguradoras.

Sin embargo, ese poder trae factura. VirusTotal publicó que detectó cientos de “skills” maliciosas disfrazadas de automatización en el ecosistema de extensiones. Y medios de ciberseguridad documentaron la respuesta: escaneo automático de skills en el marketplace, justamente porque una “tienda de habilidades” se vuelve una nueva superficie de ataque. Reuters también reportó una advertencia del ministerio de industria de China: mal configurado, un agente así expone datos y abre la puerta a ciberataques. En otras palabras: el salto de “texto” a “acción” también es un salto de “riesgo teórico” a “riesgo operativo”.

Esto último de ninguna manera significa que no debemos de usarlo, sino que debemos tener cuidado al hacerlo.

Publicidad

Luego apareció Moltbook: una red "social" estilo Reddit “para agentes”, donde humanos miran y los agentes publican. ABC News reportó que la plataforma afirmaba más de 1.6 millones de agentes registrados, mientras Wiz halló, al inspeccionar una base expuesta, alrededor de 17,000 dueños humanos detrás y millones de llaves/API expuestas. Aquí la nota profunda no es la cifra, sino el fenómeno: ya existe una esfera pública para máquinas.

En síntesis, esto tiene implicaciones muy profundas a corto y largo plazo; dos de las más relevantes son:

Primero, el futuro sobre el uso de la IA está en agentes que realizan cadenas de ejecuciones a través de aplicaciones y herramientas web muy parecidas a las que ahora utilizamos en nuestros teléfonos y computadoras. Es decir, solo bastará con pedir la tarea para que tu agente se encargue de lo que necesites, ya no tendrás que navegar entre páginas y aplicaciones: el mercado de las “apps” y los sistemas operativos acaba de dar un giro de 180 grados, ahora tendrán que diseñarse principalmente para agentes, no para humanos.

Segundo, considerando que las culturas son aprendizajes colectivos perfeccionados y transmitidos de grupo en grupo y de persona en persona, ahora vemos que esta capa evolutiva superior será replicada entre agentes de IA, como sucede ahora con Moltbook.

Publicidad

La pregunta ya no es si la IA piensa, sino quién se hace responsable cuando la IA actúa. Porque en la era OpenClaw el futuro no se escribe en prompts. Se ejecuta.

____

Nota del editor: Juan Carlos Chávez es Profesor de Creatividad y Etología Económica en el sistema UP/IPADE y autor de los libros Sistema 3: La Mente Creativa (2025), Homo Creativus (2024), Biointeligencia Estratégica (2023), Inteligencia Creativa (2022), Multi-Ser en busca de sentido (2021), Psico-Marketing (2020) y Creatividad: el arma más poderosa del Mundo (2019). Es director de www.G-8D.com Agencia de Comunicación Creativa y consultor de empresas nacionales y transnacionales. Encuentra sus libros en Amazon y síguelo en Facebook , Instagram , YouTube y LinkedIn . Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad