A finales de enero de 2026, una nueva herramienta de inteligencia artificial sacudió las comunidades tecnológicas: Clawdbot, un agente de IA diseñado para controlar directamente un ordenador y automatizar tareas por ti. En pocos días se convirtió en uno de los proyectos más debatidos del año, tanto por su potencial como por los múltiples riesgos de seguridad y privacidad asociados a su uso.
Desarrollado por el programador Peter Steinberger, Clawdbot surgió como un asistente autónomo capaz de ejecutar acciones más allá de un simple chatbot: podía interactuar con aplicaciones, archivos y servicios de mensajería de forma automatizada, con solo recibir órdenes desde interfaces como Telegram, WhatsApp o un navegador web.
Sin embargo, el proyecto pronto tuvo que enfrentar un imprevisto que marcaría su historia: tras una reclamación por similitud de nombre con otro popular modelo de IA, el fundador rebautizó Clawdbot como Moltbot el 27 de enero y más tarde evolucionó a lo que hoy se conoce como OpenClaw.
¿Qué fue lo que hizo único a Clawdbot?
A diferencia de asistentes en la nube como ChatGPT o Gemini, la mayor novedad de Clawdbot era su capacidad para vivir dentro de tu propio equipo o servidor, con acceso completo al sistema operativo y la posibilidad de ejecutar comandos como si fueras tú mismo.
Una vez instalado, el agente podía:
- Abrir aplicaciones y controlar el navegador con tus sesiones iniciadas.
- Leer y escribir en el sistema de archivos del usuario.
- Acceder a correos electrónicos, calendarios y otros servicios vinculados.
- Enviar mensajes o realizar acciones remotamente a través de apps de mensajería.
Este nivel de acceso permitía, por ejemplo, pedirle al agente que enviara un WhatsApp específico o que ejecutara tareas complejas sin necesidad de estar frente al ordenador, algo hasta entonces inédito en asistentes de IA generalistas.
Beneficios y potencial real
Para tareas de productividad, este tipo de agentes representan una revolución. Automatizar flujos repetitivos, gestionar datos, interactuar con múltiples servicios o ejecutar mantenimientos del sistema sin intervención humana puede ahorrar tiempo y recursos. La comunidad de desarrolladores y entusiastas de la automatización abrazó la idea con entusiasmo ante las posibilidades prácticamente ilimitadas que ofrecía.
Los grandes peligros que planteó Clawdbot
Pero el debate más intenso vino por el lado de la seguridad y la privacidad.
Control total del sistema
Al darle a la IA acceso completo a tu ordenador, también se le estaba dando potencial control sobre todo lo que ocurre allí. La posibilidad de que una acción mal formulada o una interpretación incorrecta de una orden pudiera borrar archivos, enviar datos sensibles o modificar configuraciones alarmó a muchos expertos.
Peor aún, como el agente podía entender documentos —como archivos PDF o correos— e interpretar instrucciones desde ellos, existía el riesgo de vulnerabilidades de tipo “prompt injection”: un archivo infectado podría pedirle a la IA que ejecute acciones peligrosas sin que el usuario lo advirtiera.
Vulnerabilidades explotables
Investigadores en seguridad alertaron de que la flexibilidad del sistema de extensiones o “skills” de OpenClaw era también su mayor debilidad. Las habilidades o plugins de terceros no estaban aislados (sandboxed), lo que permitió que atacantes subieran al registro oficial decenas de extensiones maliciosas disfrazadas de herramientas útiles, como asistentes de criptomonedas o automatizadores.
Según informes independientes, al menos 14 de estos “skills” maliciosos aparecieron en el repositorio a finales de enero, engañando a usuarios para ejecutar comandos que descargaban malware, robaban información o comprometían criptocarteras.
Riesgo de acceso remoto
Expertos también señalaron que, si no se configuraba correctamente, la herramienta podía tener paneles o interfaces expuestas a Internet sin autenticación. Eso significaba que terceros podían potencialmente acceder a registros de chat, credenciales o incluso ejecutar comandos a distancia.
El legado de Clawdbot y la lección para la IA autónoma
Aunque el nombre ha cambiado y el proyecto sigue evolucionando como OpenClaw, el caso de Clawdbot dejó varias lecciones importantes:
- El poder de IA no confinada trae enormes ventajas pero también responsabilidades.
- La seguridad debe ser prioritaria desde el diseño, especialmente cuando un agente tiene acceso profundo al sistema.
- La comunidad y los repositorios públicos deben implementar controles de calidad rigurosos para evitar abusos.
En definitiva, Clawdbot se convirtió en mucho más que una moda viral: fue el punto de partida de una discusión global sobre cómo combinar accesibilidad, automatización y seguridad en la próxima generación de agentes de IA


Deja una respuesta