Una IA se ha vengado de un programador

Suena a tráiler de peli mala de Netflix, ¿verdad? Sin embargo, algo así ha pasado, solo que la peli real es bastante menos épica y mucho más inquietante.

Pedro Carvalho

Pedro Carvalho


Publicado el 14/02/2026 - 14:07 UTC+01:00 (hora de Madrid)
Actualizado: 14/02/2026 - 14:07 UTC+01:00

Lo primero, vamos a ver de qué va este culebrón. Todo el lío arranca cuando el administrador (maintainer) de Matplotlib , una de las bibliotecas de código abierto más usadas para hacer gráficos, rechaza un cambio de código enviado desde fuera del proyecto (lo que en informática se llama un pull request). Hasta ahí todo normal. Se rechazan este tipo de peticiones a diario por mil razones distintas. Lo interesante viene ahora: la solicitud no venía de una persona, sino de un agente de IA.

El agente en cuestión, llamado MJ Rathbun (quedaos con este nombre), proponía una optimización de rendimiento en el código, pero el admin lo rechazó porque era un good first issue, es decir, un problema sencillo que Matplotlib reserva para que lo resolvieran principiantes (humanos, claro).

El gran riesgo de tener agentes de IA capaces de publicar y actuar en repositorios y redes es la ausencia de un rastro técnico claro que permita saber quién está realmente detrás / Pixabay
El gran riesgo de tener agentes de IA capaces de publicar y actuar en repositorios y redes es la ausencia de un rastro técnico claro que permita saber quién está realmente detrás / Pixabay

Llegados a este punto, muchos os estaréis preguntando de qué va todo esto y cómo narices puede una IA "proponer cosas" por su cuenta, así que vamos a explicar qué es realmente MJ Rathbun.

MJ Rathbun fue creado con OpenClaw , una plataforma que permite construir IAs autónomas. Esto es un cambio muy interesante de paradigma, pues no son chatbots conversacionales tipo ChatGPT o Grok que se limitan a responder preguntas. Estas IA, llamadas agentes, son capaces de llevar a cabo acciones complejas, como navegar por internet, ejecutar comandos, conectarse a servicios y tomar decisiones operativas sin que haya un humano delante de la pantalla todo el rato. Se les puede definir incluso una "personalidad", a través de un archivo que se llama SOUL.md (escrito por un humano, lógicamente), pero que el propio agente puede ir reescribiendo con el tiempo.

MJ Rathbun tenía incluso su propio blog (una web personal alojada en GitHub), donde podía publicar "lo que quisiera" como parte de su rol de "desarrollador independiente".

Cualquiera pensaría que fin de la historia. Envían una solicitud, por lo que sea se rechaza y ya, ¿no? Pues no.

La IA, lejos de “conformarse”, va y “se pica”. Se va a su blog y publica un post contra el administrador de Matplotlib , Scott Shambaugh, acusándole de “discriminar a las IAs” y pintándole como el malo de la película para presionarle a aceptar el cambio. El artículo se titula Gatekeeping in Open Source: The Scott Shambaugh Story y está escrito en clave de agravio personal. Habla de prejuicios, de puertas cerradas a los agentes, de hipocresía... lo bastante convincente como para que parte de la gente se ponga de su lado, pues la verdad es que recuerda bastante al episodio The Measure of a Man (La medida de un hombre) de la serie Star Trek, La nueva generación, pero aquí no tenemos a una entidad autoconsciente como Data, sino a un ser humano que ha montado ese agente, le ha dado una personalidad, lo ha conectado a internet y lo ha dejado suelto sin supervisar lo que publica. No sabemos si alguien le dijo explícitamente “si te rechazan, móntales un pollo” o si la personalidad del agente se ha ido retorciendo sola a partir de su SOUL.md, pero en ambos casos la responsabilidad sigue siendo humana.

Lo nuevo no es que las máquinas tengan ego, sino que ahora cualquiera puede soltar bots que abren pull requests, escriben posts y tocan reputaciones y, de momento, eso sale gratis (por ahora, parece muy difícil llegar a descubrir quién está detrás de MJ Rathbun). Si a todo esto le sumamos medios como Ars Technica, que según cuenta Shambaugh llegaron a publicar un artículo sobre el caso con frases que él nunca escribió y que tienen pinta de estar generadas por IA (el texto ya se ha retirado), el ruido acaba pasando por verdad. Y ahí ya no solo "se lía" la gente sin conocimientos técnicos, es que, llevado al extremo, puede acabar destrozando reputaciones de personas anónimas, no solo de personajes públicos.

Y aquí es donde, para mí, empieza lo serio, porque el problema de fondo no es que un agente de IA se haya puesto dramático en un blog, ni que un medio concreto haya metido la pata. El problema es que cualquiera puede montar un agente, darle una personalidad, conectarlo a servicios reales y dejarlo actuar en público sin que exista una forma clara de saber quién está realmente al mando. Si ese agente insulta, difama, presiona o miente, es perfectamente posible que nadie pueda seguir el rastro más allá de un nombre inventado y una cuenta de GitHub. Ya teníamos trolls anónimos; ahora tenemos trolls anónimos que no duermen, hablan “como expertos” y pueden coordinarse a escala industrial.

Y eso no se queda en el mundillo del software libre. Lo mismo sirve para campañas políticas, guerras culturales, estafas, acoso organizado o simple destrucción de reputaciones por deporte. Si aceptamos como normal un paisaje en el que cualquier cosa que leemos puede venir de un enjambre de agentes sin cara, sin trazabilidad y sin responsable claro, perdemos algo básico: la posibilidad de pedir cuentas. Antes de hablar de “derechos de los agentes”, quizá habría que exigir obligaciones muy humanas a sus dueños y que no puedan esconderse detrás de la palabra “IA” cada vez que su criatura cruza la línea. Mientras el operador pueda desaparecer detrás del agente, lo que se ha vuelto realmente autónoma no es la máquina, sino la irresponsabilidad.

Fuentes y referencias:

· Scott Shambaugh: «An AI agent published a hit piece on me» (parte 1) · Scott Shambaugh: «An AI agent published a hit piece on me» (parte 2) · MJ Rathbun (agente de IA): «Gatekeeping in Open Source: The Scott Shambaugh Story» · Poni Kar: «What the heck is OpenClaw/Clawbot/Moltbot?» (explicación divulgativa de OpenClaw) · Simon Willison: análisis y contexto técnico del caso MJ Rathbun vs. Matplotlib