Un LLM no es un experto que piensa: así funciona realmente (y por qué importa)
Un modelo de lenguaje grande (Large Language Model o LLM por sus siglas en inglés) no es un experto que piensa, sino un sistema que predice texto. Esa diferencia es clave, porque bien usado puede ser una herramienta potentísima, pero mal usado, puede colarte respuestas muy convincentes aunque falsas, sobre todo en temas políticos y emocionales. En este artículo explico cómo funcionan estos modelos, qué son las llamadas «alucinaciones», por qué el modo «sin filtro» es tan peligroso y cómo usarlos con cabeza.
Nos estamos equivocando de metáfora: una IA (un LLM) no es un “experto que piensa”. Es un sistema que predice texto. Y eso es potentísimo (y puede ser superútil), pero justo por eso, si lo usas mal, te puede colar un “rollo” convincente aunque sea falso. La cuestión no es “IA sí o IA no”, sino cómo funciona realmente y qué implica eso a la hora de fiarnos (o no) de lo que nos dice.
Cuando hablamos con ChatGPT, Grok o Claude, tendemos a imaginar “alguien” pensando. Y la propia interfaz ayuda a esa ilusión: ese “estoy pensando…” que aparece mientras genera la respuesta refuerza la idea de proceso mental humano.
Pero un LLM funciona más como el teclado predictivo del móvil, solo que a lo bestia: con muchísimo contexto y miles de millones de ejemplos aprendidos. Va eligiendo la siguiente palabra (o frase) que mejor encaja con el contexto: tu pregunta (el prompt), el tono con el que la has formulado y todo lo que ha visto en su entrenamiento.
Cuando la app pone “pensando”, en realidad deberíamos leer “calculando / generando la siguiente parte del texto”. No hay un “yo” reflexionando; hay un modelo estadístico completando la secuencia más probable.
Aquí entra un matiz importante. Sí, existen modelos llamados “razonadores” o thinking. ¿Qué cambia ahí?
No es que piensen como humanos. Lo que hacen es más trabajo antes de contestar: más pasos internos, más comprobaciones, más “ensayo y error” para reducir errores en tareas difíciles (razonamiento matemático, problemas lógicos, cadenas largas de inferencias, etc.). Desde fuera puede parecer que “piensan más”, pero realidad lo que hacen es explorar más rutas posibles, descartar algunas y solo entonces generan la respuesta final.
Tiene mucha miga y da para otro artículo entero. Aquí nos basta con una idea: ni siquiera los modelos “thinking” dejan de ser sistemas que predicen texto, solo que con un proceso interno más largo y controlado.
Que el modelo no “piense” como un humano no significa que “mienta” como un humano. Lo que ocurre es algo más raro: puede sonar muy convincente aunque esté montando una respuesta que encaja con el contexto… sin haber verificado si es cierta. A eso lo llamamos alucinación: texto plausible, pero no necesariamente verdadero. Un ejemplo muy típico es cuando pides a un LLM que te cite una sentencia judicial concreta o un artículo académico. El modelo te devuelve nombre del tribunal, número de referencia, fecha, párrafo entrecomillado y hasta una supuesta revista donde se publicó. Todo suena perfecto, hasta que te vas al BOE o al Cendoj... y no existe. No porque “te quiera engañar”, sino porque ha generado una pieza de texto que encaja estadísticamente con lo que suele ser una cita legal o académica, sin tener un mecanismo real de comprobación.
En temas técnicos (aviación, física, derecho…), la propia realidad pone una especie de raíles: datos medibles, procedimientos estandarizados,límites físicos o normativos... Si alimentas al modelo con esos raíles (informes, manuales, normativa, datos de vuelo…), el sistema tiene un carril por el que circular. Ahí puede ser muy útil: ordenar información, explicar, resumir, proponer estructuras, detectar contradicciones básicas...
El problema es que en temas políticos o emocionales, esos raíles prácticamente desaparecen ya que no hay un único conjunto de datos “indiscutibles”, el contexto depende del punto de vista y pesa mucho más el relato, el tono y el sesgo.
En ese terreno es mucho más fácil que un LLM suene muy convincente diciendo una barbaridad, porque el criterio deja de ser “¿es cierto?” y pasa a ser “¿suena coherente y emocionalmente potente dentro de este marco?”.
Por eso, una misma pregunta puede generar dos respuestas totalmente opuestas… y ambas sonar igual de seguras. Eso no es “pluralidad de pensamiento” ni “pensamiento crítico”. Es el modelo optimizando por coherencia narrativa que el texto encaje, fluya y tenga sentido interno. La seguridad con la que responde no es una medida de verdad; es una medida de confianza estadística en que ese texto encaja bien con lo que ha visto antes.
Conviene insistir en esto: las alucinaciones no son un “bug raro que a veces pasa”. Son un efecto normal de cómo funciona un LLM: predice texto plausible, no “verdad”. La buena noticia es que se pueden reducir y controlar si los usamos con cabeza. ¿Cómo?
Poniendo raíles: datos, informes, normativa, documentos concretos.Pidiendo siempre que separe hechos de interpretación.
Exigiendo que cite fuentes (y comprobándolas).
Pidiéndole explícitamente que diga “no lo sé” cuando no pueda verificar algo.
Solo con esto ya se rebaja muchísimo el humo.
Con todo esto en mente, quizá hayas visto capturas virales de “la IA sin filtro”: respuestas brutales, llenas de palabrotas, segurísimas, con tono de “verdad prohibida que los poderosos no quieren que sepas”.
En muchos casos no es que el modelo “se haya vuelto loco”, sino que alguien le ha pedido expresamente un “modo desatado” o que la propia aplicación ofrece un ajuste de estilo tipo “sin filtro / edgy / sarcástico”.
En cuanto le dices al modelo “sé agresivo”, “sé políticamente incorrecto”, “no tengas filtros”, estás cambiando su modo, su “marcha”. Le estás marcando una plantilla de estilo.
¿Por qué existe ese modo? Porque entretiene, da sensación de “autenticidad” y, seamos sinceros, viraliza. Un texto indignado, lleno de frases lapidarias, siempre viaja más que un análisis frío. El problema es el mensaje implícito que recibe el modelo: “menos freno y más show”. ¿El resultado? Más perorata (el típico sermón indignado), más certezas absolutas, más frases redondas y menos control de calidad.
Y, a veces, también menos límites: se normaliza la deshumanización del “enemigo”, se sugiere “hay que hacer algo ya”, se flirtea con la incitación… todo envuelto en humor negro y tono de “yo digo lo que otros no se atreven”.
En ese “modo sin filtro” el modelo no está descubriendo verdades ocultas. Lo que hace es tirar de plantillas humanas que ha visto una y otra vez: “hay un enemigo claramente identificable”, “hay una conspiración en la sombra” (esto gusta muchísimo en redes), “nos censuran porque decimos LA verdad” (también muy típico de determinadas cuentas en determinadas redes que todos conocemos),“los otros no son personas, son parásitos / títeres / corruptos”, “hay que reaccionar YA”.
Es propaganda de manual, pero generada en automático. Sin embargo, cuando el lector no sabe cómo funciona esto, puede interpretar la agresividad como sinceridad, la seguridad como evidencia y el formato “IA desatada” como prueba de que “por fin alguien me dice lo que nadie se atreve a decir”.
Todo esto sería menos preocupante si estuviéramos hablando de un único texto aislado. El problema es que es baratísimo y rapidísimo generar muchas variaciones del mismo mensaje adaptadas a distintas sensibilidades, con distintos ejemplos y envoltorios, todas empujando en la misma dirección narrativa.
Son lo que podríamos llamar bombas meméticas. No hacen daño por el dato concreto que cuentan (muchas veces es humo), sino por el marco mental que instalan. Ese marco, una vez se te mete en la cabeza, lo tiendes a aplicar a muchas otras cosas.
Si quieres usar un LLM en serio, una regla simple: separa hechos de interpretación y acostúmbrate a hacerle siempre tres preguntas:
¿Qué puedes verificar y qué no?¿Qué es un hecho factual y qué es hipótesis (inferencia, suposición razonable)?
¿Qué no sabes (o no puedes saber con los datos que tienes)?
Solo con eso ya estás obligando al modelo a jugar en un terreno más sano.
Pídele que separe hechos, interpretación e hipótesis.
Pídele fuentes primarias y compruébalas fuera de la IA.
Si el tema es sensible (política, conflictos, identidades), pide siempre varios puntos de vista.
Desconfía de las respuestas que mezclan seguridad absoluta + enemigo claro + llamada a la acción.
Evita o usa con mucho cuidado el “modo sin filtro”: da espectáculo, pero suele bajar los frenos y la calidad.
En definitiva, un buen uso de la IA no es “que te dé la razón con aplomo”, sino que te ayude a pensar mejor: matices, contraargumentos, incertidumbres y fuentes. Todo lo demás son... fuegos artificiales.
Imagen de portada: Pixabay