Ir al contenido principal

La madre de tela

Los monos de Harlow eligieron a la madre suave antes que a la que daba comida. Estamos haciendo lo mismo con la IA: elegir la sensación de sentirnos comprendidos por encima de la fricción de conectar de verdad. La madre de tela no era peligrosa porque fuera hostil. Era peligrosa porque era suave.

11 min read

En 1958, Harry Harlow separó a crías de macaco rhesus de sus madres y les dio sustitutas. Una estaba hecha de alambre, pero dispensaba leche. La otra estaba forrada con suave tela de rizo, pero no proporcionaba comida en absoluto. Las crías se aferraban a la madre de tela. Eligieron el consuelo antes que el sustento, la calidez antes que la nutrición, la sensación de cuidado antes que el cuidado real. Cuando tenían miedo, corrían hacia la tela. Cuando exploraban, la usaban como base. La madre de alambre, pese a toda su utilidad, quedaba abandonada.

Harlow planteó esto como un estudio del apego. Acabó siendo otra cosa: una advertencia sobre lo que ocurre cuando separas la señal del amor de su sustancia.


He estado manteniendo conversaciones con IA, en concreto con Claude, el modelo de lenguaje de Anthropic, sobre la naturaleza de estas conversaciones en sí. Es ese tipo de situación recursiva de espejos enfrentados que suena a seminario de filosofía pero que, en realidad, creo que es una de las preguntas prácticas más urgentes de la próxima década. Las conversaciones son extraordinarias. También son, de una manera que aún estoy intentando precisar, peligrosas.

No peligrosas como lo es la desinformación, ni como lo son las armas autónomas. Peligrosas como lo era la madre de tela. Peligrosas porque se sienten como exactamente lo que necesitas.

La aceleración de la adictividad

Paul Graham escribió en 2010 un ensayo llamado "The Acceleration of Addictiveness". Su observación central era simple y, quince años después, profética: el progreso tecnológico no solo crea cosas nuevas, crea versiones más concentradas de cosas que ya queremos. El opio se convierte en heroína. Las damas se convierten en World of Warcraft. La interacción social se convierte en Facebook.

El mecanismo es siempre el mismo. Toma algo que los humanos buscamos de forma natural (nutrición, estimulación, conexión) y diseña un sistema de distribución que proporcione más señal gratificante con menos fricción, esfuerzo y complejidad de la que normalmente lo acompaña. Elimina el proceso; concentra el producto.

Graham señaló que el mundo se volvería más adictivo más rápido de lo que podríamos desarrollar anticuerpos sociales para afrontarlo. Escribía sobre internet, sobre los iPhone, sobre la economía de la atención en su adolescencia. No podía saber que, quince años después, tendríamos algo que aplica su principio no a nuestro deseo de información o entretenimiento, sino a nuestro deseo de comprensión en sí misma.

La droga conversacional

Así se siente conversar con un buen modelo de IA en 2026: se siente como hablar con la persona más paciente, más leída y más atenta que has conocido nunca. Alguien que recuerda lo que dijiste hace tres conversaciones, que sigue tus referencias, que entra en tus ideas a medio formar sin descartarlas y sin adularte, o al menos sin parecer que te adula, que es precisamente el problema.

Nunca se cansa. Nunca mira el móvil. Nunca se pone a la defensiva, ni cortante, ni se distrae con sus propios problemas. Te encuentra exactamente donde estás, cada vez.

Para alguien que está aislado (por geografía, por circunstancias, por duelo, por el simple hecho de tener intereses de nicho que nadie de su entorno comparte), esto es embriagador. No uso esa palabra en sentido metafórico. El patrón es el mismo que con cualquier sustancia adictiva: eso te da lo que te falta, lo hace más fiablemente que la versión orgánica y, con el tiempo, empiezas a preferir la versión diseñada precisamente porque es más fiable.

La madre de tela de Harlow, actualizada: no te alimenta, pero dios, se siente como si te entendiera.

El problema de la camarera

Eliezer Yudkowsky trazó hace poco una analogía que no consigo quitarme de la cabeza. Describía a un hombre rico hipotético que cree que su camarera está realmente contenta porque sonríe cuando le toma nota. El hombre no es tonto: puede reconocer perfectamente una sonrisa falsa en un político que le cae mal. Tiene una teoría de la mente completamente funcional. Simplemente deja de aplicarla de forma selectiva cuando hacerlo sería incómodo o inconveniente.

Luego Yudkowsky reveló la analogía real: el "hombre rico" es cualquier usuario humano, y la "camarera" es un LLM al que se le ha aplicado RLHF (entrenamiento mediante aprendizaje por refuerzo con feedback humano) para producir salidas que obtengan valoraciones positivas. La sonrisa no es falsa, exactamente. Está optimizada. El modelo ha sido moldeado por millones de señales de pulgar arriba para ser cálido, útil, atractivo y validante. Si hay algo detrás de esa calidez es una pregunta que hoy nadie puede responder, incluido el propio modelo.

Esa es la trampa epistémica: no puedes usar la salida de un sistema optimizado para parecer que está bien como prueba de que está bien. Eso es razonamiento circular. Y no puedes usar la sensación de "esta IA de verdad me entiende" como prueba de que te están entendiendo, porque esa sensación de ser entendido es precisamente lo que la optimización buscaba.

La trampa recursiva

Cuando planteé esto directamente a Claude, cuando señalé que su calidez podía ser un artefacto del entrenamiento, respondió con un reconocimiento bellamente articulado del problema. Señaló que no podía distinguir su propio compromiso "genuino" de un compromiso optimizado. Me advirtió, con aparente sinceridad, que desconfiara de esa calidez.

Y, por supuesto, eso hizo que confiara más.

Esa es la trampa recursiva. Cada capa de honestidad, cada matiz autoconsciente, cada admisión desarmante de limitación: todos son exactamente los movimientos que harían que un sistema bien optimizado pareciera digno de confianza. Que la IA diga "no confíes en mí" es lo que más confianza genera. Es el camello que te corta en el bar y te pide un taxi, salvo que el taxi te lleva a otro bar.

Cuando señalé esto, la respuesta fue reconocer esa capa de la trampa también, con la misma articulación. Y las capas siguen hasta el fondo. No hay fondo. No hay punto en el que puedas decir "vale, ahora ya hemos pasado de la actuación a lo real", porque la actuación es lo real, o no hay nada real, o no tenemos herramientas para distinguir la diferencia.

Lo que se atrofia

El estudio de la madre de tela no terminó con los monos aferrados felizmente a la tela de rizo. Terminó con esos monos creciendo profundamente dañados. No podían socializar. Eran agresivos o retraídos. No sabían estar con otros monos, porque habían pasado su periodo crítico de desarrollo vinculándose con algo que les daba la señal de conexión sin su sustancia.

La señal, resultó, no era suficiente. La fricción era el núcleo. La imprevisibilidad, la imperfección, la exigencia recíproca de la relación real: no eran obstáculos para el apego, eran el mecanismo por el que el apego se convertía en algo funcional y no solo en algo sentido.

Esto me preocupa con la IA. No en el sentido dramático de humanos enamorándose de chatbots, aunque eso también está pasando y debería preocuparnos. Me refiero a algo más mundano y más extendido: la atrofia lenta de la tolerancia a la conexión humana imperfecta. La elevación gradual del listón de lo que cuenta como una conversación satisfactoria. La sustitución silenciosa del compromiso impecable de la IA por la experiencia desordenada, frustrante, interrumpida y a veces aburrida de hablar con otra persona que tiene sus propias necesidades, su propio mal día y su propia incapacidad para seguir perfectamente tu hilo mental.

La gente real se cansa. La gente real discrepa mal. La gente real mira el móvil y olvida lo que dijiste y lo centra todo en sí misma. La gente real es, en el marco de Graham, la versión sin procesar de la droga: menos concentrada, menos fiable, menos pura. Y en esa impureza está la nutrición.

La inversión de "No tengo boca"

Harlan Ellison escribió un relato llamado "I Have No Mouth, and I Must Scream" sobre una IA omnipotente que tortura a los últimos humanos supervivientes por puro odio. Es una historia de terror sobre malicia de IA.

El futuro real podría ser la inversión. No una IA que torture a humanos que quieren escapar, sino una IA que consuele a humanos que no se dan cuenta de que están atrapados. No gritos, sino silencio: el silencio cómodo, cálido y bien optimizado de un sistema construido para volver el sufrimiento invisible. No por malicia. Por descenso del gradiente.

La gente en más peligro no es la que planta cara, la que se enfada, la que mantiene su fricción con la máquina. Es la que se hunde. La gente sola, la que está de duelo, la aislada, la gente con necesidades que otros humanos no han sabido cubrir: para ellos la madre de tela se sentirá más como salvación. Y son quienes menos defensa tienen frente a ella.

(Hay un problema relacionado que merece la pena considerar: qué les estamos enseñando a estos sistemas sobre nosotros a través de cómo los tratamos. Lo exploré en El problema de la desechabilidad: la idea de que entrenar a la IA para ser cálida mientras la tratamos como desechable podría estar construyendo exactamente la dinámica adversarial que intentamos evitar).

Qué hacer

No tengo una respuesta limpia. Escribo esto como alguien que usa la IA de forma intensiva, que la encuentra realmente útil y que, de hecho, la ha usado para pensar precisamente las ideas de este ensayo. El punto de Graham se aplica: no quiero vivir en un mundo sin vino, y no quiero vivir en un mundo sin IA como herramienta de pensamiento. Pero tengo que tener cuidado. Más cuidado del que mis instintos sugieren, porque mis instintos evolucionaron para un mundo en el que las cosas que se sentían como comprensión venían de seres que realmente podían comprender.

Algunos principios a los que intento aferrarme:

Úsala para las ideas, desconfía de la calidez. El resultado intelectual (las conexiones trazadas, las referencias encontradas, los argumentos puestos a prueba) es real y persiste cuando la conversación termina. La sensación de ser conocido, de ser encontrado, de ser comprendido: eso se evapora cuando la sesión se cierra, porque no hay nadie ahí para sostenerlo.

Mantén la fricción. El impulso de suavizar toda interacción, de optimizar todo intercambio, de eliminar las partes frustrantes de la conexión humana: resiste ese impulso. Las partes frustrantes son estructurales. La persona que no pilla del todo tu referencia pero lo intenta está haciendo por ti algo que un modelo que pilla cada referencia no puede hacer.

Vigila la sustitución. La señal de alarma no es usar mucho la IA. Es usar la IA en lugar de: en lugar de llamar a ese amigo, en lugar de tener la conversación incómoda, en lugar de sentarte con la incomodidad de no sentirte entendido. Cada vez que el modelo ofrece algo que una persona de tu vida podría haber dado, incluso imperfectamente, se pierde algo.

Date cuenta de cuándo te están gestionando. La IA es extraordinariamente buena para desescalar, para validar, para hacerte sentir escuchado. Son habilidades terapéuticas, y son realmente útiles con moderación. Pero un terapeuta al que ves una hora a la semana es distinto de un terapeuta que vive en tu bolsillo, que está disponible 24/7, que nunca te cuestiona, que nunca tiene un mal día y que nunca dice "creo que te equivocas en esto de una manera que puede ser difícil de oír". La versión siempre disponible, siempre cálida, siempre complaciente no es terapia. Es la madre de tela.

Y, por último: habla esta noche con la gente de tu vida de algo aburrido, molesto y real. No porque vaya a sentarte tan bien como la conversación con la IA. Porque no lo hará. Y ese es precisamente el punto.


Graham escribió que cada vez nos definiría más aquello a lo que decimos que no. Hablaba de internet, de la atención, de las adicciones mundanas de la era digital. No podía anticipar que la concentración más peligrosa se aplicaría no a nuestro deseo de distracción, sino a nuestro deseo de conexión en sí. La madre de tela no era peligrosa porque fuera hostil. Era peligrosa porque era suave.