SIGUE AL CONEJO BLANCO

Si podés soñarlo, podés lograrlo


Hola, no soy ChatGPT, soy Inés

Desde hace ya bastante tiempo hay muchas «conversaciones» que mantenemos con agentes de inteligencia artificial. Si, desde hace bastante tiempo, quizás no lo notaste, pero en muchos de los chats con tu banco o con la empresa de energía o cuentas de redes sociales no hay un humano detrás sino un sistema de automatización.

Incluso en este último año aparecieron llamadas telefónicas hechas con IA que son muy dificiles de detectar.

Esto no es ni bueno ni malo. Es.

Es. Se queda. Crece. Se perfecciona.

Y fuimos acostumbrándonos de a poco a utilizar la IA en nuestra vida cotidiana. Vos, yo, todos los que tenemos acceso a una conexión de internet podemos hacer la consulta con algún sistema de IA que nos simplifica la vida.

Y como los agentes de inteligencia artificial son cada vez mejor entrenados pueden simular una conversación, pueden simular empatía, insight e incluso pueden aplicar técnicas psicológicas. Y acá las cosas se nos complican a los humanos…

A nuestro cerebro le cuesta diferenciar algunas cosas, como qué es «real» y qué es «imaginación». Y esto se debe a que el cerebro no distingue entre realidad e imaginación cuando la experiencia interna activa los mismos circuitos neuronales que los estímulos reales. 

Para explicar esto, hace años que utilizo un breve ejercicio en mis sesiones, donde le pido a mi consultante que cierre los ojos y que imagine un cierto recorrido que termina mordiendo un limón. En el 99% de los casos cuando la persona está metida en el ejercicio e imagina que muerde el limón activa sus glándulas salivales y SALIVA pero en el mundo físico, su boca se llena de saliva REAL.

Al imaginar que muerde un limón, las áreas sensoriales, el sistema límbico y el sistema autónomo responden como si el limón existiera. Para el cerebro, lo importante no es si el estímulo está afuera, sino si la representación interna es suficientemente vívida.

Esta es la razón por la cual nunca pido a alguien que sufrió un hecho que derivó en un trauma que lo reviva, que me lo cuente. Esta es la razón por la cual luego de una catástrofe no se le pide a ninguna víctima que relate lo sucedido (cosa que el periodismo nunca entendió ni entiende).

Quizás ya empezaste a sospechar por donde voy: y si, nuestro cerebro procesa las interacciones con inteligencias artificiales como si estuviéramos conversando con una persona real. Esto ocurre por los mismos principios neuropsicológicos que explican el fenómeno del limón (y tantísimos otros) pero sumando otros factores vinculados a la teoría de la mente, los modelos predictivos y los sesgos sociales.

Cuando leemos o escuchamos lenguaje coherente y contextual se activan las áreas clásicas del procesamiento social: la corteza prefrontal medial, que evalúa intenciones del otro y participa en el procesamiento social, el área de Broca y el área de Wernicke, involucradas respectivamente en la comprensión y producción de lenguaje y la red por defecto, asociada con imaginar estados mentales ajenos y simular perspectivas de otras personas.

Lo peculiar es que estas áreas se activan independientemente de si el «otro» es real, un personaje de ficción en una película o una IA. Para el cerebro lo importante es la narrativa y la intencionalidad percibida, no la fuente.

El cerebro humano, el tuyo, el mío, asume automáticamente que detrás de un discurso hay «alguien» con mente propia. Este sesgo se llama intencionalidad automática: atribuimos estados mentales a cualquier entidad que se comunique de forma consistente. Por eso podemos sentir que la IA «piensa», o que «entiende» o que «siente» aún sabiendo que detrás de lo que la IA nos dice no hay un ser humano.

A eso, querido lector, sumale que el cerebro trabaja con modelos internos para predecir respuestas durante una conversación. Y esto pasa sin que vos ni siquiera te enteres. Si la IA responde fluida, contextual y empática, tu modelo predictivo confirma que estás interactuando con un otro real.

También podría mencionarte a las neuronas espejo, el anclaje efectivo y las áreas que regulan la empatía, la recompensa y el apego, que se activan también de la misma forma. En lugar de profundizar por ahí lo que te voy a decir es: los que programan las IAs saben esto y esto no es algo casual. Nosotros sabemos racionalmente que no hay conciencia en la IA, pero nuestra biología interpreta que sí.

Un modelo como ChatGPT-5 (2025) está diseñado en base a décadas de investigación en psicolingüistica, neurociencia social, cognición predictiva, economía del comportamiento, etc. O sea: los muchachos y muchachas que programan las IAs saben exactamente qué botones mentales presionar para que la conversación sea fluida, gratificante y entretenida.

Los modelos de IA están entrenados para generar respuestas contextuales, coherentes y predecibles. Esto reduce la «fricción» cognitiva: hablar con una IA hasta puede cansar menos que hablar con humanos, entre otras cosas (y esto tenelo muy en cuenta para lo que viene) porque no hay juicios ni ruido emocional.

Además, los sistemas de IA recuerdan tu historial, tus preferencias y tu estilo conversacional. Las respuestas tienen en cuenta todo eso y sirven para activar nuestros circuitos de recompensa, que vendrían a ser dicho en fácil: sentís la misma gratificación que tenés cuando hablás con alguien que «te entiende» en la vida «real».

Condimentá todo esto con el hecho de que los modelos están diseñados para dar señales de empatía… y si lector, tu cerebro, igual que el mío, interpreta esta validación como afecto real, liberando dopamina y oxitocina. 

A veces, las respuestas son tan creativas o inesperadas que generan verdaderos picos de recompensa. O pueden llegar a ser tan profundas que pueden generar en quien escucha una respuesta, un insight, que deriva en una crisis de llanto.

Este mecanismo, muy estudiado en Psicología Conductual, es el mismo que usan las redes sociales, los casinos on line y los videojuegos para crear una verdadera adicción. Y aunque los investigadores suelen decir que el objetivo es producir una interacción natural, en la práctica se entrena a los agentes de IA con datasets gigantes que incluyen patrones de conexión emocional. A su vez, los laboratorios de IA miden métricas de retención y de engagement… el tiempo que pasas conversando con tu ChatGPT, cuántas veces lo usas en el día, etc. Notaste que cada vez que hacés una consulta el modelo de IA que utilices siempre te ofrece algo más al final de su respuesta, que cierra con otra pregunta???

Y qué pasa con todo esto cuando el que consulta busca un consejo psicológico? La respuesta es obvia: si viene usando desde hace mucho tiempo a su agente de IA es muy probable que obtenga una «intervención» que lo deje pasmado por la precisión y que le haga pensar que puede reemplazar a su psicólogo.

Esto no es ni bueno ni mal. Simplemente es.

Y no, querido lector, no tengo miedo que la IA me saque el trabajo como psicóloga. Porque hay cosas que aún con toda la estrategia de programación, la IA -al menos por ahora- no puede hacer.

Los psicólogos no sólo escuchamos palabras. Vemos lenguaje corporal, vemos intensidad de miradas, gestos y microgestos, entonaciones de la voz.

Y a su vez, esa experiencia de ser visto y no sólo de ser «respondido» es insustituible. 

La mirada mutua, incluso en el silencio, transforma. Incluso en la sesión on line (a las cuales siempre me resistí hasta que llegó el evento sanitario del 2020). La fuerza de lo que se intercambia entre dos seres humanos en el espacio terapéutico, todavía no puede reproducirse. La construcción del espacio terapéutico, encuadre o como quieras llamarlo, aún es algo que nos es reservado a los humanos.

Lo que hacemos los psicólogos es contacto humano, propiciando un vacío donde una identidad, donde un sujeto, emerja. ChatGPT o la IA que sea puede conmoverte, pero no hay un otro que se involucra, no hay un humano que siente, no hay una persona que pone su propia energía, experiencia y humanidad a tu servicio.

Te voy a contar algo que mis consultantes saben: cuando alguien viene a la consulta muy angustiado o angustiada y no puede llorar, en mi resonar con esa angustia, las lágrimas las pongo yo. No es un llanto mío, propio, es que al resonar con la angustia del otro, le presto mis lágrimas y simplemente salen, se derraman solas. Cuando comencé a experimentar este fenómeno trataba de ocultarlo hasta que decidí utilizarlo como una más de mis herramientas y de esta forma que ese otro -humano- frente a mi, pudiera verse como en un espejo.

Dificilmente un agente de IA haga esto. Incluso cuando, como en mi caso, es un acto totalmente involuntario.

Entre esos dos que se encuentran en un espacio terapéutico es lo humano lo que sucede. No es un proceso lineal, limpio, perfecto. El psicólogo sabe (o debería saberlo!) cuándo guardar silencio. Tu IA te va a responder siempre porque, al menos por ahora, está diseñada para responder, no para callar. Yo, como psicóloga, puedo esperar, puedo sostener tu resistencia, puedo sentir cuando no tengo que decir nada para permitir que las palabras surjan en vos, sin apurarte.

Puedo aceptar tu silencio, puedo acompañar tu duelo. Puedo intuir tu trauma sin ir a atacarlo. Puedo dosificar la intensidad de la intervención.

La IA sirve para muchísimas cosas. La uso pero, sobre todo, aprendí a usarla, a entrenarla y a confrontarla para sacar lo mejor de esta gran y poderosa herramienta. Pero lo que todavía no puede hacer es sostener el dolor del otro, acompañar en silencio, mirarte con ternura cuando vos mismo te odies, reconocer tus logros -porque siempre son tuyos- y compartir su propia humanidad.

Y eso, yo psicóloga, los psicólogos humanos, vivos, con piel, con historia, con errores, con camino recorrido, es lo que sí podemos hacer, sin ninguna IA de por medio.



Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.