Una advertencia alarmante que he observado en diferentes foros de psicología es que algunas personas están utilizando ChatGPT (o cualquier otro modelo de inteligencia artificial) como si fuera un psicólogo al que le piden consejo para salir de su depresión o para dejar al novio. 

Es innegable el avance de las “Inteligencias Artificiales” pero no puede substituir a la relación terapéutica que se establece entre psicólogo y paciente. En este artículo te explico por qué.

5 motivos por los que  Chat GPT no es un psicólogo

Considero imprescindible explicar las diferencias entre hacerle preguntas a una inteligencia artificial y hacer terapia con un psicólogo. 

Antes de escribir este artículo le pregunté a ChatGPT si él, ella (o ello), podría ejercer como psicólogo y esta fue su respuesta: “Como modelo de lenguaje, no tengo la capacidad de ejercer como psicólogo de manera independiente, ya que soy una entidad virtual y no tengo las habilidades necesarias para llevar a cabo diagnósticos ni tratamientos terapéuticos. Además, es importante señalar que ejercer como psicólogo requiere una formación académica y una licencia profesional, lo cual no es posible para una entidad virtual como yo”.

ChatGPT tiene claro que no es un psicólogo, ahora te voy a dar las razones por las que efectivamente (en esto) tiene razón.

1.  ChatGPT es un algoritmo

La rapidez en su respuestas y la similitud con el lenguaje natural ha provocado que muchas personas interpreten que realmente están teniendo una conversación con el Chatbot, de la misma manera que chatean con sus familiares en el grupo de Whatsapp. 

Nada más lejos de la realidad. ChatGPT no es una persona, ni siquiera es una mente computacional que entiende tus problemas. Se trata de un complejo algoritmo que ha sido entrenado con millones de textos y que ha aprendido qué secuencias de palabras debería ofrecer en cada caso. Por ejemplo, el programa calcula que si le escribimos “Voy a escalar una ...” es más probable que encaje la palabra “montaña” que la palabra “pañuelo” . Es un simple cálculo de probabilidad, no es una conversación.

solo es un algoritmo.

Es posible que hablar con ChatGPT dé la impresión de estar hablando con una persona, igual que chateas con tus familiares o amigos, pero no hay nadie detrás,

2.  ChatGPT comete errores y no es consciente de ello

Si has probado, en algún momento, alguno de los modelos de lenguaje disponibles, te habrás dado cuenta de que cometen errores, imprecisiones o que, directamente, inventan respuestas cuando no saben completar la información. 

Dejar la salud emocional en manos de un Chatbot resulta altamente peligroso, nunca podemos saber la fiabilidad de la información que nos está dando. Puede mezclar datos comprobados con otros inventados y el usuario los puede tomar como una certeza.

En este contexto, cobra aún más sentido la frase de Mark Twain: “Tenga cuidado al leer libros de medicina, puede morir por un error de impresión”. 

 

3. ChatGPT carece del factor humano

Uno de los factores que más influye en el éxito de una terapia es la relación de humano a humano que se establece entre psicólogo y paciente. En muchas ocasiones, esta relación es mucho más importante que la técnica específica que se utilice. 

Para que una terapia sea efectiva y ayude a sanar las carencias emocionales arrastradas del pasado, resulta imprescindible que se desarrolle una relación empática entre terapeuta y paciente. Sentir el contacto, la mirada y la comprensión de la otra persona hace que una terapia funcione o no. En una charla con ChatGPT no se da este tipo de interacción, no existe una relación terapéutica.

ChatGPT o cualquier otro modelo de lenguaje puede ser útil para obtener información general sobre psicología, pero las sesiones de terapia implican el factor humano: una relación entre dos personas enfocada a resolver unos problemas particulares.

Como decía Jung: “Conozca todas las teorías, domine todas las técnicas, pero al tocar un alma humana, sea apenas otra alma humana”.

4.  A la IA no le importas

Si le dices al Chatbot que estás deprimida porque ha muerto tu gato o tu perro, te puede responder “lo siento mucho” o “te comprendo, lo debes estar pasando mal”, pero sus palabras no significan que te comprenda o empatice contigo. La IA ha aprendido que eso es lo que se suele decir en esas situaciones, pero no es una persona que sepa o sienta lo que estás pasando y no se va a preocupar por ti. 

De hecho, muchas personas que han probado a hablar con ChatGPT sobre sus problemas emocionales han comentado que sentían sus respuestas frías y distantes, que no se sentían escuchadas realmente. En el fondo, sabían que estaban “hablando” con un algoritmo, no con una persona. 

Cuando cierres la conversación y apagues el ordenador, ChatGPT no va a pensar en ti, ni va a buscar posibles soluciones para ayudarte. Para el programa, la conversación quedará guardada como un archivo de texto, pero le dará igual si vuelves o no a “hablar” con él, si te va bien o no. No siente nada.

5. La terapia es un proceso único para cada persona

Un trabajo terapéutico implica una planificación basada en unos objetivos y un trabajo progresivo en el que la persona va paulatinamente ganando confianza y recupera su autoestima. 

Un buen psicólogo se basa en sus conocimientos teóricos y en su experiencia profesional para adaptar el ritmo y el proceso de trabajo a cada persona. Cada sesión es diferente y personalizada. 

Este proceso tiene una parte teórica, según la orientación de cada profesional, pero también influyen otros componentes como la creatividad, la flexibilidad, el aprendizaje de experiencias previas o la improvisación, para adaptar la técnica a las necesidades de cada persona. 

Un Chatbot no es, ni será capaz de hacer esto, al menos, por el momento.