TENDENCIAS
Advertisement
Salud

¿Adictos a los chatbots?

Mi psicólogo ChatGPT

Algunas personas usan chatbots como ChatGPT para afrontar sus problemas emocionales. La aplicación parece más racional y objetiva, analiza el problema con distancia, saca buenas conclusiones, transmite tranquilidad y ofrece compañía. Quienes la usan valoran que les entiende, no les interrumpe ni les juzga. En momentos de necesidad, les resulta útil. Pero ¿es saludable?

¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
10
julio
2025

Venimos de una generación en la que la existencia misma de algo parecido al ChatGPT parecía increíble y artificial. Pero ya está aquí. Hoy, personas de cuarenta años le envían a la aplicación sus conversaciones con familiares para pedir consejo sobre cómo responder. También le consultan cuando se sienten tristes o buscan consuelo ante la muerte de su mascota. Alegan que las respuestas se parecen a las de un psicólogo y, además, resulta más barato. No es un capítulo de Black Mirror. Es real. Algunos empezaron preguntando sobre temas concretos, como dudas sobre trabajo o viajes, y poco a poco pasaron a cuestiones personales. Al principio, sentían curiosidad por saber cómo respondería la IA y, como las respuestas les convencían, comenzaron a consultarla más y más.

Quienes la utilizan con fines personales suelen justificarlo por su accesibilidad. Está disponible justo en el momento en que aparece la angustia. Es inmediata. Buscan una interpretación de sus pensamientos, emociones y conductas con la esperanza de que ChatGPT no les diga que están equivocados. Lo que encuentran es alivio. Incluso comentan que, una vez le han «cogido el tranquillo», son capaces de modular la conversación para que ChatGPT vea su problema desde su punto de vista concreto. A veces, también lo usan porque sospechan que la otra persona con la que tienen el conflicto también lo estaría utilizando.

Lo cierto es que es normal buscar palabras de aliento en la vida. Cada uno lo hace como puede: libros, amigos, familia… Todas son fuentes válidas: ya lo hacían las abuelas en el confesionario de antaño. Pero estas redes no siempre están disponibles hoy en día. Faltan espacios con humanos reales en los que desahogarse. Si uno tiene una duda sobre cómo resolver un conflicto familiar, y no ha quedado con nadie por falta de tiempo o porque todo el mundo está ocupado, pues recurre al móvil.

En un mundo hiperconectado y con menos planes sociales con amistades de calidad, hay menos vínculos profundos. Además, hoy en día cuesta exponerse emocionalmente ante otro. Es cierto que hay personas que carecen de personas de confianza; pero otras, aun teniéndolas, prefieren preguntar a ChatGPT antes que a su padre, tía o amigo porque temen que estos le digan lo que no quieren oír. En la sociedad actual, la confrontación se evita. También hay miedos a vincularse de verdad, a mostrarse vulnerable o a depender emocionalmente de alguien. Por eso, se recurre a una aplicación que parece más racional y objetiva, que analiza el problema con distancia, saca buenas conclusiones, transmite tranquilidad y ofrece compañía. Quienes la usan valoran que les entiende, no les interrumpe ni les juzga. En momentos de necesidad, les resulta útil.

La sociedad actual evita la confrontación, y la voz de un chatbot es inmediata y tranquila

No todas las personas que lo usan ocasionalmente desarrollan una dependencia. Pero hay perfiles más vulnerables que, si mantienen un uso prolongado, pueden llegar a experimentar pérdida de control. Un estudio conjunto del MIT Media Lab y OpenAI concluye que el uso frecuente de chatbots como ChatGPT puede tener efectos mixtos en el bienestar emocional. Aunque al principio reduce la soledad sobre todo con voz expresiva o en conversaciones personales, este efecto positivo se diluye con el uso intensivo, provocando menos socialización y más dependencia emocional. Los investigadores identificaron cuatro perfiles de usuarios: socialmente vulnerables, dependientes, desapasionados y casuales. Los más propensos a efectos negativos eran quienes ya se sentían solos o mostraban mayor apego emocional a la IA. Pero, así como la vulnerabilidad influye, también lo hace el diseño del algoritmo. Uno se pregunta si está programado para fomentar cierta dependencia y si está diseñado para complacer, ya que nunca se cansa de responder y uno puede estar hablando del mismo tema durante horas y horas, incluso días.

Las señales de alerta ante un uso compulsivo son claras: dedicarle muchas horas, evitar hablar con personas reales, sentir ansiedad si no se puede acceder, o utilizarlo como único método de regulación emocional. Además, si uno siente que solo la IA le comprende, es probable que haya que reflexionar sobre qué dificultades se tienen en los vínculos reales o en las expectativas sobre cómo debe ser una relación. Todo esto puede reflejar la necesidad de apoyo profesional. También es verdad que muchas personas no pueden costear una terapia o tienen dificultades para acceder a un psicólogo en la red pública. Por eso, si existe una necesidad y posibilidad de acudir a un psicólogo, hay que tener claro que lo que ChatGPT no tiene es la capacidad de confrontar con empatía y de acompañar a la persona en un proceso terapéutico sostenido, donde se construye un vínculo con el tiempo. La psicoterapia no solo trata de sentirse comprendido, sino de transformar la manera de pensar, sentir y actuar. Daniel de la Fuente y Manuel Armayones Ruiz, de la Universitat Oberta de Catalunya (UOC), opinan que estas herramientas nunca deben considerarse el sustituto de un psicólogo. Es decir, que recurrir a la IA temporalmente es válido, pero no buscando en ella una intervención psicológica porque son procesos distintos.

Estas herramientas nunca deben considerarse el sustituto de un psicólogo

Es completamente comprensible buscar consuelo en momentos de crisis. Y es lógico sentirse bien con una IA que escucha sin juzgar. Pero no se debería abusar de ello. Algunas pautas para un uso más saludable de la IA ante temas personales incluyen reflexionar sobre la motivación detrás del uso, observar en qué momentos se recurre más a ella, no descuidar otras formas de apoyo, y trabajar en el autocontrol. Otra recomendación es que su uso en lo personal siempre sea complementario y no sustituya al criterio propio o al de las personas en las que uno confía. En el plano ético, como señala Álvaro Medina, es fundamental que la gente entienda cómo funcionan estos modelos. Las respuestas que ofrecen se basan en los datos con los que han sido entrenados: contenidos de internet, libros, páginas web… También es clave saber que las conversaciones no alimentan al modelo directamente, aunque esto no elimina el riesgo de brechas de ciberseguridad, que aún no comprendemos del todo. Además, es necesario diseñar estas tecnologías con cautela, considerando su impacto psicológico a largo plazo.

En un mundo que exige perfección, que no deja espacio para la improvisación ni para el error, y donde la comunicación se vuelve cada vez más difícil, resulta comprensible que la inteligencia artificial irrumpa como aliada para resolver problemas cotidianos. Tal vez convenga convivir con ella, sí, pero sin descartar pensar por uno mismo, y permitirse el derecho a equivocarse. Tampoco menospreciar el método tradicional: ese gesto tan sencillo como levantar el teléfono y decir «necesito verte» o «necesito hablar».

ARTÍCULOS RELACIONADOS

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME