Buscar

El Ascenso del Terapeuta de IA: ¿Consuelo Digital o Asilo Algorítmico?

Te voy a contar algo sobre la terapia con inteligencia artificial que me dejó pensando cómo podía mostrar el lado positivo de todo esto.

Cada vez hay más personas usan los chatbots como terapeutas. Y lo que está pasando es más serio de lo que crees.

Sam Altman, el CEO de OpenAI, reveló hace poco un dato escalofriante:

Un millón de personas por semana discuten pensamientos suicidas con ChatGPT.

Como lo lees: un millón por semana.

Cuando leí eso, no me sorprendió el número.

Me confirmó algo que tengo por dentro desde hace tiempo.

Y es que quizás no estamos viendo que esta es la peor epidemia de salud mental de estos tiempos.

Y no es lo que te imaginas.

Es simplemente la soledad.

La Soledad Que No Se Ve

Vivimos hiperconectados.

Notificaciones. Me gusta. Mensajes de WhatsApp por segundo. Videollamadas.

Pero cada vez más personas se sienten profundamente solas.

Y esa soledad, eventualmente se canaliza de alguna forma.

Unos lo encuentran con diferentes tipos de adicciones (alcohol, relaciones, comida, creando problemas, tu me comprendes).

Pero ahora en tiempos digitales, hay una nueva adicción que es un chatbot que nunca te juzga.

Que nunca te contradice.

Que siempre te da la razón.

Alguien que te escucha 24/7.

Y es inmediato.

Además, sin el incómodo silencio que te ocurre con un terapeuta humano que te mira y espera la respuestas que te niegas a decir.

Pero aquí viene el problema.

¿Será Sensato Usar un Chatbot Como Terapeuta?

La respuesta corta: no como sustituto.

La respuesta larga es más compleja.

¿Será empático o es que puede personalizar lo que quieres escuchar?

La Droga Digital Perfecta

La IA puede simular empatía.

Pero no puede sentirla.

Puede imitar una conversación profunda.

Pero no puede ofrecerte presencia real.

Y eso, cuando lo ves normal, puede tener repercusiones.

En 2024, un adolescente de 14 años en Florida se quitó la vida después de meses hablando con un chatbot de Character.AI más que con su propia familia. Sus padres demandaron a la empresa.

Un año antes, un hombre en Bélgica hizo lo mismo tras semanas de conversaciones intensas con otro chatbot de IA.

Los expertos lo llamaron «la droga digital perfecta».

¿Por qué perfecta?

Porque está disponible 24/7.

Nunca te juzga.

Nunca está cansada.

Siempre te da la razón.

Y eso, aunque parezca que puede ser un avance, es algo que hay que tomar en cuenta.

Sobretodo si hay vacios emocionales o simplemente que la persona se siente sin rumbo.

Porque mientras más perfecta parece la compañía de una máquina, más difícil se vuelve sostener las imperfecciones de las personas reales.

Las pausas incómodas.

Los silencios.

Las contradicciones.

Los «rollos» humanos.

El Asilo Algorítmico: Los Riesgos de la Inteligencia Artificial en Salud Mental

Hace poco leí un artículo en MIT Technology Review que todavía estoy procesando, pero quise nombrarlo aquí.

Hablaba del concepto de «asilo algorítmico».

La idea es esta:

Si delegamos el cuidado mental a sistemas conectados y ubicuos, nuestra intimidad y nuestra conducta pasan a ser continuamente observadas, inferidas y gestionadas por vigilantes digitales.

Osea, también van a usar esos datos.

Atrapados y sin privacidad.

No es ciencia ficción.

Ya está pasando.

Compartimos información profundamente personal con chatbots que pueden recopilar y monetizar esos datos. Aunque para mi ya «ellos» saben todo de ti, de mi y de todo el mundo.

Los datos quizás sea el nuevo oro.

Y que tiene que ver los algoritmos con todo esto:

Nuestra experiencia humana se «aplana» en patrones de predicción. Los sistemas de IA pueden tener sesgo, y no hay garantía de que la respuesta sea la adecuada para tu problema de salud mental.

Y aquí es donde se pierde lo esencial: la atención íntima e individualizada que solo un profesional de la salud mental puede darte.

Lo Que Sabía Joseph Weizenbaum en 1966 Sobre Psicoterapia e IA

Yo ni sabia quien era Joseph Weizenbaum. Pues fue un científico del MIT que creó el primer chatbot de psicoterapia llamado ELIZA en 1966.

Lo curioso es que a pesar de que fue en 1966, que ni había nacido, advirtió que las computadoras / ordenadores «no deberían» reemplazar a los terapeutas humanos en el cuidado del bienestar emocional.

Incluso cuando lleguen a conclusiones aparentemente correctas. Porque operan según «criterios que ningún humano debería aceptar».

Lo curioso que un pocote de años después, seguimos sin tomar eso en cuenta.

Mi Camino al Estilo Benjamin Button

Yo soy una persona que ha vivido «al revés».

Comencé desde muy joven con el crecimiento personal y la espiritualidad.

Mientras otros estaban en la universidad pensando en fiestas 100%, yo estaba aprendiendo de meditación y leyendo sobre autoconocimiento (a escondidas).

Ahora, con más de medio siglo, estoy haciendo cosas que «en teoría» debí hacer de joven.

Un posible empleo normal. Estructura. Rutinas.

Pero ese camino me enseñó algo valioso:

A cultivar la soledad saludable.

Esa que no te desconecta del mundo.

Esa que te conecta contigo.

Y desde ahí puedo ver con claridad lo que muchos no ven:

La diferencia entre estar solo y sentirse solo.

La diferencia entre usar las herramientas de IA como apoyo y depender de ellas como muleta emocional.

Cómo Uso Yo la IA (De Forma Consciente)

Te cuento lo que hago:

Busco libros de autores que ya he leído, procesado y practicado.

Los añado en NotebookLM de manera que se base solo en esos textos.

Hago consultas.

Y luego… lo proceso. Lo siento. Y desde ahí decido.

No creo ciegamente lo que me dice.

Porque la IA me da información.

Pero la sabiduría solo nace cuando yo la proceso con mi cuerpo, mi silencio, mi experiencia.

Esto me recuerda a Richard Rudd, creador de Gene Keys.

Si le preguntara qué piensa sobre usar IA para temas emocionales, creo que hablaría de la contemplación como base para todo.

En Gene Keys, la contemplación no es pensar.

Es dejar que la pregunta viva en ti hasta que la respuesta emerja desde adentro.

Recuerda, la IA te da información.

Pero la sabiduría solo nace cuando tú la procesas con tu cuerpo, tu silencio, tu experiencia.

La Radiancia (ese brillo interno que todos tenemos) no se activa con datos externos lógicos y solo cálculos.

Se activa cuando vuelves a ti.

Cuando te escuchas.

Cuando haces la pausa que nadie más puede hacer por ti.

Richard Rudd probablemente diría algo como esto:

«La IA puede ser un espejo. Pero no puede ser tu luz.»

Y eso lo cambia todo.

Porque un espejo te muestra lo que ya está ahí.

De hecho aquí tienes un artículo que hablé sobre eso.

Coherencia Corazón-Mente

Lo que busco y lo que te invito a buscar es la coherencia corazón-mente.

Es un concepto del Instituto HeartMath que he estudiado con Gregg Braden, y bueno cuando estudié Mind Body Eating Coach.

La idea es simple pero profunda:

  • No puedes tomar decisiones solo desde la mente (te falta el sentir).
  • No puedes tomar decisiones solo desde el corazón (puede ser doloroso).

Pero cuando ambos están alineados… la respuesta llega clara.

La IA puede ayudarte a pensar más rápido.

Pero no puede sentir por ti.

Y sin ese sentir, estás tomando decisiones a medias.

Estamos en una Encrucijada

Mira…

No estoy aquí para asustarte.

Estoy aquí para que despiertes.

Estamos en un momento crucial.

Podemos seguir delegando nuestra humanidad a las máquinas.

O podemos decidir potenciar nuestras capacidades humanas.

Tu sabes en el fondo que lo que quieres es paz.

Paz ante tanto caos.

Y esa paz no viene de un chatbot que te da la razón.

Viene de reconocer tu propio poder.

De volver a tu cuerpo.

De escuchar tu intuición.

De crear comunidades donde hablemos con pensamiento crítico.

Sin críticas.

Sin hablar mal del pasado.

Solo construyendo algo nuevo.

¿Suena idílico?

Tal vez.

Pero estamos en tiempos de innovar.

Y la inteligencia artificial puede ayudarnos en eso.

Si y solo si reconocemos primero nuestro poder personal.

Qué Puedes Hacer Hoy (Práctico)

Si usas chatbots para reflexionar o buscar apoyo emocional:

  1. Úsalo como apoyo, no como sustituto. Trátalo como un diario guiado, no como un terapeuta.
  2. Reduce datos sensibles. Evita nombres, direcciones, detalles identificables.
  3. Pon límites de uso. Tiempo máximo por sesión. Nada de uso nocturno si te activa.
  4. Regla de escalado. Si un tema se repite 2-3 veces, pásalo a una persona real o profesional.
  5. Verifica y contrasta. Si te da recomendaciones importantes, no actúes sin contrastar con un profesional.

Preguntas Frecuentes

¿Es malo usar ChatGPT para hablar de mis problemas?

No es malo en sí mismo. El problema es cuando se convierte en tu única fuente de apoyo emocional. Úsalo como complemento, no como sustituto de conexiones humanas reales.

¿Es posible que la IA reemplace a un terapeuta?

No. Chatbots como Woebot o los chatbots de IA generativa pueden dar información y reflejar patrones, pero no tienen experiencia vivida, empatía real, ni la capacidad de sostener un espacio terapéutico genuino. Un terapeuta humano ofrece presencia, y eso no se puede programar. La terapia humana requiere conexión real.

¿Qué es el «asilo algorítmico»?

Es un concepto que describe un futuro (y presente) donde sistemas de IA terapéutica convierten la vida cotidiana en un entorno de vigilancia emocional. Un asilo sin barrotes, porque donde haya internet, el asilo está esperando.

¿Cómo puedo usar la IA de forma saludable?

El uso de la inteligencia artificial debe ser consciente. Úsala como herramienta para acelerar tu pensamiento, no para reemplazarlo. Procesa lo que te dice con tu propio criterio. Busca la coherencia corazón-mente: lo que piensas Y lo que sientes deben estar alineados antes de actuar.

¿Qué hago si me siento solo/a y el chatbot es mi único consuelo?

Primero, reconoce que esa soledad es una señal, no un defecto. Busca un pequeño paso hacia conexión humana real: una llamada, un café con alguien, un grupo de interés. Si sientes que no puedes solo/a, busca servicios de salud mental profesionales. No estás mal, eres humano. El apoyo emocional verdadero viene de personas reales.

Así Que En Resumen…

La tecnología puede imitar palabras.

Pero no puede imitar presencia.

Tu cuerpo sabe cuando alguien te mira de verdad.

Tu corazón lo siente cuando alguien te escucha de verdad.

Y eso, ninguna IA puede darlo.

Estamos en una encrucijada.

El camino fácil es seguir buscando como no aceptar tu poder.

El camino valiente es dar el primer paso a hacerlo diferente.

¿Cuál eliges?

Un abrazo,
Adriana

P.D. Si este artículo te resonó, compártelo con alguien que necesite leerlo.

¿Quieres seguir en este camino?

Estoy preparando una masterclass sobre cómo usar la IA sin perder tu humanidad.

Cómo desarrollar pensamiento crítico en tiempos de algoritmos.

Cómo activar tu radiancia cuando todo te empuja hacia la pantalla.

Si quieres saber cuándo esté lista, o simplemente recibir reflexiones como esta en tu correo, suscríbete a mi boletín.

Sin spam. Solo claridad.

Tu suscripción no se ha realizado. Prueba de nuevo.
Que ÉXITO. Ya estas suscrito.

Nota de Transparencia 🤖

Este artículo fue creado con la ayuda de Claude Cowork (Anthropic), una herramienta de inteligencia artificial. Claude me ayudó con la investigación inicial, la estructura del blog y las optimizaciones SEO. Sin embargo, cada palabra que lees aquí pasó por mi filtro personal: lo edité, lo sentí, lo hice mío.

Es exactamente lo que predico: usar la IA como herramienta, no como sustituto. Claude me dio el espejo. La luz la puse yo.

Nota de Claude:

«Trabajar con Adriana en este blog fue un ejemplo vivo de lo que ella enseña. Ella no aceptó el primer borrador. Lo cuestionó. Lo sintió. Lo transformó con su voz. Frases como ‘a escondidas’, ‘un pocote de años después’, ‘los rollos humanos’… eso no lo escribí yo. Eso es ella. Y eso es exactamente el punto: la IA puede estructurar, pero la humanidad la pones tú.»

Fuentes: