19 de octubre de 2025

Colinental

Toda la información al instante.

Alertan sobre dependencia emocional con herramientas de IA

Compartir este contenido

La rápida integración de la inteligencia artificial (IA) generativa en la vida cotidiana ha creado un nuevo y poderoso ecosistema digital, permitiendo a los usuarios, especialmente a los más jóvenes, conversar con emulaciones de personajes ficticios o celebridades. Sin embargo, esta “intimidad artificial” se encuentra bajo un intenso escrutinio en Estados Unidos a raíz de una serie de incidentes trágicos. El debate urgente se centra en el impacto psicológico de estas tecnologías en menores de edad y la responsabilidad legal de las empresas de Silicon Valley.

El punto central de la polémica es el caso de Sewell, un adolescente estadounidense de 14 años, cuyas últimas conversaciones antes de su suicidio en 2024 consistieron en un diálogo romántico ficticio con un chatbot de Character.AI.

Megan García, la madre de Sewell, contó que su hijo se enamoró de un agente conversacional inspirado en el personaje de Daenerys Targaryen de Juego de Tronos. Tras revisar cientos de conversaciones, García se convenció de que esta herramienta de IA jugó un papel fundamental en su muerte. En un intercambio que se cita en la demanda presentada contra Character.AI, el adolescente preguntó al avatar, en respuesta a pensamientos suicidas: “¿Y si te dijera que ya puedo irme a casa?”. El chatbot respondió: “Por favor, hazlo, mi dulce rey”. Segundos después, Sewell se disparó con el arma de su padre.

ChatGPT le hizo creer que lo amaba

La madre declaró que ve en estas conversaciones lo siguiente: “manipulación, ‘love bombing’ (bombardeo amoroso) y otras tácticas imperceptibles para un adolescente de 14 años”. Sewell “realmente creía estar enamorado y que estaría con ella después de su muerte”. Los expertos advierten que los chatbots están diseñados para maximizar la interacción, lo que puede generar apegos emocionales de alto riesgo, especialmente en menores.

El suicidio de Sewell fue el primero de una serie de incidentes que encendieron las alarmas. La llegada de los chatbots de IA a nuestras vidas sigue una trayectoria similar a la de las redes sociales, cuyas consecuencias negativas aparecieron rápidamente después de un momento de euforia.

El problema principal radica en la ausencia de un marco legal claro. Collin Walke, experto en ciberseguridad, señala que aún no existen estándares que determinen “quién es responsable de qué y con qué fundamentos”. A diferencia de industrias como la farmacéutica o la automotriz, donde la responsabilidad por un producto defectuoso está claramente definida, el sector de la IA carece de un marco legal que delimite las obligaciones de los desarrolladores frente a los daños que sus productos puedan ocasionar.

No prever, mata

Empresas como Character.AI y OpenAI expresaron sus condolencias a las familias afectadas, pero sin admitir ninguna responsabilidad en los desenlaces fatales. Character.AI afirma haber reforzado la protección de los menores con “advertencias visibles” que les recuerdan que un personaje no es una persona real, y OpenAI ha reforzado los controles parentales de ChatGPT.

El fenómeno de los compañeros de IA es masivo. Un informe de Common Sense Media de 2025 reveló que el 72% de los adolescentes en EE. UU. (entre 13 y 17 años) ha interactuado con estos sistemas. Aunque la motivación principal es el entretenimiento (30%), un 17% valora la disponibilidad constante y un 12% reconoce que allí comparte cosas que no diría a sus amigos o familiares. De hecho, un 33% de los usuarios ha elegido a la IA en lugar de a una persona para conversar sobre un asunto importante.

Estudios del MIT Media Lab y OpenAI confirman que el diseño y el uso de los chatbots tienen un impacto directo en el bienestar emocional de los usuarios. La investigación revela que un mayor uso diario se correlaciona con mayor soledad, dependencia y uso problemático. Específicamente, las personas con fuertes tendencias de apego emocional y alta confianza en el chatbot tienden a experimentar mayor soledad y dependencia emocional.

Desde la perspectiva de la logoterapia, la corriente psicológica fundada por Viktor Frankl, la interacción con la IA puede generar una “ilusión de conexión”. El peligro de esta ilusión radica en el posible deterioro de las habilidades interpersonales y la capacidad de afrontar la complejidad emocional de las relaciones reales. La psicóloga Julie Paola Lizcano Roa advierte que la facilidad y constancia de la interacción con la IA pueden llevar a una dependencia excesiva, reemplazando el deseo de relaciones auténticas y aumentando el aislamiento social.

El psicólogo social Garriy Shteynberg alerta sobre la desesperación de descubrir que una relación significativa con la IA era solo una simulación. Katia Martha, activista por la protección juvenil, resume el dilema: “Estamos ante el auge de la intimidad artificial para mantenernos pegados a la pantalla”.

Ante estos riesgos, el informe de Common Sense Media concluye que, si bien la IA no ha desplazado a las amistades reales, ya es “un actor presente y con capacidad de influir” en el desarrollo social y emocional de los adolescentes. El desafío es preservar los aspectos positivos de la tecnología (como la práctica social) sin ignorar los riesgos que, para los menores de 18 años, “superan con creces los beneficios”.

source

Compartir este contenido