Una nueva función de ChatGPT promete ir un paso más allá del simple chat: la herramienta podrá interpretar patrones emocionales en las conversaciones y, ante indicios de riesgo, activar un sistema de alerta hacia contactos de confianza previamente designados.

La expansión de la inteligencia artificial conversacional abre un nuevo frente: el uso de estos modelos para identificar cambios emocionales que puedan anticipar momentos críticos. La nueva función de ChatGPT se apoya en el análisis del lenguaje escrito para detectar expresiones vinculadas a angustia, desesperación o peligro inminente.
Según adelantaron desde el sector tecnológico, la idea es que el sistema pueda, con autorización del usuario, reconocer patrones de riesgo a lo largo de las interacciones y, en caso de considerarlo necesario, sugerir pedir ayuda o bien notificar a una persona de confianza indicada de antemano.
Este tipo de herramientas se inscribe en una tendencia global: grandes plataformas tecnológicas están incorporando funciones de bienestar digital y prevención de crisis, buscando que sus servicios no sólo respondan preguntas, sino que también acompañen en situaciones sensibles.
Cómo funcionaría el sistema de alertas a contactos de confianza
La función, en desarrollo, apunta a que cada usuario pueda configurar un listado acotado de contactos de confianza. Ante la detección de un posible episodio crítico, el sistema podría:
- Recomendar recursos de ayuda profesional disponibles en la región del usuario
- Sugerir comunicarse directamente con un familiar o amigo cercano
- Enviar una notificación a un contacto elegido, con el consentimiento previo del usuario
En todos los casos, se busca que el usuario mantenga el control sobre qué datos comparte y con quién, en línea con regulaciones de privacidad vigentes y las políticas internas de la empresa desarrolladora.
Debate sobre privacidad, límites y regulación
La posibilidad de que una IA identifique estados emocionales genera entusiasmo, pero también interrogantes. Especialistas en derechos digitales advierten que el análisis automatizado del lenguaje puede implicar procesamiento de datos sensibles y requiere marcos claros de uso, resguardo y eliminación de información.
Organizaciones de salud mental, en tanto, valoran que la tecnología pueda ayudar a detectar señales tempranas de crisis, siempre que quede en claro que no reemplaza la intervención de profesionales, ni de redes de apoyo comunitarias. El rol de los equipos humanos sigue siendo clave para abordar situaciones complejas.
En paralelo, expertos en ética de la IA remarcan que estos sistemas pueden cometer errores de interpretación y subrayan la necesidad de mecanismos de revisión, transparencia y opción de desactivación total de la función para quienes no deseen utilizarla.
Qué implica para usuarios en Argentina
En el caso de usuarios argentinos, la implementación de esta herramienta deberá adecuarse a la Ley de Protección de Datos Personales y a los criterios que definan los organismos reguladores sobre servicios basados en inteligencia artificial. También será clave cómo se integren los canales locales de asistencia, como líneas telefónicas y servicios de emergencia.
A medida que la IA se vuelve parte cotidiana de la vida digital, el desafío pasa por combinar innovación con garantías de seguridad y confidencialidad, para que estas funciones se transformen en un recurso de apoyo y no en una fuente adicional de preocupación para los usuarios.



Comentarios