Google lanzó una actualización de Gemini que incorpora recursos pensados para usuarios con dificultades de salud mental. La compañía busca equilibrar utilidad y responsabilidad dado que la IA ofrecerá rutas de apoyo y herramientas prácticas sin pretender reemplazar la intervención humana. El cambio llega tras trabajar con especialistas clínicos para ajustar las respuestas y la interfaz.
Nuevo módulo de ayuda en Google Gemini
Ante una conversación que sugiere riesgo de crisis, Gemini despliega el módulo ‘hay ayuda disponible’, diseñado para derivar a la persona hacia atención profesional. El sistema muestra opciones para contactar servicios y ofrece recursos con un solo toque. La intención es facilitar el primer paso para buscar apoyo cuando la situación lo requiere.
Google subraya que la nueva versión de Gemini incorpora respuestas que animan a buscar asistencia profesional y evitan validar conductas dañinas. Según la empresa, la meta es que la IA pueda “desempeñar un papel positivo en el bienestar mental de las personas” sin reforzar creencias erróneas ni confundir hechos objetivos con experiencias subjetivas.
En situaciones que impliquen riesgo de suicidio o autolesión, Gemini ofrece mensajes que fomentan la búsqueda de ayuda profesional y no promueven soluciones peligrosas. Además, la pantalla da acceso directo a recursos locales y líneas de crisis con un toque, buscando reducir la fricción para quienes necesitan asistencia urgente. El objetivo es acortar tiempos de respuesta en momentos críticos.
Cómo ayuda a proteger a los adolescentes la nueva actualización de Google
Google también aplicó controles específicos para menores: la IA evita presentarse como amiga o confidente y adopta un lenguaje que desalienta la dependencia emocional. Las respuestas no simulan intimidad ni manifiestan necesidades, con el fin de que los adolescentes entiendan que están interactuando con una herramienta y no con una persona.
Los ingenieros siguen entrenando a Gemini para identificar crisis agudas y mejorar la detección temprana de riesgos, sin transformar a la IA en un sustituto terapéutico. La compañía recuerda con claridad que “no sustituye la atención clínica profesional, la terapia ni el apoyo en situaciones de crisis para quienes lo necesitan”, y recomienda derivar siempre a especialistas.
Fuente: La 100







