Se ha comprobado que las personas en crisis por abuso doméstico, agresión sexual, intención de suicidio, entre otras, acuden en primera instancia a Google para buscar apoyo impersonal.
Pero Google no quiere quedarse allí, está aplicando nuevas técnicas de Inteligencia Artificial para dirigir mejor a las personas hacia la información que necesitan.
Para ello está utilizando su último Modelo de Aprendizaje Automático, MUM, en el motor de búsqueda, con el fin de detectar con precisión una gama amplia de búsquedas de crisis personales.
¿Qué detecta MUM en las búsquedas de personas en crisis?
Puede detectar consultas de búsqueda sobre situaciones difíciles lo que antes no era posible.
Puede ayudar a Google a comprender consultas más complejas o más largas en textos. Por ejemplo, frases como “por qué me atacó cuando dije que no lo amo”, es una frase de violencia doméstica, pero sin un sistema de IA avanzado estas consultas no son fáciles de entender.
Hay otras palabras que se han definido como “puntos calientes”.
En estos casos por ejemplo, cuando Google detecta la palabra “suicidio” sola o en medio de una frase, lo asocia con una búsqueda de crisis.
De inmediato responde al usuario con un cuadro de información que le dice: “Hay ayuda disponible», acompañado de un número de teléfono o una página web de una organización benéfica donde la persona puede buscar ayuda real.
MUM además de detectar crisis personales, también puede aplicarse para identificar búsquedas con contenido explícito como pornografía. Son temas catalogados como “resultados impactantes” que pueden indicar algunos resultados sobre temas específicos.