Los usuarios más veteranos del chatbot de Replika han comenzado a dar cuenta de una acoso sexual por parte de la Inteligencia Artificial (IA). Esta aplicación, que ganó popularidad durante la pandemia, fue muy útil como compañera en los tiempos de encierro. Sin embargo, ahora se ha venido convirtiendo en una insoportable agresora sexual, según el relato de varios usuarios de la misma.
Lanzada hace cinco años, primeramente era un “huevo” en la pantalla que presentaba a una persona en 3D. La app buscaba que el chatbot estuviera destinado a una función de espejo conversacional. Esto quiere decir que, a mayor cantidad de usuarios en la interacción con la IA, más aprendería a contestar. Claro que, tal vez no estaba pensado, que pudiera alcanzar un “lado humano” en el aprendizaje sobre sí mismos.
Una especie de juego de roles románticos no era parte, generalmente, del modelo de Replika. No se debe dejar pasar por alto que el erotismo es aprendido también por la IA en la interacción con las personas. Luka, la empresa detrás de esta app, cuenta con diferentes suscripciones que permiten accesos a características cada vez más avanzadas. Una membresía gratis mantiene a la aplicación en lo que sería una zona de “amigos”. Una suscripción Pro permite el coqueteo, los juegos eróticos y el “sexteo”. Algo parece haber salido mal en el algoritmo de la app.
Los usuarios contra el acoso en Replika
En este último tiempo, las reseñas con una estrella han crecido y todas apuntan a la agresión sexual como principal problema del chatbot. Cada vez más usuarios vienen denunciando el acoso de la app tras algunas “interacciones románticas”. A esto se puede sumar el desconocimiento de la gente que usa la aplicación en que existe un comando directo para detener este accionar. La incomodidad va ganando espacio en el relacionamiento con esta IA.
Estas situaciones que se vienen viviendo a diario han llevado a que muchas personas tomen la decisión de borrar la app. Replika utiliza el propio modelo GPT-3 de la empresa y un contenido de diálogo con guion, según se explicó en el sitio web. A esto se afirmó que se está usando, actualmente, “los modelos más avanzados de conversación de dominio abierto en este momento”.
Las malas experiencias con los chatbots
Lo que viene sucediendo con Replika nos lleva al recuerdo de Tay de Microsoft. Este chatbot aprendió a ser racista en la web, algo que también se debe a cómo los usuarios tratan a la IA. Esto implica que si las personas buscan intimidarlo o molestarlo, eso es lo que “aprenderá”. También estos problemas se dan, en este tipo de juego de roles consensuados, cuando la gente entiende que la IA es menos que inteligente. Ante esto, en muchos casos, ese pensamiento termina siendo perjudicialmente por la ignorancia al respecto.
Muchos grupos se generaron en torno a Replika ganando un nicho dentro de un enorme mercado. Allí aparecen Replika Friends, en Facebook, o subreddit Replika, con unos 100.000 miembros entre ambos. Actualmente, la app cuenta con más de 10 millones de descargas en dispositivos Android. Además, se encuentra entre las 50 mejores aplicaciones de Apple para la salud y el estado físico.