Call of Duty incluye herramientas de inteligencia artificial para moderar discursos de odio

Call of Duty, el popular videojuego se suma a las plataformas que utilizan herramientas de inteligencia artificial. Tal parece que no hay ámbitos en los que la IA no esté presente. En el caso de este videojuego, la inteligencia artificial será utilizada para moderar el chat de voz de los jugadores.

Dicho chat se caracteriza por tener muchos jugadores con comportamiento denominado tóxico, con lenguaje que incluye discriminación, discursos de odio, sexismo y lenguaje de tipo dañino.

La inteligencia artificial se utilizará para observar y detectar chats de voz perjudiciales en las partidas multijugador. La empresa Activision, distribuidora del popular videojuego va a implementar ToxMod, una tecnología desarrollada por Modulate. Esta tecnología utiliza inteligencia artificial y evitará comentarios racistas o discriminatorios en el chat de voz del videojuego.

 

¿De qué forma se utilizará la inteligencia artificial en el videojuego Call of Duty?

 

La tecnología ToxMod puede escuchar las conversaciones de voz y su contexto para detectar si se trata de un discurso de odio, o un lenguaje de acoso, por ejemplo, de grupos supremacistas blancos. Hay que considerar que esta herramienta solamente detecta los casos en los que hay un discurso de tipo tóxico e informa sobre los mismos, sin castigar a los jugadores. Es decir, que informa sobre los jugadores que podrían haber violado las normas del código de conducta del videojuego. Será Activision la que determine luego cuáles son las medidas a tomar para sancionar a dichos jugadores y elegir el tipo de sanción.

De acuerdo a lo informó Activision, esta nueva iniciativa va a reforzar los sistemas de moderación del Call of Duty. Incluye un filtrado basado en textos en 14 idiomas para el texto del chat del juego y un sistema de informes de los jugadores. Hay que destacar que el lenguaje tóxico se detecta no sólo en el contenido de los chats sino también en el nombre de los usuarios.

La herramienta ToxMod se concentrará en detectar palabras claves específicas y violaciones del código de conducta del juego. Otro aspecto a destacar es que los jugadores no podrán desactivar esta herramienta. La única manera de evitarla será desactivar el chat de voz por completo.

La herramienta que incluye inteligencia artificial ya está en funcionamiento en Norteamérica en el juego Call of Duty: Modern Warfare II y Call of Duty: Warzone. Estará disponible para el resto del mundo con el lanzamiento de Call of Duty: Modern Warfare III. En el lanzamiento, la herramienta de moderación analizará los chats de voz en inglés. Al expandirse al resto del mundo se incluirán otros idiomas, aunque no se aclararon todavía cuáles serán.

Desde la empresa Activision aclaran que la herramienta no tendrá en cuenta las charlas basura y las bromas amistosas.

 

Buenos resultados de la herramienta de IA en Norteamérica

 

Según afirmaron los desarrolladores de la herramienta de inteligencia artificial, hubo un 20% de jugadores que no han reincidido en lenguaje tóxico luego de haber recibido una primera advertencia. Aquellos que si reincidieron recibieron sanciones como restricciones en su cuenta para participar del chat de voz y escrito. Se trata de una herramienta con una aplicación de la inteligencia artificial muy interesante. De acuerdo a Activision, utilizar nueva tecnología es clave y esperan trabajar con la comunidad para seguir haciendo que Call Of Duty sea justo y divertido para todos.

No Comments Yet

Leave a Reply

Your email address will not be published.