Diferentes investigadores dedicados a la Inteligencia Artificial (IA), explican que el nuevo modelo de lenguaje es “tóxico”. Esta definición implica que los resultados que se generan están reforzando estereotipos. En este aspecto se hace referencia a una alta “propensión” al racismo y los prejuicios.
La nueva herramienta presentada por Facebook y su empresa matriz, Meta, utiliza una IA de última generación. El sistema, desde la visión de investigadores de la firma, mantiene el mismo problema que sus predecesores. Estamos hablando de que sigue siendo malo en evitar el refuerzo de los estereotipos racistas y sexistas.
La Inteligencia Artificial no tan eficiente
Bajo el nombre de OP-175B, este nuevo sistema se parece a una plantilla con una modelo de lenguaje grande. Cada componente de la misma están preentrenados y se vienen empleando cada vez más en aprendizajes que procesan el lenguaje humano, y en este sentido es asombroso el resultado del procesamiento del lenguaje natural. Estamos hablando de una gran capacidad en la generación de imágenes, a partir de una descripción breve de un texto.
Los investigadores han advertido que este sistema nuevo cuenta con un riesgo mayor a la generación de resultados tóxicos. Para la propia gente dentro de Meta, el OPT-175B es más peligroso que PaLM o Davinci, los modelos de lenguajes anteriores.
La sospecha sobre los resultados que arroja el sistema, está centrada en que los datos de entrenamiento incluyen textos sin filtrar. Esto se estaría tomando de conversaciones propias de las redes sociales, por lo cual se aumenta la tendencia del modelo a reconocer y generar discursos de odio.