OpenAI creará equipo para limitar riesgos de inteligencia artificial

OpenAI creará equipo para limitar riesgos de inteligencia artificial

Hay nuevas noticias sobre la IA y es que Sam Altman planea crear un equipo de riesgos. Este actuaría en caso de que haya que frenar a los dispositivos de inteligencia artificial si se detecta un mal uso de ellos para acciones fraudulentas, por ejemplo, o riesgos a la seguridad internacional.

OpeanAI: los sistemas de IA pueden ayudar mucho, pero también crear diversos riesgos

El equipo de OpenAI confirmó la creación de este mismo departamento en su propio blog. Este departamento tiene como objetivo paliar daños antes de que se produzca una verdadera amenaza si la IA cae en las manos equivocadas.

Según la empresa, las nuevas tecnologías tienen la capacidad de ayudar a la humanidad, pero también de generar grandes problemas si estas tecnologías caen en las manos inadecuadas. Uno de los responsables del departamento será Aleksander Madry. Él es el director del MIT, quien dejará su actual trabajo para poder dedicarse por completo a este nuevo cargo a las órdenes de Sam Altman.

Madry tiene una amplia experiencia en los modelos de lenguaje de la IA. Es una persona que podrá hacerse cargo perfectamente de su puesto. Altman lleva meses considerando la opción de crear un comité específico para velar por la seguridad de los sistemas y la población. Para él es una prioridad absoluta generar un estado de bienestar mientras la IA siga avanzando y desarrollándose.

Todos los profesionales que colaboran en el equipo de riesgos de Sam Altman estarán formados para detectar todo tipo de amenazas relacionadas con la bioseguridad, la radiactividad, las amenazas químicas o el robo de datos sensibles. Además de buscar la seguridad para las personas, este equipo busca aportar seguridad a diferentes organismos reguladores como gobiernos, grandes empresas y entidades bancarias, entre otros. Uno de los mensajes que OpenAI ha querido transmitir a todos sus seguidores en las redes sociales es que la IA es algo muy «revolucionario» y que su creación podrá acarrear consecuencias imprevistas.

Preparedness, el equipo de riesgos que se encargará de analizar la inteligencia artificial

El equipo de riesgos que protegería a las personas del mal uso de la IA se podría llamar Preparedness (Preparación, en inglés). Una de sus metas para los próximos años será la de proteger a la población de un ataque nuclear realizado por IA, además de evitar amenazas químicas y biológicas.

Es de esperar que este equipo desarrolle un código propio de actuación que detallará en su Política de Desarrollo basado en Riesgos. Ahí el equipo aclarará cómo creará sus propias evaluaciones para los modelos de inteligencia artificial y cómo monitoreará todas las acciones que esta produzca. En definitiva, se llevará un riguroso control de todo lo que pase.

Aunque todavía es un secreto lo que pasará con la IA, pronto sabremos cómo irá avanzando. Se irá conociendo qué se podrá realizar con ella y cómo responderán las grandes empresas a sus avances, valorando si realmente será tan poderosa como se dice. El equipo de riesgos de Sam Altman necesitará una buena comprensión de lo que sucederá con la IA y generará las infraestructuras adecuadas para dotar a la IA de las mejores medidas de seguridad.

Políticos como Joe Biden, el presidente de Estados Unidos, también pidió extremar la seguridad en la implementación de la IA y señaló que se necesitará una regulación especial. De esta manera, se evitará que se use este tipo de herramienta para generar el mal.

Tags: IA
No Comments Yet

Leave a Reply

Your email address will not be published.