Si eres un fan de las noticias relacionadas con la empresa Google, seguro te interesará conocer este tipo de novedades. Como la del equipo de robótica que Google ha creado para prevenir que los robots creados con IA realicen alguna actividad que sea negativa para la humanidad.
Google ya se tuvo que enfrentar a las leyes de imposición regulatorias de la UE
La Unión Europea fue la primera en proponer pactar una ley de inteligencia artificial para que hubiera una regulación de las actividades relacionadas con la tecnología autónoma. Antes de que sucediera algún tipo de conflicto que pudiera poner en peligro algún servicio para la población o a los ciudadanos. Esta ley, en teoría, también es capaz de regular todo tipo de sistemas de inteligencia artificial como ChatGPT o Google Bard.
Gracias a esta ley, cualquier tipo de empresa deberá especificar si sus contenidos se han creado a partir de la utilización de una IA. También tendrán que detallar si a la hora de crear esos materiales se ha respetado los derechos de autor (si procede) de la obra original tomada como inspiración. Google, ha querido crear sus propias “constituciones” para controlar a todos los dispositivos que trabajen utilizando la IA.
¿Cómo funciona el equipo de seguridad de Google?
En esa constitución propia de Google, ellos han querido aportar sus propias indicaciones centradas en el ámbito de la seguridad. Instruyendo al modelo de lenguaje de los robots que trabajan con IA, programándolos para que los robots eviten utilizar en sus tareas aparatos eléctricos, objetos peligrosos, animales o seres humanos.
DeepMind, el equipo de seguridad de Google, también realizó una programación especial para que los robots sepan reconocer si en sus acciones están superando el umbral normal de fuerza. Haciendo que se detengan si rozan el límite no admitido. Además de estas acciones de seguridad, los ingenieros han agregado un interruptor de apagado para que los operadores puedan pulsarlo en caso de peligro.
¿Pueden representar una amenaza los robots inteligentes?
Como todo, a veces pueden surgir todo tipo de emergencias. Los equipos de seguridad se han creado para mantener una alerta y prevenir que ocurra cualquier suceso. En el año 2022, un robot llegó a romperle un dedo a un niño de siete años. Y un joven de Volkswagen falleció al ser golpeado por un robot en una planta de trabajo de la marca.
Tras ser golpeado en el pecho, fue aplastado contra una placa dura de metal. Otra técnica llamada Wanda Holbrook, fue asesinada accidentalmente por un robot en su espacio de trabajo. Al haberse provocado un fallo que hizo que el robot la cogiera por la cabeza y la aplastara en una cadena de montaje.
Todavía falta mucho para verificar si la implantación de robots controlados por IA harán un bien a la sociedad o crearán todo tipo de problemas. Como estos que os hemos mencionado anteriormente. Sin embargo, gracias a la implantación de estos grupos de seguridad como el de Google, se verificarán mejor las cosas y se evitarán males mayores.