Tener bien controlados a los robots

Cómo mantener el control sobre la Inteligencia Artificial

En inteligencia artificial (IA), las máquinas realizan acciones específicas, observan el resultado y adaptan su comportamiento en consecuencia, observan el resultado nuevamente y reajustan su comportamiento una y otra vez, aprendiendo de este proceso iterativo.

Pero, ¿podría este proceso salirse de control?

"La IA siempre intentará evitar la intervención humana y creará una situación en la que no se puede detener", dice Rachid Guerraoui, profesor de Programación distribuida en la Universidad de Lausana. Esto significa que los ingenieros deben evitar que las máquinas aprendan a evadir los comandos humanos. Los investigadores que han estudiado este problema han descubierto una manera de mantener el control de un grupo de robots. Su trabajo hace una importante contribución al desarrollo de vehículos autónomos y drones, por ejemplo, para que puedan operar con seguridad.


Un método de aprendizaje automático utilizado en la inteligencia artificial es el aprendizaje por refuerzo,  es decir, cuando se le recompensa por realizar ciertas acciones; Una técnica tomada de la psicología del comportamiento. Al aplicar esta técnica a la IA, los ingenieros usan un sistema de puntos en el que las máquinas ganan puntos al realizar las acciones correctas.Por ejemplo, un robot puede ganar un punto para apilar correctamente un conjunto de cajas y otro punto para recuperar una caja desde el exterior. Pero si, en un día lluvioso, por ejemplo, un operador humano interrumpe el robot cuando sale a recoger una caja, el robot descubrirá que es mejor quedarse en casa, apilar cajas y ganar tantos puntos como sea posible. El desafío no es detener el robot, sino programarlo para que la interrupción no cambie su proceso de aprendizaje.

De una sola máquina a toda una red de inteligencia artificial.
En 2016, los investigadores de Google DeepMind y el Instituto de Futuro de la Humanidad de la Universidad de Oxford desarrollaron un protocolo de aprendizaje que evita que las máquinas aprendan de las interrupciones y, por lo tanto, se vuelvan incontrolables. Por ejemplo, en el ejemplo anterior, la recompensa del robot, la cantidad de puntos que gana, se vería afectada por la posibilidad de lluvia, lo que le da al robot un mayor incentivo para recuperar las cajas de afuera. "Aquí la solución es bastante simple porque estamos tratando con un solo robot", dice Guerraoui.

Sin embargo, la inteligencia artificial se usa cada vez más en aplicaciones que involucran a docenas de máquinas, como los autos que conducen por sí mismos en la carretera o los drones en el aire. "Esto hace que las cosas sean mucho más complicadas, porque las máquinas comienzan a aprender unas de otras, especialmente en el caso de interrupciones. Aprenden no solo cómo se interrumpen individualmente, sino también cómo se interrumpe a otros ", dice Alexandre Maurer, uno de los autores del estudio.

Dale al hombre la última palabra
Esta complejidad es lo que los investigadores pretenden resolver mediante la "interrupibilidad segura", la seguridad de la interrupción . Su método revolucionario permite a los seres humanos interrumpir los procesos de aprendizaje de inteligencia artificial cuando sea necesario, asegurando que las interrupciones no cambien la forma en que las máquinas aprenden. “En pocas palabras, agregamos mecanismos de 'olvido' a los algoritmos de aprendizaje que borran sustancialmente los bits de la memoria de una máquina. En otras palabras, los investigadores modificaron el sistema de aprendizaje y recompensa de las máquinas. Es como si un padre castigara a un niño, esto no afectaría los procesos de aprendizaje de otros niños en la familia.

"Hemos trabajado en los algoritmos existentes y hemos demostrado que la interrupción segura puede funcionar independientemente de la complejidad del sistema AI, la cantidad de robots involucrados o el tipo de interrupción", dice Maurer.

Comentarios

Entradas populares