El ejército de EE. UU. está preocupado de que sea IA podría ser demasiada crédula

La inteligencia artificial ya está inexorablemente vinculada a algunos de nuestros sistemas más críticos. El comercio de acciones automatizado ejecuta Wall Street, las evaluaciones algorítmicas de riesgos se integran en la justicia penal y el sistema de cuidado de crianza, y la policía de todo el mundo recientemente se ha dedicado mucho al reconocimiento facial.

Pero los sistemas automatizados cómo estos son falibles. El jueves, DARPA anunció que se estaba asociando con Intel para reforzar el A.I. de los sistemas militares. El proyecto está diseñando modelos que son menos susceptibles a los trucos, también conocidos como “ataques adversos”.

Existen algoritmos de aprendizaje profundo para encontrar patrones en conjuntos de datos increíblemente complejos.

Los algoritmos reducen la complejidad de esos patrones una y otra vez, hasta que los resultados inmensamente simplificados puedan compararse con los ejemplos que los algoritmos ya han visto.

Por ejemplo, un algoritmo creado para detectar imágenes de perros identifica elementos clave de un perro, como narices o colas, y luego reduce aún más esos elementos hasta que son solo algunas expresiones matemáticas que explican la curva de una nariz o la forma de un perro. cola. Lo que queda es solo una sombra de los datos originales.

En 2016, los investigadores descubrieron que si conocía el último patrón más simple que utilizaba un algoritmo, podría engañar a todo el sistema. Podrías manipular una imagen de autobuses escolares de manera discreta, por ejemplo, para hacer que un algoritmo piense que estaba viendo la imagen de un panda. Estos cambios podrían ser tan pequeños que serían imperceptibles para el ojo humano. (Si desea leer más sobre este fenómeno, le conté la historia en 2016).

Los ejemplos clásicos de este truco incluyen obligar a los automóviles autónomos a malinterpretar las señales de tráfico o enviar señales inaudibles a los asistentes de voz de los teléfonos para abrir páginas web maliciosas. Más recientemente, se ha descubierto que se pueden adoptar enfoques mucho más simples: un trozo de cinta de 2 pulgadas en una señal de velocidad engañó a un automóvil Tesla, por ejemplo.

Muchas personas han tardado años en tomarse este problema en serio. Como informó OneZero el año pasado, los militares usan inteligencia artificial, y especialmente reconocimiento facial, para una serie de tareas de vida o muerte, como asegurar bases y realizar vigilancia en vivo.

Los investigadores sugieren que existen ataques adversos debido a las estructuras más fundamentales de cómo nuestros algoritmos de aprendizaje profundo toman decisiones. Si bien hay medidas que podemos tomar para protegernos de ellas, y compañías como Google lo han hecho, siempre será un juego de gato y ratón.

Y ese es un gran argumento en contra del uso de la inteligencia artificial para automatizar las decisiones más críticas.