La tecnología de reconocimiento facial se usa cada vez más para todo, desde la vigilancia gubernamental hasta los inicios de sesión en línea convenientes, especialmente en China. Sin embargo, una nueva prueba informada por Fortune arroja dudas sobre la precisión de algunos de estos sistemas, al mostrar que pueden ser engañados por usuarios que usan máscaras.

Para realizar la prueba, la compañía de inteligencia artificial Kneron encargó máscaras 3D de alta calidad que imitaban la cara de otra persona, y probó si alguien podía usar una para engañar a los sistemas de reconocimiento facial. Los investigadores pudieron realizar compras desde la cuenta de otra persona a través de los sistemas de pago AliPay y WeChat.

El equipo incluso pudo engañar a los sistemas en los aeropuertos. En el aeropuerto de Schiphol en Amsterdam, lograron engañar a un sistema de auto-embarque con solo una foto de la cara de otra persona. También engañaron los sistemas de estaciones de tren en China, donde los viajeros utilizan el reconocimiento facial para pagar sus viajes. Todas las pruebas fueron supervisadas y realizadas con permiso.

Esta no es la primera vez que surgen preocupaciones sobre la precisión de la tecnología de reconocimiento facial. En agosto, la Unión Americana de Libertades Civiles anunció que la tecnología identificó erróneamente a 26 legisladores de California, principalmente personas de color. Otro informe del Reino Unido encontró que el sistema de reconocimiento facial de la policía tiene una tasa de error del 81 por ciento.

Ciertamente, algunos sistemas de reconocimiento facial son mejores que otros. Kneron, por ejemplo, anunció que su prueba no engañó al iPhone X. Sin embargo, otros sistemas fueron fácilmente ignorados mediante el engaño y podrían conducir a fraude. La preocupación es que las personas puedan hacerse pasar por individuos adinerados y acceder a sus cuentas bancarias u otras cuentas, o incluso que los terroristas puedan eludir las medidas de seguridad.

“Esto muestra la amenaza a la privacidad de los usuarios con un reconocimiento facial por debajo del par que se hace pasar por ‘AI'”, dijo a Fortune Albert Liu, CEO de Kneron. “La tecnología está disponible para solucionar estos problemas, pero las empresas no la han actualizado. Están tomando atajos a expensas de la seguridad”.