Tercer Milenio

En colaboración con ITA

Aquí hay ciencia

Combatiendo al Gran Hermano a golpe de láser

Las protestas en Hong Kong nos han dejado imágenes futuristas: láseres contra los sistemas de reconocimiento facial aplicados por la Policía. Tratan así de deslumbrar la visión por computadora y dificultar el reconocimiento de los patrones faciales por parte de los algoritmos.

Manifestantes durante una protesta en Hong Kong, el pasado 4 de agosto
Manifestantes durante una protesta en Hong Kong, el pasado 4 de agosto
Kim Kyung-Hoon / Reuters

Setenta años después de la publicación de la primera edición de la novela de George Orwell ‘1984’, algunas de las situaciones que imaginó el autor inglés no difieren mucho de nuestra realidad actual. Sin ir más lejos, recientemente hemos visto cómo los manifestantes prodemocracia en Hong Kong utilizaban láseres para impedir el funcionamiento de los sistemas de reconocimiento facial que emplea la Policía para identificar a los concentrados. A raíz de estas espectaculares imágenes, en 'Aquí hay ciencia' nos planteamos cómo funcionan estos sistemas, hacia dónde nos llevan sus aplicaciones y qué métodos existen para evitarlos.

El reconocimiento facial es una tecnología avanzada que permite identificar rostros humanos en una imagen digital o un fragmento de vídeo. Emplea la biometría, la toma de medidas estandarizadas de un ser vivo, para mapear los rasgos faciales de una persona en una imagen, y compara estas medidas con las que contiene una base de datos faciales para encontrar coincidencias. Esta comparación se realiza mediante técnicas computacionales de inteligencia artificial. En los últimos años el reconocimiento facial ha experimentado un auge gracias al refinamiento de los algoritmos de aprendizaje automático y, sobretodo, al crecimiento exponencial de las bases de datos. En Estados Unidos, la mitad de los adultos tienen sus caras almacenadas en bases de datos de reconocimiento facial y en China casi la totalidad de sus 1.400 millones de habitantes.

Más allá de las manifestaciones en Hong Kong, el reconocimiento facial se usa actualmente para regular el acceso a edificios, a zonas restringidas y en los controles de seguridad de los aeropuertos. En estos últimos, las máquinas cotejan la fotografía contenida en el chip de nuestro pasaporte con nuestra imagen captada por una cámara.

También lo encontramos en la robótica, en las interacciones entre el hombre y la máquina. Y más cerca de nosotros, en los sistemas de desbloqueo de los teléfonos móviles o en el indexado de imágenes como, por ejemplo, las de la biblioteca de fotos de nuestro ordenador o las que colgamos en las redes sociales. Retos virales como el '10 Year Challenge', que promovía que los usuarios compartieran dos fotos suyas separadas por 10 años, se cree que podrían servir para entrenar algoritmos de reconocimiento facial.

¿Cómo funciona el reconocimiento facial?

El reconocimiento facial pretende reproducir la capacidad de nuestro cerebro de reconocer una cara y discernir los rostros familiares de los que no lo son. Los primeros sistemas requerían que una persona extrajera manualmente las coordenadas de los rasgos faciales y las introdujera en una computadora, acompañadas del nombre de la persona, para construir una base de datos. El reconocimiento lo hacía posteriormente el ordenador comparando los valores de la fotografía que se quería identificar con los de la base de datos y devolviendo los registros que más se asemejaban. Estos primeros métodos tenían limitaciones. La rotación e inclinación de la cabeza no era exactamente la misma en todas las fotografías, ni tampoco coincidía la distancia entre la persona y el objetivo de la cámara (la escala). Por lo tanto, se debían corregir los cálculos y normalizarlos como si todas las fotografías se hubieran tomado exactamente con la misma orientación frontal.

En la actualidad los algoritmos de los sistemas de reconocimiento facial desempeñan todas las tareas y se entrenan y aprenden de forma automática buscando patrones en grandes conjuntos de datos. A partir de una imagen obtienen datos como la posición relativa, el tamaño y la forma de los rasgos faciales (ojos, boca, nariz, mejillas o mandíbula) y los transforman en un espacio medible matemáticamente. Algunos métodos consideran la cara en su totalidad mientras que otros analizan y comparan rasgos concretos y su posición relativa en la cara.

Hay métodos de reconocimiento que capturan datos en tres dimensiones para analizar la geometría de la cara. Emplean sofisticados sensores 3D que iluminan el rostro con un patrón de luz estructurado e interpretan cómo este se deforma cuando impacta en la superficie de la cara. Así obtienen información de profundidad y superficie.

También se han desarrollado métodos que analizan la textura de la piel (patrones, líneas, manchas) y otros que emplean cámaras térmicas para capturar imágenes faciales en condiciones de poca luz o nocturnas. Finalmente los hay que combinan los distintos métodos en un único sistema para aumentar la precisión de la detección.

¿Son precisos estos sistemas?

Aunque su precisión se considera menor que la de la huella dactilar o la del reconocimiento del iris, en los últimos años los algoritmos de reconocimiento facial han ido mejorando a pasos agigantados. En 2014, Facebook reportó que Deepface, su algoritmo de reconocimiento facial que escanea las imágenes que los usuarios suben a la red social, se acercaba al rendimiento del cerebro humano, con una precisión del 97,35%. Distintos desarrolladores privados publicitan precisiones de sus sistemas de análisis facial cercanas al 100%, pero debemos ser cautos y considerar con qué conjunto de datos se han entrenado y evaluado estos sistemas. Uno de los más utilizados contiene más de un 80% de blancos y más de un 75% de hombres.

Precisamente, un estudio de investigadores del MIT y de la Universidad de Stanford mostró cómo tres de estos sistemas comerciales tenían un sesgo de género y por el color de la piel. Cuando la persona en la foto era un hombre blanco, el programa acertaba en un 99% de los casos su sexo, pero si se trataba de una mujer de piel oscura la tasa de error podía llegar a casi el 35%.

¿Existen métodos para contrarrestarlos?

Los sistemas de reconocimiento pueden verse afectados por cambios en la iluminación y en las expresiones faciales, por la presencia de barba, bigote o unas gafas, o por determinados tipos de maquillaje. Aun así, aquellos sistemas que combinan distintas metodologías de reconocimiento son menos susceptibles a ser engañados por estos cambios.

El uso de haces de luz láser en las manifestaciones en Hong Kong forma parte de las técnicas de deslumbre de la visión por computadora que buscan dificultar el reconocimiento de los patrones faciales por parte de los algoritmos. En este sentido, se han desarrollado modelos de gafas anti-reconocimiento facial que reflejan o absorben la luz. También las hay que usan luz cercana al infrarrojo para desdibujar la cara de quien las lleva. Otras técnicas de deslumbre se sirven de un maquillaje estilizado o disruptivo, inspirado en un tipo de camuflaje de barcos que se utilizaba en la Primera Guerra Mundial (con colores contrastados, líneas inclinadas y curvas), y lo combinan con cortes de cabello asimétrico; a veces también con luces infrarrojas incorporadas en la ropa o en las gafas.

Todos estos métodos pretenden evitar la videovigilancia, una de las aplicaciones más polémicas del reconocimiento facial. En San Francisco, el Ayuntamiento prohibió este año el uso de tecnologías de reconocimiento facial por parte de la Policía y otras agencias gubernamentales. En el otro extremo, en China, este tipo de sistemas se emplean desde 2017 en la extensa red del metro de Shanghái, repleto de cámaras de vigilancia -más de 30.000- que constantemente graban a sus más de 10 millones de pasajeros diarios. Sus caras se comparan mediante Dragonfly Eye, un algoritmo de reconocimiento facial desarrollado por la empresa Yitu, con una base de datos de delincuentes en búsqueda y captura. Sus creadores afirman que Dragonfly Eye puede reconocer a cualquiera de los 1.400 millones de habitantes del gigante asiático ya que se nutre de las fotografías de los documentos de identidad recogidas en la base de datos nacional que también contiene las de centenares de millones de extranjeros fotografiados cuando entran en el país.

Orwell en ‘1984’ dibujaba un mundo en el que no existe la privacidad y en el que cada movimiento de la gente es controlado por un Estado todopoderoso con telepantallas instaladas en el espacio público y en el doméstico; que recuerda constantemente a sus súbditos que el Gran Hermano les vigila. ¿Distopía o realidad?

-Ir al suplemento Tercer Milenio

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión