Background Image
Table of Contents Table of Contents
Previous Page  31 / 226 Next Page
Information
Show Menu
Previous Page 31 / 226 Next Page
Page Background

CIENCIA

POLICIAL

30

lo que la visión del ordenador registra, pudiendo clasificarlo. Es la

esencia del reconocimiento de imágenes.

·

En tiempo real.

Se refiere a las situaciones en las que las respuestas

deben ser inmediatas. Por ejemplo en imágenes de un sistema de

video vigilancia en un aeropuerto.

·

Retrospectivo.

Es el uso policial y el uso más común de los HARFS

(Herramienta Automática de Reconocimiento Facial), En este caso

el usuario del HARF no necesita tomar decisiones en el momento, lo

cual posibilita un análisis más detenido de las imágenes que com-

ponen la lista de candidatos. Esto a su vez perimirte usar la herra-

mienta solo contra autores de hechos delictivos.

El reconocimiento facial automático solamente necesita una legisla-

ción sobre inteligencia artificial, por lo que retomando lo expuesto en el

apartado anterior sobre la propuesta de Reglamento de la Unión Europea

en materia de inteligencia artificial, aprobado en días pasados, y dado

que lo expuesto en ese texto es absolutamente vital para el tema del re-

conocimiento facial, citamos a continuación lo más relevante del mismo.

En el texto aprobado se amplían la lista de usos de sistemas de

inteligencia artificial ya prohibidos en la propuesta original de la Co-

misión, y que en este también incluye los sistemas de identificación

biométrica remota, considerados de alto riesgo, que tendrán que cum-

plir unos requisitos más restrictivos si se trata en tiempo real en es-

pacios públicos –como es el caso del reconocimiento facial– así como

los de identificación posterior con la única excepción de su uso por las

autoridades para investigar y que también tendrán que cumplir con

algunas restricciones.

Los eurodiputados también incluyen en la lista de prohibiciones

los sistemas de categorización biométrica que usen «características

sensibles» como el género, raza, etnia, religión u orientación política

salvo para su uso «terapéutico». También deberían quedar prohibidos

los sistemas predictivos de vigilancia para evaluar el riesgo de una

persona o grupo de personas de cometer un delito u ofensa –basados

en la perfilación, la localización de dichas personas o en su pasado cri-

minal–, así como los sistemas de reconocimiento de emociones tanto

para la policía como para agentes de fronteras o en lugares de trabajo