Hasta 40 organizaciones, especializadas en la defensa de los derechos digitales y ONG de migrantes, han publicado un comunicado para advertir del «peligro» que puede suponer el uso de la inteligencia artificial en la frontera de Ceuta y Melilla y, más concretamente, en la decisión de recogen en estos puntos datos biométricos, como el reconocimiento facial o las huellas dactilares, se las personas migrantes.
En el texto publicado, señala que los controles fronterizos son «espacios de potencial vulneración de derechos».
«Los traslados de personas solicitantes de asilo de un estado miembro a otro en contra de su voluntad, en aumento en los últimos años, han sido, en parte, propiciadas por la recopilación de datos biométricos, como sus huellas dactilares«, han explicado las organizaciones firmantes, quienes advierten también de una posible «violación de la privacidad» puesto que estos datos biométricos son «intrínsecos a las personas», además de «no cumplir con el principio de proporcionalidad» con unos migrantes que «se encuentran a menudo en situación de vulnerabilidad».
A su juicio, la aplicación de estas medidas «como un elemento de lucha contra el terrorismo» supone «un peligro de discriminación y criminalización y la convierte en un nuevo dispositivo racista dentro del Estado Español».
FALSOS POSITIVOS Y NEGATIVOS
Las entidades creen que las políticas antiterroristas «a menudo han resultado una herramienta de propagación de la islamofobia, que han tenido como consecuencia un rechazo generalizado hacia la población migrante y racializada».
«Es de sobra conocido que los algoritmos de reconocimiento facial suelen arrojar falsos positivos y falsos negativos en rostros no caucásicos, lo cual, en este contexto concreto, podría suponer graves consecuencias para personas identificadas erróneamente como sospechosas de actos terroristas», han advertido.
Del mismo modo, señalan que este sistema «adolece de una falta de transparencia tanto en la forma, como en el fondo» porque «no se habla de que los algoritmos que se empleen sean auditables y/o explicables», ni «tampoco de mecanismos de trazabilidad que permitan supervisión humana ni de políticas de protección de datos».
Es por ello, que piden al Gobierno, la aplicación de la regulación de la inteligencia artificial y de protección de datos elaborada por la Comisión Europea también en contexto de seguridad; derogar el Reglamento europeo que permite el reconocimiento facial; la «necesidad de información y consentimiento informado ante el uso de estos sistemas, incluso si se llegan a aplicar y desplegar»; y la «incorporación sistemática de observadores de derechos humanos en las actuaciones en frontera»; así como tareas de fiscalización y control por parte de la sociedad de estas tecnologías.