Fiallo

El Estado dominicano y “lo biométrico”: ¿incluiremos o excluiremos?
Por Josué Fiallo

A partir de los ataques terroristas del 11 de Septiembre de 2001 se ha generado un amplio desarrollo e implementación de sistemas automatizados de vigilancia de personas. Uno de ellos es la identificación y verificación biométrica.

La República Dominicana no ha escapado a esta tendencia y tímidamente parece inclinarse a implementar tecnologías biométricas activas y pasivas más allá del documento de viaje. Entendemos que esto amerita amplia ponderación y debate.

Pocos nos hemos detenido a pensar en las ambiciosas aplicaciones biométricas a las que el Estado pretende someternos, “las necesitamos realmente?”, “cuánto nos van a costar?”, “cómo funcionan ?”, “por qué esas y no otras?”, “en realidad funcionan?”, “qué efectos tendrá en la vida de todos?” y si “aceptamos mayoritariamente que se adopten como se han propuesto?”

Muchas instituciones públicas están en proceso de implementación de soluciones tecnológicas que incorporan identificación biométrica en sus respectivos ámbitos. Las más recientes en dar el paso han sido el Ministerio de Interior y Policía, para el control de las licencias de armas de fuego y el Ministerio Público para seguimiento a los casos penales mediante las huellas dactilares y el reconocimiento facial.

Consideramos prudente y correcta la medida de iniciar la adopción de estas tecnologías a escalas que permitan ponerlas a prueba en nuestro contexto y en áreas sensibles de la seguridad pública que sin lugar a dudas necesitan una urgente respuesta. 

Por ejemplo, es necesario atender la necesidad descrita recientemente por el Procurador General de la República Lic. Francisco Domínguez Brito de identificar con precisión a los acusados y a quienes se encuentran en las cárceles del país debido a la práctica generalizada de los criminales de pervertir los sistemas estatales para agenciarse identidades múltiples, simplemente no tener documentación oficial o de los privados de libertad de usar terceros que le suplanten en los procesos judiciales. 

Las tecnologías biométricas toman una lectura digital de algún rasgo del cuerpo humano que puede ser medido, registrado y cuantificado (data cruda) y mediante una receta matemática (algoritmo) traduce la imagen a una plantilla biométrica. Posteriormente esta es utilizada para hacer comparaciones, ya sea para fines de verificar que es la misma persona (1:1) o para identificar a esa persona dentro de un grupo (1:N).

 Este algoritmo es lo que venden las compañías tecnológicas argumentando que su receta (algoritmo) para crear plantillas desde la imagen es mejor que el de las demás empresas. Desarrollar estos algoritmos cuesta billones de dólares a la industria.

Las principales tecnologías biométricas incluyen las huellas dactilares, escaneo del iris del ojo y reconocimiento facial. Otras tecnologías en desarrollo son el reconocimiento del patrón de venas, reconocimiento de voz, identificación de patrones al caminar, el uso del ADN para identificación y verificación, y tecnologías futuristas como el reconocimiento de los patrones de pensamiento (mapeo del cerebro).

Además de la traducción del cuerpo humano a un código matemático, las implicaciones del mapa biométrico generan una nueva dimensión pública. Esta dimensión trae tensiones diversas sobre cómo entendemos el concepto de privacidad y de información personal, así como porque también tiene la propensión a limitar de las posibilidades de alcanzar niveles de igualdad y democracia. 

La paradoja de la biometría es que se implementa en nombre de la libertad y la seguridad pero al mismo tiempo mantiene a grupos enteros inmóviles y presos de sus fallas y errores.

Los sistemas biométricos tienen el potencial de excluir tanto a aquellos que no pertenecen a una categoría determinada como a aquellos cuyos cuerpos no son “legibles”. Si usted no puede obtener un documento de identidad, una licencia o un pasaporte si sus huellas dactilares no pueden ser leídas, entonces aquellos que no tienen huellas dactilares legibles no podrán ser identificados, manejar o viajar según sea el caso.

En teoría nos enfrentamos a la posibilidad  de hacer que personas con particularidades físicas sufran serias consecuencias que afectarán su libertad y movilidad. Así, en adición a otras formas más perturbadoras de vigilancia, las tecnologías biométricas podrían también excluir a ciertas comunidades de otros derechos humanos.

Se ha establecido científicamente que ciertos grupos tienen mayor dificultad que otros para registrar y verificar sus patrones biométricos. Por ejemplo, sobre las huellas dactilares incide la clase social. Las personas con trabajos que implican labor física intensa, sobre todo manual, tienden a borrar sus huellas dactilares. 

La entidad británica U.K. Biometrics Working Group encontró que tomar las huellas dactilares de manera precisa para aquellos grupos poblacionales con trabajos manuales y de mantenimiento, así como los envejecientes era más difícil que para aquellas personas con otras ocupaciones. En el caso dominicano sería particularmente interesante evaluar esta situación según la composición del mercado laboral, saltan a la vista casos de las trabajadoras domésticas, los trabajadores de la construcción, y demás trabajadores manuales. 

Otros estudios encontraron que los escáneres de huellas dactilares no podían identificar un 20% de aquellas personas con dedos irregulares; una de cada cinco personas no pudo ser identificada porque el escáner era muy pequeño para escanear suficiente área de la huella del participante con dedos muy grandes.

La administración de seguridad del transporte de Estados Unidos (TSA) dice que incorporó en su frontera con Canadá un sistema biométrico de iris en vez de un sistema de huellas dactilares porque el escáner de iris es utilizable por un público más amplio, pues el género, la etnia y la edad afectan la calidad de las huellas dactilares. 

Sin embargo, pruebas biométricas de iris en el Reino Unido refieren que los escáner de iris resultaban desproporcionadamente incapaces de leer los iris de las personas de color. Al ser cuestionado en 2005 sobre las tasas de satisfacción, el Ministerio de Interior británico respondió: “es cierto que en ocasiones hemos experimentado dificultades en capturar de manera exitosa imágenes de iris de personas con piel muy oscura (el algunos sistemas de iris). La dificultad radica en la habilidad del sistema de ubicar el iris en un fondo de piel oscura.” Esta respuesta no explica por qué el color de la piel podría hacer la diferencia, pues el iris de todas las personas está rodeada por la parte blanca del ojo (conjuntiva).

Otros académicos sugieren que los escáneres de iris son particularmente propensos a no poder identificar aquellas personas con limitaciones visuales (como cataratas), a aquellos bajo el efecto de ciertos medicamentos (como la atropina) y a aquellos muy altos o que utilizan sillas de ruedas debido a las dificultades en alcanzar el ángulo correcto y necesario entre los ojos y el escáner de iris o porque las personas no toleran ver la luz roja que proyecta el escáner para indicarles a dónde tienen que mirar.

Ejemplo palpable de cómo las tecnologías biométricas marginan es el sistema Nexus-Air utilizado en la frontera de Estados Unidos y Canadá. Sus escáneres biométricos buscan agilizar el tránsito de los pasajeros por migración, sin embargo es un requisito para su utilización poder mantenerse de pie y tener una visión normal. Por ende, las personas en sillas de ruedas o aquellos con discapacidad visual no pueden participar de este esquema.

En resumen, cualquier tipo de desviación del cuerpo puede generar una falla en los sistemas biométricos.

Es evidente que el utopismo tecnológico y las soluciones biométricas como panacea para los problemas sociales son parte importante del discurso para la utilización de estas tecnologías de vigilancia, pero vemos que en vez de repetir esta clase de narrativa del funcionamiento tecnológico perfecto, las fallas biométricas que hemos detallado, incluyendo aquellas en cuerpos desproporcionados sugiere que estas tecnologías no operan con la objetividad mecánica que se les atribuye. La sociedad debe estar consciente de esto, y los tomadores de decisiones deben asumir un enfoque multibiométrico tanto para proteger a grupos en desventaja como para dar alternativas no excluyentes.

 De lo anterior se desprende la necesidad de los gobiernos de probar las tecnologías antes de adoptarlas de forma masiva de manera que puedan examinarse las diferencias de resultados por grupos demográficos. Hacer estas pruebas en distintas comunidades presenta una interesante contradicción. Tal cosa debilita los postulados de la industria biométrica de que sus tecnologías son neutrales respecto de asuntos raciales, mientras que al mismo tiempo reconoce los efectos materiales que en tales sistemas imprimen las categorías raciales.

 Se vende como una bondad de la biometría, el que estas tecnologías son particularmente beneficiosas para identificar personas pues reemplazan la subjetividad humana por objetividad mecánica. Igualmente se pretende convencer de la idea de que la adición de patrones biométricos identificables nos hará una sociedad más segura.

 La industria de la biometría asegura que cualquier dificultad con sus tecnologías puede resolverse con investigación, dinero y tiempo. Aunque se han destinado billones de dólares en estas, los errores y las fallas se mantienen. Es parecido al caso del polígrafo, una tecnología cuya perfección nos han asegurado está justo al doblar la esquina. Hace falta una gran inversión en investigar los motivos de los errores y los fallos, de manera que esos eventos permitan identificar las presunciones sobre las que se sustentan y el contexto cultural que ellas codifican.

Finalmente, la implementación de sistemas biométricos no es concebible como un fin en sí mismo. Tener sistemas biométricos por tenerlos resulta fútil. Es preciso abrir el debate y la discusión acerca de la necesidad, la pertinencia, los costos y las alternativas frente a los objetivos que como país debemos tener con miras al perfeccionamiento de un Estado social y democrático de derecho, que no excluye, que es solidario, eficiente y confiable. Nos perturba la idea de adoptar estas tecnologías a gran escala, conociendo sus falencias y sabiendo que con frecuencia los tomadores de decisiones no suelen detenerse y pensar acerca del futuro pues la cotidianidad los arropa.

29 Septiembre 2013.