Reconocimiento Facial en Vía Pública: Vigilancia sin Permiso

El uso de sistemas de reconocimiento facial en espacios públicos opera en una zona gris de la legislación argentina, afectando derechos fundamentales.
Un gran ojo de vidrio, como el de una muñeca, observa fijamente desde el interior de una alcantarilla abierta. Representa: Uso de reconocimiento facial en espacios públicos sin base legal

Una Verdad Incómoda: Tu Cara es un Dato Sensible

En el gran teatro de la innovación tecnológica, el reconocimiento facial ocupa un lugar estelar. Se nos presenta como una herramienta casi mágica, capaz de identificar a una persona en una multitud con la misma facilidad con la que uno reconoce a un amigo. Lo que convenientemente se omite en esta presentación es la naturaleza de la materia prima con la que trabaja: nuestros rostros. Un rostro no es solo una colección de rasgos; es la manifestación más externa de nuestra identidad. La tecnología lo reduce a una plantilla biométrica, un archivo digital único e irrepetible. Un dato.

Y no cualquier dato. La Ley 25.326 de Protección de Datos Personales, una norma que sorprendentemente ya existía mucho antes de que esta tecnología se volviera moneda corriente, establece una categoría especial: los datos sensibles. El artículo 2 los define como aquellos que revelan origen racial y étnico, opiniones políticas, convicciones religiosas, filosóficas o morales, afiliación sindical e información referente a la salud o a la vida sexual. Aunque la ley no menciona explícitamente los datos biométricos, los tribunales y la doctrina han sido unánimes: un dato biométrico como un rostro o una huella dactilar es, por su naturaleza, un dato sensible. Puede revelar origen étnico y, en el contexto actual, es un identificador tan potente o más que cualquier otro dato listado.

¿Y qué implica que sea un dato sensible? Implica que, como regla general, nadie puede tratar estos datos sin el consentimiento libre, previo, expreso e informado del titular. Resulta evidente que al caminar por una plaza o una estación de tren, uno no va firmando formularios de consentimiento para que su cara sea escaneada, procesada y comparada con una base de datos. La ausencia de este requisito fundamental convierte a la implementación masiva de estos sistemas en un acto, de base, ilegal. Es una verdad tan simple que parece mentira tener que explicarla. Se presume un consentimiento por el mero hecho de existir en un espacio público, una ficción legal que no resiste el menor análisis serio.

El Espejismo de la Seguridad y el Consentimiento Tácito

El argumento estrella para justificar este despliegue es, siempre, la seguridad. Se nos dice que estas cámaras son indispensables para encontrar prófugos de la justicia. La premisa es atractiva, pero la lógica detrás es peligrosa. Para encontrar a un número limitado de personas, se somete a vigilancia a millones. Este es un claro conflicto con el principio de proporcionalidad, un pilar del derecho. La medida debe ser idónea, necesaria y proporcionada en sentido estricto. ¿Es realmente necesario escanear el rostro de cada persona que asiste a un partido de fútbol o usa el subte para encontrar a unos pocos individuos? ¿O existen métodos menos invasivos para la privacidad de la totalidad de la población?

La defensa estatal suele apoyarse en las excepciones que la propia Ley 25.326 contempla para el tratamiento de datos sin consentimiento. Principalmente, cuando los datos se obtienen de fuentes de acceso público irrestricto o cuando se recaban para el ejercicio de funciones propias de los poderes del Estado. Ambas justificaciones son, en este caso, un espejismo. Que una persona camine por la calle no convierte su rostro en un dato de ‘acceso público irrestricto’ para su tratamiento biométrico. Estar en público no es una renuncia a la intimidad. Por otro lado, si bien la seguridad es una función estatal, su ejercicio no es un cheque en blanco. Debe estar habilitado por una ley en sentido formal, sancionada por el Congreso, que establezca claramente los alcances, límites, finalidades y controles de dicha tecnología. Un decreto, una resolución ministerial o una disposición administrativa no tienen la jerarquía suficiente para restringir un derecho fundamental como la privacidad, protegido por la Constitución Nacional en sus artículos 18 y 19.

A esto se suma la falibilidad técnica. Los algoritmos tienen sesgos. Numerosos estudios internacionales han demostrado que su precisión disminuye drásticamente con mujeres y personas de piel oscura. Un ‘falso positivo’ no es un error informático menor. Es una persona real, con nombre y apellido, que puede ser detenida, esposada y demorada injustamente mientras volvía del trabajo a su casa. El sistema transforma la presunción de inocencia en una presunción de vigilancia, donde cada ciudadano debe estar preparado para demostrar que el algoritmo se equivocó.

Manual de Supervivencia Legal: Lado A – El Acusado

Supongamos el peor escenario: el sistema emite una alerta y usted es detenido. El mundo se le viene abajo. Lo primero: mantener la calma. No está luchando contra una inteligencia artificial omnipotente, sino contra un procedimiento basado en una prueba de dudosa legalidad y fiabilidad. Su defensa debe centrarse en atacar el origen y la calidad de esa prueba.

El eje central es cuestionar la validez de la identificación. Se debe exigir al Estado que presente toda la información sobre el sistema utilizado: la marca y modelo del software, sus tasas de error certificadas por organismos independientes, los registros de mantenimiento y calibración, y las condiciones exactas en que se produjo la ‘coincidencia’ (iluminación, ángulo, calidad de imagen). La carga de la prueba recae sobre el acusador. El Estado debe demostrar, más allá de toda duda razonable, que la tecnología es fiable y que la identificación es correcta. No es usted quien debe probar su inocencia.

En paralelo, se debe atacar la legalidad de la obtención del dato. Hay que invocar la Ley 25.326 y la Constitución Nacional. Su rostro, un dato sensible, fue capturado y procesado sin su consentimiento y sin una ley que lo autorice de forma específica. Esto convierte a la prueba en el ‘fruto de un árbol envenenado’. Si la recolección inicial fue ilícita, todo lo que se derive de ella (la identificación, la detención) es nulo. Además, la herramienta del Habeas Data (artículo 43 de la Constitución) permite exigir judicialmente que el Estado informe qué datos suyos posee, con qué fin, y solicitar su supresión o rectificación. En un proceso penal, un planteo de nulidad basado en estos argumentos tiene una pila de chances de prosperar.

Manual de Supervivencia Legal: Lado B – El Acusador (o el Ciudadano Preocupado)

No hace falta ser una víctima directa para actuar. Cualquier ciudadano preocupado por la degradación de las libertades civiles tiene herramientas para cuestionar la legalidad de estos sistemas de vigilancia masiva. La estrategia aquí no es defensiva, sino ofensiva, y apunta al corazón del sistema.

La vía por excelencia es la acción de amparo. Este remedio constitucional está diseñado para proteger derechos y garantías cuando son vulnerados de forma manifiestamente arbitraria o ilegal por parte del Estado. El argumento es contundente: la vigilancia facial masiva sin ley vulnera el derecho a la intimidad (art. 19 CN), a la privacidad y a la propia imagen, y el derecho a la protección de datos personales (art. 43 CN). Organizaciones de la sociedad civil y el Defensor del Pueblo tienen legitimación activa para iniciar amparos colectivos, buscando que la justicia ordene el cese inmediato del uso de la tecnología hasta que no exista un marco legal adecuado. Ya existen precedentes en el país que han sido exitosos.

Otra herramienta es la denuncia administrativa ante la Agencia de Acceso a la Información Pública (AAIP). Este es el órgano de control de la Ley 25.326. Si bien sus resoluciones pueden no tener el impacto inmediato de una orden judicial, iniciar un expediente allí genera un registro formal de la ilegalidad del tratamiento de datos. Obliga al organismo estatal a dar explicaciones y puede culminar en sanciones. Es un camino más lento, más burocrático, pero que construye un caso sólido sobre la violación sistemática de la ley.

Finalmente, el Habeas Data colectivo también es una opción viable para que asociaciones de usuarios y consumidores exijan conocer los detalles del funcionamiento de estos sistemas en nombre de toda la ciudadanía. En última instancia, la discusión que se debe plantear no es si la tecnología es buena o mala. La tecnología es una herramienta. La cuestión es si como sociedad estamos dispuestos a permitir que el Estado utilice cualquier herramienta a su disposición sin un marco legal robusto, sin controles y sin respetar los derechos más básicos. Permitirlo es abrir una puerta que, una vez cruzada, es muy difícil de volver a cerrar. Al final, el precio de caminar tranquilo por la calle parece ser, irónicamente, que te vigilen a cada paso. Un negocio redondo para quienes venden seguridad a cambio de libertad.