¿Gran Hermano en Córdoba también?

¿Gran Hermano en Córdoba también?
14 abril, 2022 por Redacción La tinta

Por Agustín Sigal para La tinta

En agosto de 2020, indagué por curiosidad en las implicancias de tener cámaras de vigilancia masiva en las calles de Córdoba. El año anterior, en octubre de 2019, poco antes de que un brote de neumonía de causas desconocidas se convierta en epidemia en Wuhan, China, y potencial pandemia, el Gobierno de Córdoba anunció la incorporación a la Policía de un móvil con cámaras de vigilancia y software de reconocimiento digital.

La tecnología, adquirida en Israel, es de AnyVision y cuenta con una base de datos de personas con algún tipo de restricción, buscadas por la Justicia. El logo de la empresa se observa nítidamente en las imágenes tomadas por las cámaras de Telefe Córdoba y El Doce de Córdoba (videos disponibles en Internet), cuando dieron a conocer la noticia. AnyVision es dirigida por ex militares y personal de inteligencia de Israel. Su cofundador y CEO es Eylon Etshtein, ex comandante de la Unidad de Reconocimiento de las Fuerzas de Defensa de Israel. El Presidente de la empresa es Amir Kain, ex jefe de Malmab, el Departamento de Seguridad del Ministerio de Defensa. Uno de los asesores es Tamir Paro, ex jefe del Mossad, la agencia de inteligencia israelí.

Al mismo tiempo que la Policía de Córdoba ostentaba la incorporación de estas nuevas tecnologías, organizaciones de derechos humanos y libertades civiles internacionales acusaban a AnyVision de colaborar con el gobierno israelí en un programa secreto de vigilancia masiva de palestinos en Cisjordania. A raíz de este conflicto, Microsoft retiró la inversión de 74 millones de dólares que había realizado en la mencionada startup, contrató una auditoría ética para la empresa y cambió su política de inversiones para otras empresas del rubro, por no adecuarse AnyVision a sus reglas éticas de reconocimiento digital.

Policía-patrullero-cámara-vigilancia-4
(Imagen: A/D)

Viernes 7 de agosto de 2020. La mañana está soleada, paso el plumero por la mesa de la galería. Antes de empezar, fumo caminando por el patio. El mate está listo, me ubico en posición. Primera entrevista, Verónica Arroyo es miembro de Access Now, una ONG internacional que reúne a activistas digitales en defensa de los derechos humanos y la Internet libre y abierta. Reside entre Lima y Córdoba. Ahora está en Lima. Es abogada, especialista en temas de antimonopolio, derechos en los medios y derechos humanos.

Al preguntarle sobre la vulneración de derechos que implica el uso de tecnologías de reconocimiento facial, Verónica responde:

—Partamos de la idea que habías comentado sobre la “rostridad”, la idea de culturas, de cómo nuestro rostro representa y da algo. Es muy importante partir de ahí, porque el siguiente paso es entender qué datos se obtienen de nuestro rostro. La tecnología con reconocimiento facial toma información de nuestras caras, captura distancias, formas. Esta información se conoce como datos biométricos, los cuales, en la nueva corriente de protección de datos personales, son datos sensibles.


¿Por qué sensibles? –pregunta Verónica a modo didáctico–. Porque son inherentes a la persona, la identifican, es algo particular de ella. Uno se expresa y vive a través del rostro. Con estas tecnologías, tu cara termina siendo el objetivo, el blanco de vigilancia, todo el tiempo. Y entonces deja de ser algo tuyo: pasa a ser de un proyecto de vigilancia de la ciudad.


Perdemos la presunción de inocencia –explica–, que significa decir: no voy a investigar sobre ti ni voy a estar yendo detrás de ti si es que no tengo una causa judicial en tu contra, si no tengo un pedido de un juez, si no tengo alguna evidencia concreta. Con las cámaras, eso no existe: todo el tiempo, tu cara es un objetivo.

El espacio público se transforma en una cámara Gesell. Todo el tiempo estamos vigilados. Todos somos sospechosos, objetivos en la mira del Gran Hermano. La entrevista se extiende sobre derechos vulnerados por invasión y falta de transparencia: el derecho a la privacidad, la libertad de movimiento, el derecho de protesta, el riesgo de espionaje y otros usos potenciales ligados a la discriminación, como la clasificación binaria de género.

—Pero más allá del derecho a la privacidad y la presunción de inocencia –pregunto, poniéndome en el lugar de “abogado del diablo”–, ¿cómo puedo trabajar con estos otros derechos si se trata de usos “potenciales” de la tecnología que no fueron anunciados por la Policía, la cual se justifica en el uso específico para la Justicia?

Si uno toma el uso específico de cámaras de vigilancia que están en las calles… –mi hija irrumpe en la escena abriendo la puerta de entrada que da a la galería. Mientras hago la entrevista, ve dibus en su compu pequeña. A veces se la oye hablando con “sus bebés”. Cuando se asoma en la pantalla, Verónica la descubre, sonríe, le cambia el rostro.

—¡Papá! –grita mi hija– ¡Dije que me des jugo! ¡Dame jugo!

—Bueno, así estamos en cuarentena –digo a la entrevistada–, haciendo malabares…

—¡Dame jugo! –repite mi hija gritando.

Verónica suelta otra risa.

—Aguantame –le pido a la entrevistada.

—Sí, no te preocupes.

Voy a servirle jugo a mi hija, le dejo en un taper dos galletitas de agua con queso. Ella vuelve a su posición para ver dibus. Yo también a la mía en la galería.

—Perdón, Verónica, ¿en qué estábamos?

—En el uso específico –retoma con fluidez–. Ahí, entonces, tenemos que enmarcarlo. ¿Qué es lo que está pasando? ¿En qué lugar y cómo está pasando? La posición de Access Now es clara: la tecnología para la vigilancia masiva es contraria a los derechos humanos porque generas un estado de vigilancia permanente, en el cual las personas no tienen el derecho de poder decir: “No, no quiero ser parte de todo este escenario de vigilancia”.

Luego, hablamos del escándalo de Facebook con Cambridge Analytica y del secreto a voces (sospechas no probadas) de las políticas de vigilancia de TikTok hacia la información subida por los usuarios, con la complicidad del gobierno de China.

Renglón seguido, le consulté su opinión sobre las campañas digitales, tales como el último “Challenge Accepted”, un reto viral de visibilización de las luchas feministas en el mundo, en donde el Instagram se colmó de fotos de rostros de mujeres en blanco y negro.

—Si bien en las redes –dije– hay movimientos muy interesantes desde el punto de vista político e ideológico, al mismo tiempo, me pregunto: ¿qué pasa con todos estos datos biométricos que se vuelcan gratuitamente en el espacio público virtual? ¿Esta información queda en manos de empresas monopólicas como Instagram, propiedad de Facebook? ¿Qué opinión te merece como activista digital y feminista?

—Me parece buenísimo que existan todas estas manifestaciones. Son formas de protesta, de alzar la voz por algo que está sucediendo. Ahora bien, ¿cuánta información estamos subiendo a la red? Finalmente, nosotros somos la principal fuente de información. El problema es que termina en manos de personas o empresas que pueden hacer uso de la misma de distintas formas –la abogada hace un silencio, cavila–. Me está viniendo a la mente la empresa Clear View, que ha utilizado fotos a través de la red para crear una base de datos de caras. Uno puede contratar su servicio, junto con el software de reconocimiento facial y la base de datos. Ya no tienes la base de datos de la Policía o del Estado, sino que ahora usas la base de datos de Clear View, con datos que extraen de las redes públicas. Actualmente, esta empresa está librando un proceso en Estados Unidos, justamente por esto. Lo importante es ver qué es lo que está pasando con el usuario, que da la información. Supuestamente, en las plataformas, existen políticas, opciones, niveles de privacidad. Pero hay un tema de transparencia: hasta dónde va, qué reglas son las que están usando las empresas. El año pasado, supimos que también Microsoft utilizaba las fotos de algunos de sus productos como bases de datos para entrenar su algoritmo de reconocimiento facial.

Al volver sobre el caso particular del móvil de vigilancia de la Policía de Córdoba, Verónica cuenta que, desde Access Now, realizaron un pedido de acceso a la información pública a la Provincia, en octubre de 2019. Hasta el día de hoy, no han recibido respuesta.

—Los gobiernos no están dando información clara de lo que están haciendo. No necesariamente porque no tienen voluntad de hacerlo, sino también porque no conocen, no tienen idea de lo que están implementando. El paso siguiente es entrar en un proceso judicial en donde uno cuestiona esta falta de transparencia.

Ante la última pregunta, la abogada da cuenta del tremendo control de las empresas monopólicas de redes sociales en el mundo, poderes más grandes que los de los Estados. Una de sus líneas de investigación se basa en entender cómo los posteos de los usuarios alimentan a los monstruos.

Policía-patrullero-cámara-vigilancia-3
(Imagen: A/D)

Sábado 8 de agosto. La tarde está templada. Esta vez estoy sin mi hija. Fumo mirando la nada en el patio. Apago el pucho, paso el plumero por la mesa. Con el mate preparado, me ubico en posición. Prendo la máquina y le mando el link del Meet al segundo entrevistado. Marcelo Vaiman es psicólogo. Se especializa en el enfoque Sistémico-Relacional. Es docente e investigador de la UNC. Ha desarrollado y validado, junto a otros investigadores del Instituto de Investigaciones Psicológicas, un conjunto específico de Argentina de expresiones faciales de emociones.

Al preguntarle sobre el estado de arte en el tema, Marcelo resume la historia de esta línea de investigación comenzando por Paul Ekman, psicólogo norteamericano, quien encontró que, en distintas culturas, más allá de las variantes del lenguaje, se reconocen seis emociones básicas: felicidad, tristeza, enojo, sorpresa, miedo y disgusto. Y luego una más, que puede traducirse como desprecio.

—A partir de allí, logran armar un Sistema de Codificación Facial –explica–, que hasta hoy tiene vigencia: el FACS (por sus siglas en inglés). La cara tiene un montón de músculos, que Ekman divide en “unidades de acción”. La combinación de las unidades de acción da lugar a la expresión facial de ciertas emociones. Hoy, a nivel mundial, existen programas de entrenamiento específico en FACS, donde te enseñan, en una semana intensiva, a reconocer las distintas emociones que expresa el rostro. Muchas veces, no se regulan las emociones que se expresan, más allá de que se las sienta y hasta se las quiera ocultar. La cara te delata, digamos.

Luego, se introduce en el área específica de la Psicología:

—Otros autores vieron que, en determinadas situaciones clínicas, hay dificultades para reconocer emociones en el rostro. Hay tres condiciones clínicas en donde esto está más marcado: en Alzheimer avanzado y algunos tipos de demencia; en algunas formas de psicosis, esquizofrenia; y en trastornos del espectro autista. Al no tener esa habilidad, se les dificultan las interacciones humanas, las respuestas empáticas.

—Lo que decías sobre emociones básicas me recuerda a las posibles reacciones en redes sociales –digo–. Por ejemplo, en Facebook, creo que hay seis o siete.

—Después, lo sofistican más: se habla de emociones secundarias –agrega Marcelo–. Algunas surgen de la combinación de otras, como la vergüenza y el orgullo. Estas investigaciones contribuyeron al estudio del lenguaje no verbal. Hay revistas científicas específicas sobre el comportamiento y el lenguaje emocional no verbal. Más del 60% de la comunicación humana es no verbal.

***

Miércoles 12 de agosto. Mi hija juega en la pieza. Voy a la galería y paso el plumero por la mesa. Me ubico en posición, tercera entrevista. Jorge Sánchez es doctor en Ciencias de la Ingeniería, docente de la UNC, Investigador Asistente de CONICET. Se especializa en Visión por Computadoras y Reconocimiento de Patrones.

El investigador da cuenta de aplicaciones comerciales en el área de reconocimiento facial, sin necesidad de identificación de las personas. Luego, pasa al tema de seguridad, que sí implica id-entidad:

—En sistemas de detección, como el caso de la Policía, hay una base de datos con identidades de las personas. Puede ser una foto o varias de la misma persona, para contemplar variaciones en el aspecto de esa persona. Y por cada detección que llega a tu sistema, la vas a tratar de poner en correspondencia con algunas de estas identidades que hay almacenadas. Ahí pueden suceder varias cosas, como suceden siempre en sistemas basados en aprendizaje automático, que es la disciplina que pone un paraguas a todos estos sistemas. En el caso ideal, si pasó una persona por la cámara, se la puede identificar o no. Entonces ocurren los errores, distintos tipos de errores.

—¡Papi, vení, por favor! –grita mi hija desde la pieza.

Jorge continúa explayándose sobre los “falsos positivos” de estos sistemas, las falsas alarmas, cuando una persona pasa por la cámara y el modelo la identifica incorrectamente; y los “falsos negativos”, en donde pasa una persona que se debía reconocer y no se reconoce.

—Estos errores suceden siempre, son inherentes a los sistemas basados en aprendizaje automático. Nunca vas a tener error nulo. Se utilizan modelos pesados que, con el hardware apropiado, pueden correr en tiempo real, con tasas de reconocimiento bastante altas. Pero no dejan de ser sistemas estadísticos.

—¿De qué porcentajes de error estamos hablando al 2020, en tiempo real, con métricas estándar?

—En general, los datasets tienen sesgos de recolección, con predominancia blanca. Y los balanceados, sin sesgo racial, tienen sesgos artificiales, que no se corresponden con la distribución real de razas y etnias. Además, los escenarios de aplicación son muy distintos a las condiciones de datasets públicos, de literatura. Por otro lado, las cámaras de vigilancia, por economía en la transmisión de datos, no tienen la misma resolución. Entonces, las altas tasas de compresión y bajas resoluciones de imágenes hacen que las imágenes en la vida real no sean del mismo tipo de imágenes de entrenamiento de estos modelos. Por ejemplo, los sistemas de AnyVision dicen que tienen precisiones del orden del 99,8%. Eso es cierto, medido en un dataset muy conocido, el Labeled Faces in the Wild, disponible en literatura. Pero ese 99,8% baja mucho en la práctica, en el mundo real. Puede llegar al 80% o 90%. No tenés forma de contemplar las condiciones en que se entrenan estos sistemas ni de caracterizar los escenarios reales en donde se van a utilizar.

***

Jueves 13 de agosto, cuarta y última entrevista. Leandro Ucciferri es abogado y analista de políticas públicas de la Asociación por los Derechos Civiles. En abril del 2019, llevaron adelante la campaña #ConMiCaraNo, por la implementación de un sistema de reconocimiento facial con 300 cámaras en simultáneo, rotando entre las más de 8.000 que hay en los subtes de la Ciudad de Buenos Aires. Uno de los casos que cuenta es el de un “falso positivo”, persona privada ilegalmente de su libertad durante seis días. Hablamos de los discursos dominantes de las leyes, la psiquis y el aprendizaje automático de las máquinas. La charla se extiende sobre aristas culturales, sociales y filosóficas del rostro, y la tristeza que genera esta “nueva normalidad” digitalizada.

Hoy, un año y medio después, leo en los diarios el caso de espionaje ilegal en CABA, donde el Ministerio de Seguridad porteño accedió irregularmente a los datos biométricos de millones de personas, con casi 10 millones de búsquedas. La Justicia suspendió el uso del sistema.

¿Cómo seguirá este tema en Córdoba ahora? ¿No debería la Provincia dar acceso a la información pública para que especialistas en la materia estudien las tecnologías de reconocimiento facial que están utilizando? ¿Cuál es el riesgo real de vigilancia masiva que tenemos?

—¡Papá! –grita mi hija desde el comedor–. ¿No querés que juguemos a las escondidas?

*Por Agustín Sigal para La tinta / Imagen de portada: Noti Online.

Palabras claves: cordoba, Policía de Córdoba, vigilancia

Compartir: