Diálogos

“Necesitamos mayor transparencia y más debate sobre el uso de las tecnologías de vigilancia teniendo en cuenta los enormes impactos negativos en las vidas de las personas”

Jamila Venturini y Michel Roberto de Souza

Entrevista con Derechos Digitales

Flabio Pasten

+ ARTICLES
0

Por Revista Sur

Derechos Digitales11. Para más información sobre la organización y su trabajo, visita: Derechos Digitales, Homepage, 2021, visitado el 16 de diciembre de 2021, https://www.derechosdigitales.org/. es una organización de alcance latinoamericano, comprometida con la defensa y promoción de los derechos humanos en el entorno digital, que trabaja en tres frentes principales: Libertad de expresión, Privacidad y Derechos de autor y acceso al conocimiento.

Para esta edición, el equipo de la Revista Sur tuvo la oportunidad de conversar con Jamila Venturini, codirectora ejecutiva, y Michel Roberto de Souza, director de políticas públicas de la organización. Nuestro principal interés, además de conocer los resultados de la investigación recientemente publicada por Derechos Digitales sobre casos de reconocimiento facial en América Latina22. Reconocimiento Facial, Homepage, 2021, visitado el 14 de diciembre de 2021, https://reconocimientofacial.info/. era escuchar, a partir de argumentos e información de una organización especializada en el tema y con foco en la región, las razones del rápido aumento del uso de tecnologías de vigilancia y reconocimiento facial y los riesgos resultantes para los derechos humanos.

Las cuestiones abordadas en este diálogo incluyen, por ejemplo, las legislaciones local e internacional; relaciones económicas y políticas entre fabricantes, proveedores y compradores; detalles de la aplicación de esas tecnologías en diferentes contextos en el continente; el impacto de la pandemia de Covid-19 en la legitimación de mayor vigilancia aplicada al control del espacio público y privado; la profundización de la discriminación racial y migratoria; así como los principales desafíos para la región en términos de garantía del derecho a la privacidad, autonomía y acceso a la información de la ciudadanía.

• • •
01

Revista Sur • En los últimos años hemos observado un panorama de avance de las tecnologías de vigilancia en los países del Sur Global. ¿Qué análisis hacen de este escenario?

Jamila Venturini • Nuestra preocupación con la vigilancia y la privacidad en el contexto digital está muy ligada a la constatación de que las tecnologías se unen a un histórico de abusos contra los derechos humanos y criminalización de grupos que manifiestan su oposición a las estructuras de poder establecidas en América Latina. Ellas pueden, por un lado, facilitar la intrusión en comunicaciones privadas y, por otro, permitir el acceso a informaciones que hasta entonces no estaban disponibles para las autoridades policiales o gobiernos autoritarios. Un ejemplo son los metadatos, o sea, los “rastros” que dejamos en cada interacción con dispositivos digitales. Incluyen la geolocalización, horarios y duración de la conexión a internet o acceso a determinada página o plataforma etc., y son capaces de revelar hábitos individuales íntimos y sensibles sobre dónde y con quién vivimos, nuestra red de contactos, intereses y pensamientos, nuestros periodos de sueño… Infelizmente, hay una serie de ejemplos de abusos en relación al uso de ese tipo de información, por parte del sector público o por empresas.

Junto a una serie de desarrollos legislativos que buscan facilitar el acceso gubernamental a informaciones privadas recogidas por empresas proveedoras de los más variados tipos de tecnologías, observamos el creciente interés regional por la compra de sistemas de vigilancia. Además de registrar lo que ocurre en espacios públicos o semipúblicos, buscan extraer aún más información de comportamientos humanos o forzar el acceso a dispositivos, como es el caso de los sistemas biométricos − como los de reconocimiento facial − y softwares maliciosos, también conocidos como malware.

Este interés proviene en gran medida de una percepción de que las tecnologías van a solucionar problemas sociales. En el ámbito de la seguridad pública, esa retórica defiende tanto la compra de las más variadas tecnologías, como reformas en el ámbito normativo que permitan su utilización. Cabe señalar que América Latina es una región principalmente consumidora de tecnologías extranjeras y no se destaca por la producción local. En este sentido, hay una gran preocupación sobre cómo los países latinoamericanos se vuelven un mercado privilegiado para los fabricantes y distribuidores de tecnologías de vigilancia, especialmente cuando los controles aumentan en otras regiones del mundo.

Sur • ¿Cómo se ha desarrollado el debate sobre el vigilantismo en relación a la situación brasileña?

JV • En Brasil sabemos cómo está avanzando este tipo de tecnología en las pequeñas ciudades, en espacios públicos diversos de manera rápida y con poquísima transparencia. La forma como la ciudadanía termina sabiendo que están ocurriendo estas cosas es cuando llegan a la prensa o cuando se identifica una compra pública de cámaras, por ejemplo, por medio de un proceso de licitación. En todos los casos, cuando ya es demasiado tarde y la compra o adopción de esas tecnologías ya está avanzada. Eso en un país que tiene una historia de autoritarismo y abusos. Los avances legislativos y normativos existentes no necesariamente cubren las garantías necesarias para poder usar ese tipo de tecnología de manera alineada con los compromisos de derechos humanos asumidos por Brasil. No es un debate sencillo, y son necesarios criterios muy específicos sobre cómo las tecnologías de vigilancia serán utilizadas y los límites para esa utilización.

Michel Roberto de Souza • Es relevante también mencionar a la prensa y los periodistas, que tienen un historial de censura y persecución en la región. Hemos vistos muchos ejemplos en donde el patrullaje del Estado comienza en el ámbito digital, lo que llamamos ciberpatrullaje,33. "Los jueces de la verdad, el mar de mentiras detrás del ciberpatrullaje del Estado", Fundación para la Libertad de Prensa, 29 de octubre de 2021, visitado el 14 de diciembre de 2021, https://flip.org.co/index.php/es/informacion/pronunciamientos/item/2817-los-jueces-de-la-verdad-el-mar-de-mentiras-detras-del-ciberpatrullaje-del-estado. con recopilación de informaciones de varias fuentes, incluso abiertas, en internet, cuya motivación y fines son, en la mayoría de los casos, cuestionables, pues contribuyen a estigmatizar periodistas, activistas y defensores de los derechos humanos con opiniones distintas del gobierno que está en ese momento en la administración. Se hacen búsquedas en las redes sociales, con acceso al teléfono y aplicativos de espionaje, como en el reciente caso de Pegasus. Queda muy claro que esa violación de los derechos comienza en el ámbito digital, pero eso va a parar en el ámbito físico. Y las tecnologías acaban aumentando las posibilidades de persecución. Por eso es importante la cuestión de los rastros dejados en internet, de la necesidad de criptografía de punta a punta, entre otras cuestiones para la protección de los derechos humanos.

En el caso del reconocimiento facial en locales públicos, eso está elevado a la enésima categoría. Con esa tecnología es posible saber quién es aquella persona, las características de sus movimientos, saber con quién está hablando. Son diversas informaciones, y muchas extremadamente sensibles, incluso en espacios públicos, que son recogidas por cámaras muchas veces escondidas. Eso sin mencionar los graves problemas relacionados a la discriminación y los falsos positivos, además de la posibilidad de cruce de datos del ciudadano con otras y diversas bases de datos.

Vemos esta tendencia en toda América Latina, del Estado querer tener más datos de los ciudadanos. Se crean bancos de datos gigantescos, y con el reconocimiento facial simplemente esos datos son tomados y cruzados con los datos de la calle, de los metros, del día a día, lo que genera una enorme cantidad de informaciones sobre todo el mundo. ¿Pero quién es todo el mundo? Es el periodista, es el activista de derechos humanos, es quien va a protestar en la calle, las mujeres, personas transexuales, niños y adolescentes, en fin… Hay muchos riesgos, pudiendo haber amenazas a la reunión pacífica, al propio derecho a la protesta – es posible saber quién está protestando, pues es muy fácil identificar y hacer ese cruce −, amenazas a la libertad de movimiento y circulación también, a la presunción de inocencia, de no ser considerado culpable y no ser investigado sin un debido proceso legal. Este uso de la tecnología suscita cuestionamientos muy graves también sobre la privacidad, intimidad y protección de datos.

02

Sur • ¿De qué forma ocurre esa exposición de datos e informaciones y cuál es su relación con las prácticas discriminatorias?

MRS • Esos datos que son recopilados en un sistema de reconocimiento facial son datos biométricos sensibles y almacenados en algún lugar. Pero es preciso preguntarse, ¿cómo es ese almacenamiento? ¿Quién tiene acceso? ¿Qué datos son cruzados? ¿Qué bases de datos pueden ser utilizadas? ¿Puede haber algún riesgo en relación a la seguridad? Vimos recientemente una organización de México, la R3D, que informó sobre un caso de grave vulnerabilidad de esas cámaras de seguridad, con la posibilidad de que sean invadidas de una forma muy fácil.44. "Descubren vulnerabilidades en cámaras de videovigilancia de Dahua", Red en Defensa de los Derechos Digitales, 11 de octubre de 2021, visitado el 14 de diciembre de 2021, https://r3d.mx/2021/10/11/descubren-vulnerabilidades-en-camaras-de-videovigilancia-de-dahua/. Así pues, tenemos un Estado que es supervigilantista, pero esta propia vigilancia tiene fallas gigantescos de seguridad que exponen todavía más a la ciudadanía, sin contar con los cuestionamientos sobre la legalidad de ese supervigilantismo.

Hay graves riesgos a la libertad de expresión, de censura, con un efecto perceptible por el enfriamiento del debate público y la autocensura, porque la persona sabe que ella está siendo vigilada. Eso está muy claro en relación a los periodistas y personas defensoras de derechos humanos. Hay la dificultad, por ejemplo de hacer investigaciones, de mantener contactos con las fuentes de información, porque todo va a estar en ese ambiente de vigilancia. Además de las cuestiones de discriminación, que están ocurriendo en el mundo de forma muy incisiva debido principalmente a los fallos de esas tecnologías a la hora de lidiar con personas que no son hombres blancos. O sea, básicamente a la hora de lidiar con mujeres, con personas de piel oscura y con niños también. Hay varios problemas relacionados a la discriminación, con detenciones arbitrarias e ilegalidades. Y cuestiones de migración, pues sabemos que cada vez más los inmigrantes están siendo vigilados de varias formas, que los Estados han estado utilizando las más variadas tecnologías con fines de vigilancia.

Hemos discutido mucho sobre cómo la tecnología ha sido utilizada para desplazar a las personas migrantes, incluso con casos graves de acceso a los teléfonos móviles y las redes sociales, entre otros abusos. Y los casos no se limitan a las regiones de frontera, también incluyen casos de reconocimiento facial en las ciudades para saber dónde están los migrantes, con quien están hablando, si están en situación legal en el país o no.

Así pues, hay serios riesgos relacionados a la tecnología en un sentido más amplio, pero también al reconocimiento fácil en un sentido más estricto. La utilización de herramientas como la llamada inteligencia artificial ha venido siendo muy debatida en términos de utilización de la tecnología, el tecnosolucionismo, en el sentido de que la IA podría ser utilizada y puede ser buena para todo, desde la tarea más simple hasta la más complicada. El reconocimiento facial también hace uso de una inteligencia artificial, por eso están conectadas.

Sur • Pensando en América Latina, ¿cuáles serían las contradicciones identificables en relación a la valoración de las herramientas tecnológicas de vigilancia y el cercenamiento de libertades individuales y colectivas, por ejemplo?

JV • Son muchas las contradicciones que observamos en esta región, que es muy diversa incluso en lo que respecta a cómo se usan esas tecnologías de vigilancia. Un primer punto a destacar es que la vigilancia persiste en su carácter más arcaico, con agentes persiguiendo opositores políticos en determinados países, y alcanza elevados niveles de refinamiento, con la instalación de antenas de captación de comunicaciones, cámaras de reconocimiento facial o la instalación de software malicioso. Este tipo de estrategia ha sido utilizada contra periodistas, movimientos sociales y personas defensoras de derechos humanos con el objetivo de silenciar, criminalizar y perseguir a esos grupos.

Un segundo punto está relacionado a la pregunta, que ya es casi un cliché, “¿Quién vigila al vigilante?” Por un lado, observamos una tendencia creciente en la recopilación de datos de la ciudadanía por parte de los Estados; por otro, hay un intento de cerrar cada vez más las posibilidades de acceso a la información pública y varias limitaciones con respecto a las iniciativas de transparencia pública. Eso quedó evidenciado durante la pandemia: mientras los gobiernos lanzaban sus estrategias basadas en la recopilación de datos sensibles sobre flujos de movimientos y condiciones de salud, buscaban al mismo tiempo restringir el acceso a la información por parte de la ciudadanía sobre las acciones del propio Estado. Esto fue muy evidente en el caso brasileño y es totalmente inaceptable. Cualquier acción estatal que pueda resultar en una limitación al ejercicio de derechos fundamentales debe ser acompañada, entre otras, de estrictas medidas de transparencia, como señalan varios órganos y autoridades internacionales de derechos humanos.

Finalmente, es importante reconocer que la vigilancia también tiene lugar de manera desigual en las sociedades y está dirigida de manera diferenciada hacia determinados grupos. Cuando se propone instalar cámaras de reconocimiento facial en el metro, por ejemplo, o en cualquier medio de transporte público, esto alcanza a las personas que usan el transporte público, y no a aquellas que cuentan con otras opciones. Esa discusión no es nueva, pero es siempre importante subrayarla. La vigilancia afectó y afecta a las poblaciones que históricamente fueron más marginadas y, con el auxilio de nuevas tecnologías como la inteligencia artificial, ella puede reforzar las desigualdades. Ya estamos viendo en la región como ciertas tecnologías son utilizadas para legitimar intervenciones estatales en contextos de gran vulnerabilidad. En Argentina y en Chile, por ejemplo, ya se busca utilizar sistemas para “prever” situaciones como embarazo en la adolescencia, abandono escolar, entre otras, a partir de la recopilación y cruce de una serie de informaciones personales. En otros países, propuestas de utilizar vigilancia policial predictiva − extremamente cuestionadas en el ámbito internacional – están siendo testadas.

03

Sur • ¿Cuál es su percepción en relación a la normatividad y su capacidad de limitar la acción perversa de las tecnologías de vigilancia?

JV • Los escenarios varían dependiendo del país y de la tecnología en cuestión. Una cosa es hablar sobre interceptación telefónica y telemática,55. Sobre el tema en Brasil, ver: Jacqueline de Souza Abreu y Dennys Antonialli, "Vigilância sobre as comunicações no Brasil: interceptações, quebras de sigilo, infiltrações e seus limites constitucionais". InternetLab, 2017, visitado el 14 de diciembre de 2021, https://www.internetlab.org.br/wp-content/uploads/2017/05/Vigilancia_sobre_as_comunicacoes_no_Brasil_2017_InternetLab.pdf. y hay una serie de criterios muy estrictos que deberían ser seguidos en términos de procedimiento para que ocurran de la forma menos intrusiva posible y en casos muy específicos y limitados. En este sentido existe mayor consenso y más reglas establecidas que podrían ser extrapoladas a otras prácticas, como el ciberpatrullaje, la rotura de criptografía, entre otras. La videovigilancia y el reconocimiento fácil, a su vez, son formas de vigilancia en masa, y existen muchos cuestionamientos sobre hasta qué punto son compatibles con el marco de derechos humanos existente que está fundamentado en criterios de legalidad, necesidad y proporcionalidad.66. Sobre el tema, de forma general, a partir del caso de Chile, ver: María Paz Canales CANALES y Juan Carlos Lara, "Propuesta de estándares legales para la vigilancia en Chile". Derechos Digitales, 2018, visitado el 14 de diciembre de 2021, https://www.derechosdigitales.org/wp-content/uploads/propuesta-estandares-legales-vigilancia-chile.pdf.

Existe un amplio debate internacional sobre la legitimidad de la compra y venta de tecnologías de vigilancia y la necesidad de una moratoria o prohibición de este tipo de negocio, tanto a causa de la fragilidad institucional de los países compradores, como debido a la falta de las empresas productoras de garantizar que estas no generan riesgos a los derechos humanos. Sobre esas empresas recae la responsabilidad de garantizar que las tecnologías que producen son seguras, no generan riesgos excesivos a los derechos humanos y no son ofrecidas a gobiernos autoritarios.

Sin embargo, debido al avance de estas tecnologías de forma indiscriminada en la región, incluso en ausencia de normas específicas, es necesario pensar en cuáles son las reglas necesarias para conseguir mitigar riesgos, así como para garantizar que haya instancias de revisión y de supervisión con participación democrática.

MRS • Cómo, dónde y con qué herramientas reglamentar son cuestiones que todavía están abiertas, aunque tenemos algunas pistas. Michelle Bachelet, Alta Comisaria de Derechos Humanos de la ONU, publicó en los últimos meses un informe muy preciso e importante que señalaba los altos riesgos del uso de tecnologías de inteligencia artificial para la sociedad y pidió una moratoria en la utilización de ese tipo de tecnología hasta que los Estados consigan cumplir una serie de requisitos de respeto a los derechos humanos,77. “Cuanto mayor el riesgo a los derechos humanos, más rígidos deben ser los requisitos legales para el uso de la tecnología IA (...) Pero dado que la evaluación de los peligros y de cómo superarlos aún puede llevar un tiempo, los estados deben implementar moratorias sobre el uso de tecnologías que presentan un algo potencial de riesgo” ("Los riesgos de la inteligencia artificial para la privacidad exigen medidas urgentes", ACNUDH, 21 de septiembre de 2021, visitado el 14 de diciembre de 2021, https://www.ohchr.org/SP/HRBodies/HRC/Pages/NewsDetail.aspx?NewsID=27469&LangID=S). teniendo en cuenta el diseño, desarrollo y uso de esa tecnología, de principio a fin. Ese acompañamiento es extremamente necesario.

Sur • ¿Cuáles son los principales desafíos en términos de derechos humanos, privacidad y seguridad, que el reconocimiento facial como estrategia de vigilancia y control impone a las organizaciones de derechos humanos en América Latina?

MRS • Muchas veces nos cuesta entender cómo funcionan las tecnologías y cómo están siendo aplicadas, pues estamos hablando de contextos extremadamente opacos. No se sabe quién las hace, cómo las hace o cuál es la ley que las legitima. Estas tampoco tienen una finalidad específica, en contextos en que no hay ninguna participación social. Parece una cuestión meramente administrativa, del día a día, y por eso se entiende que no sería necesario oír a la población, no sería necesario oír a las personas que van a ser impactadas, que el propio debate sobre el impacto no sería necesario. Pero es justamente lo contrario: necesitamos mayor transparencia y más debate sobre el uso de tecnologías de vigilancia teniendo en cuenta los enormes impactos negativos en la vida de las personas. Ante esa opacidad, por ejemplo, en el tema del reconocimiento facial, Derechos Digitales publicó y mantiene un sitio web88. Reconocimiento Facial, Homepage, 2021. y recientemente llevó a cabo una investigación junto con el consorcio Al Sur, que reúne a 11 organizaciones de América Latina, e identificamos cerca de 40 iniciativas con utilización reconocimiento facial en la región. En Brasil, fueron identificadas 4 o 5 iniciativas, pero sabemos que existen muchas más.99. Jamila Venturini y Vladimir Garay, "Reconocimiento facial en América Latina: tendencias en la implementación de una tecnología perversa". Al Sur, 2021, visitado el 14 de diciembre de 2021, https://www.alsur.lat/sites/default/files/2021-10/ALSUR_Reconocimiento facial en Latam_ES_Final.pdf. Así pues, la propia existencia de este tipo de tecnología vigilantista ya es un enorme desafío.

Estudios más recientes de otras organizaciones demuestran desafíos que son gigantescos en la adopción de tecnologías sin el debido cuidado en respetar los derechos humanos. En Brasil, hay organizaciones que están observando como el reconocimiento facial interfiere en derechos de personas trans, por ejemplo. Coding Rights llevó a cabo ese estudio, y son investigaciones extremadamente importantes porque están ofreciendo otra perspectiva de los problemas e impactos negativos de la utilización de esa tecnología.1010. Mariah R. Silva y Joana Varon, "Reconhecimento facial no setor público e identidades trans: tecnopolíticas de controle e ameaça à diversidade de gênero em suas interseccionalidades de raça, classe e território". Coding Rights, 2021, visitado el 14 de diciembre de 2021, https://codingrights.org/docs/rec-facial-id-trans.pdf.

Es importante cuestionar, lograr más transparencia. Pero cuando planteamos preguntas al poder público simplemente no tiene respuestas, solo una idea de que va a solucionar alguna cosa, resolver algún problema o varios problemas a la vez, que eso va a ser bueno para la seguridad pública, que va a reducir la criminalidad, pero no sabe cómo de hecho esa tecnología va a solucionar el problema. En los foros internacionales, la propia ONU recientemente revisó la resolución sobre la privacidad en la era digital, señalando los riesgos del uso de tecnologías biométricas y de inteligencia artificial. Del mismo modo, la UNESCO aprobó un acuerdo sobre inteligencia artificial intentando plantear algunas interrogantes, incluso recalcando la necesidad de la utilización de la evaluación de impacto ético (ethical impact assessment).1111. "Unesco adota acordo histórico sobre valores e princípios da inteligência artificial", ONU News, 26 de noviembre de 2021, visitado el 14 de diciembre de 2021, https://news.un.org/pt/story/2021/11/1771822.

04

Sur • ¿Cómo funciona la concienciación dirigida a los públicos directamente afectados y como han sido pensadas las estrategias y ese diálogo de la propia sociedad civil organizada?

JV • Como comenté antes, generalmente la sociedad civil se entera de la existencia de esas tecnologías cuando ya es demasiado tarde, o sea, cuando el proceso de compra ya está en marcha. Así, una alternativa de acción involucra el cuestionamiento judicial buscando detener la implementación y obtener información.

Hay una serie de casos en los que observamos, en ese estudio que fue realizado, por ejemplo, que hay una gestión administrativa muy precaria. Así, el hecho de tener esta limitación en cómo se presenta la discusión dentro de un marco de derecho humanos refleja un poco esas dificultades que hemos mencionado. Y no necesariamente eso es exclusivo de las tecnologías de vigilancia o de los sistemas de reconocimiento facial, pues estamos en un momento de retroceso muy grande en relación a la agenda de derecho humanos en la región, Pero, sí, todavía hay mucho por hacer con respecto a cómo entendemos esos criterios de legalidad, necesidad, proporcionalidad cuando se trata de sistemas de reconocimiento facial y de tecnologías de vigilancia.

Hay un desafío en este sentido, pero, al mismo tiempo, el gran esfuerzo de concienciación necesita, en este momento y mientras estas tecnologías avanzan de esta forma tan intensa, estar puesto en las personas que llevan a cabo la gestión pública, en quien está lidiando con las contrataciones, quien está lidiando con las decisiones, en los formuladores de políticas públicas y en el Poder Judicial para hacer el control efectivo de cómo son implementadas. Porque estamos hablando de algo que escapa al debate legislativo.

El debate llega después del avance administrativo de esas tecnologías y, muchas veces, incluso, después de su cuestionamiento judicial. En cuanto sociedad civil, también es importante entender estas tendencias e intentar mapear lo que está ocurriendo, donde están siendo implementadas, cuáles son las empresas que están intentando impulsar eso, porque ahí es posible encontrar también otras estrategias, otras formas de reaccionar, incluso fuera de la región, por ejemplo, en los países de origen de esas empresas, en otros tipo de foro. Todavía existen desafíos, y una preocupación urgente es cómo nos apropiamos de ese debate en cuanto organizaciones de derechos humanos, cómo reaccionamos a esas iniciativas, que tipo de argumentos vamos a aportar… Hay mucho desconocimiento, y estamos observando, lamentablemente, intentos de utilizar o apoyar tecnologías de ese tipo provenientes hasta de organizaciones de la sociedad civil. Necesitamos continuar trabajando en conjunto para tener una comprensión común y, en el siguiente paso, junto a formuladores y formuladoras de políticas públicas. Por supuesto, conquistar la opinión pública es un objetivo, pero el desafío es mucho mayor también en relación a cómo nos movilizamos socialmente a favor de los derechos humanos de manera más amplia.

MRS • El debate está saliendo un poco del nicho de quien lidia con tecnología. Las preocupaciones han ido cada vez más a la sociedad civil de una forma amplia y a quien está lidiando con los temas diariamente. Por ejemplo, a quien está lidiando con los temas del racismo, derechos de los niños y adolescentes, migración, libertad de prensa y con otros temas. Se está creando un caldo de la sociedad civil en relación al tema del reconocimiento facial en concreto, pero también en relación a la utilización de otras tecnologías para fines de vigilancia. Pero falta todavía una percepción de que eso de hecho es un riesgo y un problema de derechos humanos. Y ese es el primer momento, identificar eso como un problema en las más diversas áreas de la sociedad civil, para después conseguir influenciar e intentar hacer litigios estratégicos que tengan más participación de varios actores.

La participación social necesita ser fomentada en las más diversas áreas. Yo, en tanto abogado que lidia con tecnología, derechos humanos y litigio, veo la cuestión de la tecnología de una forma determinada. Ahora, cuando un periodista, o una asociación de periodistas, están lidiando con la cuestión de la tecnología, la están viendo de una forma distinta. Hay una riqueza inmensa en ese intercambio de conocimiento. En algunos países la percepción del uso de esas tecnologías como un problema es muy evidente, como en México, con todos los ataques que están ocurriendo allá y la importancia de comprobar como la tecnología ha sido utilizada para violar derechos. Eso va exponiendo y creando posibilidades de defensa por parte de la sociedad civil ante un momento de ataque, como una resistencia necesaria.

Sur • A partir de la investigación que ustedes desarrollaron, ¿cómo ven la relación entre los países que están produciendo esas tecnologías y los países de América Latina, y como actúa ese lobby, principalmente en la cuestión de la seguridad pública, que es una de las áreas en que tal vez están siendo más utilizadas?

JV • Lo que hicimos fue un mapeo. Identificamos, por ejemplo, que hay empresas internacionales actuando en la región de distintas formas. Hace muchos años, según nuestro mapeo desde los años 1990, que existen acuerdos de diversos países con esas empresas. Y generalmente también hay revendedores locales de esos sistemas internacionales. Otra situación que observamos, y ya era una hipótesis nuestra, involucra empresas chinas. Tienen otra forma de actuación en cuanto que ellas ofrecen los servicios y, al mismo tiempo, el Estado chino ofrece financiación para la contratación de esos servicios. Es casi como si fuese una donación de servicio. También está la situación de tener un coste económico o reducido.

Y luego cuando pensamos en reconocimiento facial, hay varios proveedores involucrados, desde los de infraestructura, de telecomunicaciones etc. Desde empresas nacionales hasta internacionales. Es interesante observar como las empresas internacionales están operando con apoyos y contratos millonarios en la región, en el caso más evidente, las empresas chinas prohibidas de operar en algunos países con sospechas graves de implicación o de utilización de sus sistemas en contextos de violación de derechos humanos. En México, específicamente, encontramos esos casos. Por otro lado, el hecho de que sea una cadena tan compleja vuelve aún más difícil identificar todos esos agentes y las funciones de cada uno.

De este modo, cuando pensamos en el lobby y cómo las empresas actúan aquí, una cuestión es: parece existir una diferencia entre cómo ellas operan en sus países de origen y cómo ellas operan en la región, no necesariamente en relación al reconocimiento facial. El año pasado, varias empresas declararon que no venderían sus tecnologías de reconocimiento facial a policías. Pero cuando se intenta entender mejor esta declaración, a veces, ella está limitada a un alcance nacional. Por ejemplo, en Estados Unidos, en el contexto [del movimiento] Black Lives Matter diversas empresas, como Amazon, IBM y Microsoft, entre otras, declararon que no iban a vender sus sistemas, pero no queda tan claro si no serían vendidos globalmente, si dejarían de ser vendidos solo allá, para quien no serían vendidos, por cuánto tiempo… Son las limitaciones de ese tipo de medida proactiva. Entonces un gran desafío es entender como esas empresas se ven globalmente. Otro desafío, cuando se trata de empresas de vigilancia, tiene que ver con hasta qué punto existen mecanismos de solicitación de prestación de cuentas por parte de esas empresas y hasta qué punto han sido efectivas esas medidas. Conseguimos tener un poco esa dimensión, sin tanta evidencia de lobby, pero sabemos que muchas veces son relaciones directas que tienen lugar en el ámbito administrativo entre vendedores y compradores.

Derechos Digitales es miembro de una organización global que se llama Global Network Initiative (GNI), compuesta de varias partes interesadas (multistakeholder) y que reúne empresas, organizaciones de la sociedad civil y el mundo académico que tratar de resistir obligaciones impuestas por Estados específicos y que son abusivas con respecto a la privacidad y libertad de expresión. Estas cosas van a variar mucho en relación a lo que se está discutiendo normativamente, cual es el sector de la empresa y sin duda también en relación al país. Cuando se trata específicamente de reconocimiento facial, como no existe un debate legislativo tan fuerte, las formas de influencia vienen de otros lados.

MRS • Algunas empresas ya declararon que no van a utilizar esas tecnologías y que se autoimpusieron, digámoslo así, una moratoria con respecto al reconocimiento facial. Pero, al mismo tiempo, quieren una reglamentación. El discurso es que sería necesario reglamentar de alguna forma para evitar riesgos mayores a los derechos humanos. La verdad es que eso es un gran mercado, mundial y billonario, de seguridad pública, pero también el mercado del reconocimiento facial y del vigilantismo en general. Sabemos que hay muchas empresas haciendo lobby legislativo, pero es difícil saber quiénes son, cuáles son los intereses y los argumentos que están planteando. Esta dificultad aumenta cuando pensamos en un contexto más local, por ejemplo, en escuelas y en proyectos de ciudades inteligentes. Saber de hecho quien está haciendo lobby es difícil. Tenemos algunos indicios, algunas suposiciones…

05

Sur • ¿Cuáles son las perspectivas futuras para ese debate?

JV • Hace algunos años imaginábamos que podríamos estar, en este momento actual, con una agenda positiva y propositiva en relación al uso de tecnologías. Esa agenda existe y persiste, continúa estando en el centro de nuestras preocupaciones. Pero estamos viviendo un momento de muchos desafíos, de mucho retroceso, que puede ser agravado por esas tecnologías de vigilancia, lo que hace con que tengamos que movilizarnos cada vez más para resistir con respecto a ellas y para intentar concienciar sobre los riesgos que conllevan. A veces, podemos sentirnos un poco tecnofóbicos, para adoptar el extremo opuesto al tecnosolucionismo, pero buena parte de los esfuerzos que necesitan ser hechos en este momento, en que muchas de esas tecnologías tienen un gran atractivo en la sociedad, en diferentes sectores, en los Estados etc., es intentar desnaturalizar algunos presupuestos por detrás del uso de esas tecnologías. Considero que es fundamental una visión crítica para establecer las bases del diálogo sobre lo que queremos del uso de las tecnologías, lo que queremos de las normas que van a regular usos que eventualmente sean necesarios, que sean específicos, incluso en el ámbito de las investigaciones. Como dije al comienzo, existen situaciones en que será necesario eventualmente recurrir a determinadas tecnologías y determinadas informaciones, pero eso necesita estar muy limitado. Infelizmente, lo que percibimos como tendencia es lo contrario, es un intento de liberar al máximo esos usos y ese acceso.

Por eso, estamos en este momento de defensa de nuestros derechos más fundamentales, sabiendo que, cuando se habla de privacidad, hablamos de un derecho que es instrumental para diversos otros derechos. Así que es importante entender eso: no se trata simplemente de un derecho individual, de mi derecho a no ser incomodada en mis comunicaciones, se trata básicamente de mi posibilidad de interactuar y desarrollarme con autonomía, de expresarme con libertad. Y con eso también permitir que la sociedad como un todo pueda tener acceso a una serie de otras informaciones, y de visiones sobre el futuro, sobre la realidad. Las cosas están muy interconectadas, estamos hablando de cosas que también afectan cuánto nuestra democracia puede florecer o no, y no solo de cuestiones individuales. Y es fundamental traer eso de vuelta a la conversación.

***

Entrevista conducida por el equipo de la Revista Sur en noviembre de 2021.

Original en portugués.

Jamila Venturini - Brasil

Codirectora Ejecutiva (Derechos Digitales)

Recibido en Noviembre de 2021.

Original en portugués. Traducido por Sebastián Porrúa.

Michel Roberto de Souza - Brasil

Director de Políticas Públicas (Derechos Digitales)

Recibido en Noviembre de 2021.

Original en portugués. Traducido por Sebastián Porrúa.