La cara y cruz de las tecnologías de análisis de datos: ¿herramientas para el bienestar o amenazas a la privacidad?

Introducción

A nivel global, el quehacer cotidiano de las personas se ha visto influenciado de manera progresiva por la afluencia de información. Constantemente se crean nuevas formas de obtener y procesar información que previamente no eran posibles; la globalización y la revolución de la información son dos fenómenos que han impactado profundamente en las estructuras sociales, políticas y jurídicas. Las nuevas tecnologías de análisis de datos a gran escala han producido una enorme cantidad de información que permite una multiplicación exponencial de posibilidades trayendo consigo un impacto profundo tanto en la sociedad como en la organización del Estado.

La creciente necesidad de extraer valor y conocimiento del dato está permitiendo a la industria tecnológica dar grandes pasos; un estudio del Massachusetts Institute of Technology 1 mostró que las empresas que usan un sistema de toma de decisiones basado en el análisis de datos gozan de un aumento de entre un 5 y 6% en su productividad; por citar algunos ejemplos, en el campo de la salud el análisis de datos han sido utilizados para descubrir efectos secundarios de distintos fármacos y para mejorar la atención a pacientes; en el sector comercial ha traído beneficios en el manejo de inventarios, administración de suministros, manejo de flujo de tráfico y pagos; en el ámbito de la educación ha contribuido a identificar alumnos en riesgo e implementar mejores sistemas de evaluación.

Aprovechar el potencial de la información para mejorar los negocios y los servicios se ha convertido en un reto de nuestro tiempo, un desafío que está motivando el desarrollo de nuevas herramientas de analítica cada vez más complejas relacionadas con la inteligencia artificial, con nuevos servicios e infraestructuras digitales.

A partir de estos beneficios, personas, gobiernos y organizaciones están revolucionando sus modelos de operación y/o de negocio basados en pautas algorítmicas alimentadas de datos que circulan en la red, incluidos los datos personales; consecuentemente, los datos de carácter personal se han convertido en un activo primordial en muchos procesos no solo de tipo empresarial sino también en aquellos que se relacionan con el ejercicio de gobierno a través de la administración del sector público, adquiriendo un valor estratégico, pues a través de su uso masivo e intensivo es posible generar perfiles, automatizar servicios, predecir comportamientos, establecer comunicaciones y buscar beneficiarios y/o usuarios potenciales.

Pero en el campo de la analítica no basta con estudiar los datos adecuadamente, también hay que gestionar bien cómo se elaboran, consumen y comparten a fin de ponerlos al servicio de los seres humanos y no en detrimento de sus derechos; a medida que el uso de la inteligencia artificial y otras herramientas basadas en algoritmos, ganan terreno para reemplazar la toma de decisiones humanas, los cuestionamientos y debates éticos y legales en torno a las responsabilidades que asume cada uno de los actores y los riesgos inherentes a su aplicación han ido en aumento, pues tras un sistema automatizado podrían enmascararse actos de discriminación, violaciones a la seguridad y la privacidad o ilegalidades debajo de variables algorítmicas basadas en supuestos factores objetivos.

Las tecnologías de análisis de datos: ¿herramientas para el bienestar o amenazas a la privacidad?

Cuando hablamos de Tecnologías de Análisis de Datos o Data Analytics nos referimos a un tipo de tecnología intelectual que hace posible prever las decisiones a partir de un sistema de preferencias obtenido por medios algorítmicos, cálculos matemáticos y estadísticos, en cuyo ecosistema conviven: la seguridad, el riesgo y la incertidumbre y los flujos de información sin fronteras; su materia prima -los datos- son esenciales para tomar decisiones y al mismo tiempo son la fuente para exigir responsabilidades.

En estas tecnologías, lo esencial del valor de los datos es su potencial de reutilización aparentemente ilimitado; recopilar la información resulta crucial, pero no es suficiente, ya que la mayor parte del valor de los datos se halla en su uso, no en su mera posesión.

En un mundo ideal, el progreso tecnológico debería ser el instrumento más adecuado para el desarrollo humano y la superación de las desigualdades sociales. Como menciona la Organización de las Naciones Unidas a través de su estudio: “Macrodatos para el desarrollo sostenible”, las tecnologías alrededor del análisis de datos a gran escala son herramientas que puede servir para impulsar la promoción y protección de los derechos humanos, pero al mismo tiempo pueden ser utilizadas para vulnerar esos mismos derechos 2, por lo que deben ser reguladas de manera puntual.

Organismos internacionales como La Asamblea General de las Naciones Unidas se han pronunciado sobre el derecho a la privacidad en la era digital reafirmando que nadie será objeto de injerencias arbitrarias e ilícitas en su derecho a la privacidad y hace un llamado a los Estados para que revisen la legislación y los procedimientos que habilitan la vigilancia legal y aseguran la existencia de mecanismos de supervisión independientes y efectivos para promover la transparencia.

Los argumentos de las voces más críticas están estrechamente relacionados con un posible uso ilegítimo e incluso fraudulento de los datos personales (particularmente los datos sensibles) que, albergados en bases públicas y/o corporativas, al ser procesados mediante algoritmos, conduzcan a violar la privacidad de las personas. Asimismo, los sistemas de algoritmos pudieran amenazar otros derechos humanos cuando se emplean para limitar el acceso a la información y a los servicios públicos.

La idea de que los algoritmos son imparciales e inocuos es falsa; los algoritmos son una creación de diseño humano que hereda nuestros prejuicios, y aunque pudieran programarse bajo ciertos principios éticos 3 , no son capaces de desarrollar empatía, de manera que por sí mismos, no pueden ponderar la fragilidad de la frontera entre lo público y lo privado. Este problema se vuelve dramático cuando afecta a la vida de las personas quienes, en la mayoría de los casos, no acaban de ser plenamente conscientes de cómo la toma de decisiones basada en algoritmos puede atentar contra su privacidad ni de los riesgos que entraña.

Una vez más se vuelve al debate sobre el encaje de las nuevas tecnologías en el marco jurídico existente o la necesidad de una normativa específica para abordar los problemas particulares surgidos en el seno de la sociedad digital; la aplicación de la Data Analytics es tan diversa como la creatividad del programador mismo lo permita, por tanto, quienes desarrollan las tecnologías a partir del análisis de datos son responsables y están obligados a justificar tanto las decisiones tomadas por algoritmos como el diseño mismo de éstos.

En la era digital, las regulaciones se han centrado en la información personal, íntima y sensible, presuponiendo que en la esfera pública no existe un ámbito privado que proteger, sin embargo, toda comprensión legal y filosófica del derecho a la privacidad en la actualidad debe incorporar un grado de protección de la privacidad en público. Es decir, aunque nuestros datos estén ahí y técnicamente sea fácil acceder a ellos, esto no da derecho ni al gobierno ni a las empresas de ejecutarlo sin nuestro consentimiento y sin causa verdaderamente justificada.

La privacidad tiene que ser entendida, por un lado, como la no interferencia en los asuntos privados de un mismo, y por otro, como el control sobre la comunicación de la información de uno mismo y sobre quién puede, sensiblemente, tener acceso a ella. No es posible minimizar la responsabilidad emanada del tratamiento de la información; la protección de lo privado, incluyendo nuestra información personal, es una de las condiciones básicas de la estructura social moderna y uno de los rasgos indispensables de un orden jurídico legítimo.

Siendo objetivos, aunque con beneficios promisorios, algunas herramientas que emanan de la Data Analytics pudieran conducir a que la privacidad de las personas se vea erosionada, primero, porque exigen disponer de información sobre los actores sociales que participan en ellas y segundo, porque el individuo necesita poner en circulación su información para realizar intercambios y transacciones a través de ellas. Evidentemente esto coloca al ser humano ante un cambio de era que implica transitar de la privacidad real a la privacidad digital que necesita que los mecanismos para su protección y la defensa de sus derechos fundamentales sean replanteados y se adapten a los nuevos escenarios tecnológicos emergentes.

Concretamente, en cuanto a la regulación existente, la polémica jurídica gira principalmente en torno a dos ejes: la falta de transparencia del modelo de riesgos del algoritmo y, el uso sesgado de este instrumento.

Aunque parece existir un consenso entre quienes buscan una regulación adecuada, que proteja la privacidad, respecto a la relevancia de la transparencia en el uso de algoritmos 4, algunas técnicas de machine learning, son extremadamente opacas en cuanto a la comprensión sobre cómo los algoritmos toman las decisiones y esto plantea un problema frente a las normas que exigen seguridad, transparencia, control, trazabilidad y posibilidad de identificar los procesos 5.

En un hecho sin precedente, un tribunal de los Países Bajos publicó el 5 de febrero de 2020, una sentencia pionera en el ámbito digital, por la que se declara contrario al Convenio Europeo de Derechos Humanos, y por tanto ilegal, el uso de un algoritmo diseñado para combatir el fraude a la seguridad social alegando la violación al artículo 8 del Convenio Europeo de los Derechos Humanos, relativo al respeto a la vida privada y familiar.

Esto es un claro ejemplo de cómo, a nivel internacional, los Estados están ocupados en vigilar que se respeten los derechos de los usuarios de este tipo de herramientas tecnológicas. Por otro lado, el sesgo algorítmico que ocurre cuando los valores de los humanos que estuvieron implicados en su codificación y en la recolección de datos impactan el resultado, será un problema cada vez mayor a medida que las decisiones emanadas de estas herramientas predictivas se vuelvan cada vez más importantes en nuestras vidas; en principio, una decisión automatizada solo debería ser permitida cuando sea necesaria, es decir, cuando no exista otra manera de lograr el mismo objetivo; la decisión adoptada debe garantizar los derechos y libertades de los titulares de los datos personales y el responsable del tratamiento debe, como mínimo, informar a quien se ve involucrado, respecto a su derecho de obtener intervención humana al tiempo que establece y comunica los requisitos del procedimiento para ejercerlo, incluso si esto implicara impugnar la decisión.

Para proteger el derecho a la privacidad de las personas, las nuevas tecnologías basadas en el análisis de datos deben colocarlo como un elemento central desde el diseño 6, de lo contrario, el análisis predictivo y la categorización pueden suponer una verdadera amenaza para las personas, sobre todo cuando se realiza sin su conocimiento o sin su consentimiento.

Aunque hasta ahora el derecho de protección de datos personales ha girado estructuralmente en tomo al consentimiento del titular de los datos personales, este pilar podría verse rebasado si la sociedad no está dispuesta a fortalecer su cultura en el uso de las Tecnologías de la Información y Comunicación conociendo y reconociendo sus derechos; mitigar los riesgos inherentes al uso de estas tecnologías es tarea de todos dentro de un marco de regulaciones claras que generen garantías jurídicas y fomenten el uso ético de la información.

Conclusión

La capacidad actual para almacenar y procesar datos de forma masiva sitúa a las personas frente a riesgos de vulneración a su privacidad ante los cuales los principales mecanismos técnicos y legales que existen hoy son ineficaces; por esta razón, la automatización en la toma de decisiones a través del análisis algorítmico debe estar provista de los controles y contrapesos adecuados para no conducir a resultados arbitrarios, discriminatorios o que atenten contra los derechos fundamentales de las personas.

Es impensable el uso de estas herramientas si no existe una relación y equilibrio entre la tecnología y los derechos humanos; desafortunadamente, la manipulación de datos sin nuestro permiso se ha vuelto una práctica cotidiana en nuestra sociedad y si el mundo no aborda amenazas como la desinformación y la invasión de la privacidad podríamos caer en una distopía digital de desigualdad arraigada y abuso de derechos.

Hace falta diálogo, reflexión y el encuentro de muchas áreas del conocimiento, para crear conciencia sobre los efectos positivos y negativos que emanan de estas herramientas digitales; si bien sus usos se están convirtiendo en uno de los temas más discutidos, los algoritmos aún se perciben como instrumentos objetivos, inescrutables e incuestionables de las matemáticas que producen resultados racionales e imparciales y se está dejando de lado a las personas para privilegiar intereses económicos o políticos. A pesar de que el derecho a la privacidad es considerado un derecho humano, su protección en la era de la Data Analytic es incierta y frágil.

Manejados de forma responsable, los datos personales son una herramienta útil para facilitar actos cotidianos, pero al mismo tiempo, si a esos datos se les da un mal uso, pueden amenazar la privacidad y convertirse en una fuente de discriminación y represión a la autonomía de los individuos.

No es posible creer a ojos cerrados en las promesas de la digitalización, urge a adoptar límites legales que permitan combatir las asimetrías de información previniendo sus consecuencias en términos de ventajas económicas y de control social.

-

Notas

1 - Estudio: “How does data-driven decision-making affect firm performance?"

2 - La digitalización de la asistencia social que en algunos países se presenta como una manera generosa y noble para garantizar que los ciudadanos se beneficien de las nuevas tecnologías, en muchos casos se convierte en un arma para detectar, focalizar, vigilar y castigar por parte del Estado, lo que suele traducirse en restricciones de elegibilidad y menos servicios.

3 - La Unión Europea para el Desarrollo de la Ética de la Inteligencia Artificial propuso siete estándares éticos: supervisión humana, robustez y seguridad, privacidad y control de datos, transparencia, diversidad, no discriminación y equidad, bienestar social y ambiental y responsabilidad.

4 - Recientemente en 2019, tanto Estados Unidos como la Unión Europea incorporaron el concepto de transparencia entre los principios básicos en materia de inteligencia artificial.

5 - Al respecto, la Unión Europea, en su Reglamento General de Protección de Datos de Europa, establece que: si los datos personales se utilizan para tomar decisiones automáticas sobre las personas, las empresas deben poder explicar la lógica detrás del proceso.

6 - La precisión de cualquier algoritmo que se base en aprendizaje automático depende del tratamiento y el ciclo de vida del dato con el que fue programado.

-

Referencias

García, S. (13 de Abril de 2020). ¿Tendremos que renunciar para siempre a nuestra privacidad? Recuperado el 18 de Julio de 2020, de https://www.laverdad.es/sociedad/renunciar-siempre- privacidad-20200412183601-ntrc.html

Herrera, C. (08 de Noviembre de 2019). De la tiranía algorítmica al mercado de ADN, y de la cultura deepfake a la resurrección virtual: como debemos redefinir los derechos para el futuro. Recuperado el 18 de Julio de 2020, de https://www.lanacion.com.ar/tecnologia/de-tirania- algoritmica-al-mercado-adn-cultura-nid2304669

INCLO. (Abril de 2018). El derecho a la privacidad en la era digital. Recuperado el 19 de Julio de 2020, de https://www.cels.org.ar/web/wp-content/uploads/2018/07/INCLO-OHCHR.pdf

ONU. (s.f.). Macrodatos para el desarrollo sostenible. Recuperado el 19 de Julio de 2020, de https://www.un.org/es/sections/issues-depth/big-data-sustainable-development/index.html

Ortiz, S. S. (20 de Octubre de 2019). Hay tecnología diseñada para vigilar y castigar a los mas pobres. Entrevista a Christian Van Veen, asesor sobre tecnología y derechos humanos en la ONU. Madrid. Recuperado el 17 de Julio de 2020, de https://cadenaser.com/programa/2019/10/20/hora_14_fin_de_semana/1571556042_907066.ht ml

Piñar Mañas, J. L. (20 de Marzo de 2020). La protección de datos durante la crisis del coronavirus. Recuperado el 18 de Julio de 2020, de https://www.abogacia.es/actualidad/opinion-y-analisis/la- proteccion-de-datos-durante-la-crisis-del-coronavirus/

Zuazo, N. (2018). Algoritmos y desigualdades. Derechos Digitales América Latina. Recuperado el 20 de Julio de 2020, de https://www.derechosdigitales.org/wp- content/uploads/algoritmo_desigualdad_cast.pdf

-

Foto de Myriam Jessier en Unsplash

Anterior
Anterior

¿Por qué es importante la regulación y protección de la privacidad, la vida privada y los datos personales?

Siguiente
Siguiente

La API de notificación de exposición de COVID-19 creada por Google y Apple y el tratamiento de datos personales.