¿Qué son las tecnologías que mejoran la privacidad y cuál es su importancia?
El uso de tecnologías que procesan datos personales está cada vez más presente en nuestra vida diaria, desde las redes sociales y las aplicaciones bancarias hasta los sistemas de reconocimiento facial en condominios y Relojes inteligentes. La facilidad de acceso y su adopción a gran escala, que brindan estas tecnologías, impulsan su adopción, incluso según lo previsto en varias políticas públicas.
Sin embargo, la recopilación y el uso masivos de datos personales en la actualidad plantean importantes cuestiones de privacidad, como la creación de perfiles detallados por parte de las empresas y los gobiernos que pueden utilizarse para manipular el comportamiento, discriminar en los procesos de selección e incluso para la vigilancia masiva.
Por otro lado, los datos personales pueden ser valiosos para el mercado y para los gobiernos, en la medida en que nos permiten identificar patrones y tendencias en el comportamiento de grupos y sociedades en los espacios más diversos. Con diagnósticos más precisos, es posible invertir recursos en productos y políticas basados en decisiones informadas.
Es en este escenario donde, como una salida para el uso responsable de la información, surgen los Tecnologías que mejoran la privacidad (PET): tecnologías que refuerzan y mejoran la privacidad. Las PET son un conjunto de técnicas y enfoques que posibilitan las empresas y las políticas al permitir la recopilación, el análisis y el procesamiento de datos, al tiempo que protegen los datos personales, la privacidad de los propietarios y otra información confidencial.
Técnicas PET
Con la maduración de las leyes y reglamentos de protección de datos personales, junto con el esfuerzo del mercado por incorporar prácticas de Privacidad por diseño¹, existe la posibilidad de que el procesamiento de datos personales se realice de una manera más protectora a nivel técnico. A continuación, se analizarán cuatro categorías de PET, agrupadas por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) ².
Herramientas de ofuscación de datos
La técnica de ofuscación implica tratar los datos personales localmente (como, por ejemplo, en el teléfono móvil del propietario), en lugar de procesarlos en la nube. Para su almacenamiento y acceso remoto en la nube, se añaden «ruidos» a los datos personales o se eliminan sus identificadores (como la anonimización), lo que impide asociarlos a una persona.
Las principales técnicas de ofuscación de datos son:
Anonimización
El proceso de anonimización consiste en eliminar los identificadores personales de los datos. Esto significa que, una vez completado el proceso, los datos deben perder la capacidad de identificar irreversiblemente a su propietario. Al dejar de ser personales, las leyes de privacidad también dejan de aplicarse a las actividades de procesamiento realizadas con los datos, lo que garantiza una mayor flexibilidad a las organizaciones³. Debido a esta ventaja regulatoria, la anonimización es una técnica ampliamente utilizada, aunque es costosa. Sin embargo, el principal desafío de esta técnica es garantizar su plena eficacia, frente al «efecto mosaico»: dada la gran cantidad de datos recopilados sobre las personas, incluso los datos no personales y anónimos, asociados a otros datos dentro de un contexto, pueden identificar a los titulares y, por lo tanto, recuperar su carácter de datos personales. En otras palabras, el efecto mosaico se produce cuando la información anonimizada, cuando se combina con otros datos disponibles, permite volver a identificar a las personas, lo que compromete la eficacia de la anonimización. Aun así, la técnica dificulta la asociación de los datos con la persona a la que se refieren, lo que reduce los riesgos de almacenar grandes bases de datos, por ejemplo.
Seudonimización
Esta técnica se define en el art. 13, párrafo 4 de la LGPD como «el tratamiento mediante el cual un dato pierde la posibilidad de asociación directa o indirecta con un individuo, excepto mediante el uso de información adicional mantenida por separado por el controlador en un entorno controlado y seguro». Esto significa que la información potencialmente identificable se separa de una base de información no personal. Sin embargo, las bases que estaban separadas aún pueden estar asociadas, manteniendo la capacidad de identificar a los titulares. En otras palabras, se trata de un proceso reversible, cuya finalidad es mitigar los riesgos de privacidad y no impedir la identificación de la persona, como en el caso de la anonimización. Debido a esto, las leyes de protección de datos siguen aplicándose. Utilizada para almacenar datos personales, la seudonimización es un PET que refuerza las prácticas de privacidad de los agentes de tratamiento.
Uso de datos sintéticos
Consiste en utilizar datos artificiales generados a partir de modelos estadísticos que imitan las características y patrones de los datos personales reales. Para su creación, se selecciona una muestra de datos reales y, en base a una técnica determinada (como los modelos matemáticos generativos), se generan datos artificiales. De esta forma, se preserva la propiedad estadística de la base de datos, lo que genera las mismas conclusiones, lo que la convierte en un recurso interesante para entrenar modelos de inteligencia artificial, probar el desarrollo de software o ejecutar políticas gubernamentales de datos abiertos, por citar algunos ejemplos. El principal problema de esta técnica es la posibilidad de reidentificación, ya que los datos artificiales pueden replicar datos reales, según el modelo utilizado.
Privacidad diferencial
Esta técnica consiste en aplicar ruido, calculado matemáticamente, realizando cambios sencillos en los datos sin procesar. De esta manera, sus identificadores personales quedan enmascarados, manteniendo el valor de ese grupo de datos, porque cuando se agregan, siguen siendo los mismos. En el caso de las políticas públicas de datos abiertos, por ejemplo, esta herramienta reduce los riesgos de identificar a los titulares, manteniendo disponible la información relevante. Existe la oportunidad de que la ANPD regule la cantidad de ruido necesaria antes de la publicación de los datos. Apple utiliza esta técnica para mejorar sus productos, sin procesar datos personales.4
Prueba de conocimiento cero
En inglés Pruebas de conocimiento cero (ZKP) es un método basado en protocolos matemáticos e interacciones entre dos partes: una que tiene información y la otra que quiere verificarla. El propósito del método es garantizar que una de las partes confirme la veracidad de una información específica, sin que sea necesario revelar esta información. Esta tecnología se puede utilizar para reducir la recopilación de datos personales y garantizar una mayor calidad de la información procesada. Por ejemplo: imagine que un comercio electrónico necesitas verificar la mayoría de edad de tus clientes para vender bebidas alcohólicas. Con esta técnica, el sistema puede confirmar la mayoría de edad sin acceder ni almacenar la fecha de nacimiento del cliente. La tienda solo recibe una respuesta de «sí» o «no», lo que garantiza que los datos personales (la edad exacta) permanezcan privados. La técnica también podría usarse para verificar si los ingresos de las personas que desean alquilar una propiedad son suficientes o no, sin tener que recopilar datos financieros personales. En otras palabras, se evita la exposición directa de los datos personales, preservando la privacidad de los propietarios.
Herramientas de cifrado de datos
La criptografía es la técnica de transformar la información legible en un formato codificado, lo que la hace incomprensible para quienes no tienen la clave de descifrado. Es decir, la información se vuelve inútil para quien no esté autorizado a acceder a ella.
Criptografía homomórfica
El método de tratamiento tradicional depende del acceso directo del agente a los datos. La computación homomórfica altera esta lógica, lo que permite desarrollar análisis sobre datos cifrados y, además, generar resultados cifrados. El método mitiga los riesgos de privacidad, aunque es menos eficiente que los métodos tradicionales debido a su alto costo computacional y complejidad de procesamiento, lo que limita su uso a gran escala. Con incentivos políticos para su uso, puede ser una solución prometedora para proteger los datos personales.
Computación multiparte
Esta técnica permite a diferentes agentes realizar análisis conjuntos en una base de datos personal, sin recibir los datos en sí. La técnica agrega datos personales manteniéndolos cifrados o seudonimizados. De esta forma, se pueden reducir los riesgos de seguridad. Se trata de una técnica que ya se utiliza a gran escala.
Intersección de conjuntos privados
La PSI (en las siglas en inglés - Intersección de conjuntos privados) permite a dos o más partes descubrir qué datos son comunes en sus bases de datos, sin revelar los elementos que no coinciden. Esta técnica se puede utilizar para encontrar coincidencias entre diferentes bases de datos sin violar la privacidad de las personas. De esta forma, mitiga los riesgos de privacidad. Esta técnica se utilizó, por ejemplo, en aplicaciones de Rastreo de contactos durante la pandemia de covid-19, para que el teléfono celular notifique a los propietarios sobre la proximidad a las personas que se han infectado.
Entornos seguros
Son áreas aisladas dentro de un procesador, con el propósito de proteger los datos personales y los datos confidenciales del sistema operativo, incluidos los códigos de las aplicaciones, al tiempo que mantienen su seguridad, incluso durante su uso. En estos entornos, los desarrolladores pueden procesar los datos y realizar análisis confidenciales.
Herramientas de descentralización de datos
Los análisis descentralizados y distribuidos tienen como objetivo procesar los datos sin centralizarlos en una sola ubicación, es decir, sin la necesidad de un solo servidor. Por ejemplo, para entrenar un modelo de inteligencia artificial para que reconozca rostros, los datos faciales pueden distribuirse entre varios teléfonos móviles. En lugar de recopilar todos estos datos en un servidor centralizado para entrenar el modelo, su entrenamiento se llevaría a cabo en cada dispositivo de forma local, utilizando los datos disponibles en ese dispositivo. Luego, lo aprendido mediante el modelo de IA en el dispositivo específico se comparte con el servidor central, que combina los aprendizajes locales para crear un modelo global. Por lo tanto, los datos personales permanecen solo en los teléfonos móviles.
Herramientas de Responsabilidad
Sistemas responsables
El propósito de estos sistemas es administrar la capacidad de una organización para responder y ser responsable de sus acciones y decisiones con respecto al uso y el intercambio de datos personales. Estas herramientas deberían ayudar a las empresas a mantener las actividades de procesamiento de datos de acuerdo con las leyes aplicables, incluida la limitación de su uso al propósito inicialmente determinado. A pesar de esto, la OCDE cree que dichos sistemas aún no han podido ganar escalabilidad debido a la complejidad de su implementación, y se encuentran en etapas piloto de desarrollo.
Compartir secretos de Threshold
Esta es una herramienta de cifrado que crea una clave múltiple, dividida en diferentes partes. Esto significa que solo el conjunto total de partes puede acceder a la información almacenada, de modo que ninguna parte individual tiene acceso a la clave completa. Esto aumenta la seguridad de la clave e impide que una sola entidad tenga un control total sobre ella. Aplicada al contexto de la privacidad, la herramienta se puede utilizar para imponer las condiciones que deben cumplirse para que los datos estén disponibles para los controladores, condiciones que pueden definir las autoridades reguladoras. A pesar de representar una oportunidad interesante, su aplicación se ha restringido y está disponible en algunas plataformas en la nube.
Sistemas de gestión de datos personales
Esta técnica invierte la lógica tradicional de procesamiento de datos personales, que se basa en recopilar y almacenar grandes bases de datos para realizar análisis. En cambio, la técnica transfiere el control sobre el almacenamiento de sus propios datos al propietario. Por lo tanto, es el propietario quien define cómo y con quién se compartirán y tratarán sus datos. El principal desafío regulatorio de esta técnica es la división de responsabilidades entre el propietario y los agentes de tratamiento por las actividades que se llevan a cabo con los datos. Un ejemplo de aplicación de la técnica son las tarjetas de identidad digitales de la Unión Europea¹.
Conclusión
El uso de tecnologías de recopilación de datos en varios aspectos de nuestras vidas alimenta una demanda de información sin precedentes. Al mismo tiempo que estos datos pueden utilizarse para la innovación y el desarrollo de nuevos productos y servicios, el elevado volumen de datos personales procesados por diversos actores también suscita preocupaciones en cuanto a su protección y uso ético y responsable.
Las tecnologías que mejoran la privacidad (PET) surgen como respuesta al desafío de conciliar la innovación y la privacidad en el procesamiento de datos personales. Al permitir la recopilación, el análisis y el procesamiento de datos de manera segura y confidencial, las PET allanan el camino para un futuro en el que la tecnología pueda utilizarse en beneficio de la sociedad sin comprometer la privacidad de las personas. Con mayores incentivos regulatorios para invertir en tecnologías que protejan la privacidad, podemos aprovechar los beneficios de la innovación sin comprometer nuestros derechos fundamentales.
———————————————————
¹ El término puede traducirse como privacidad desde la concepción, ya que fue utilizado por el legislador brasileño en la Ley General de Protección de Datos Personales (LGPD - Ley Nº 13,709/2018). La propia Autoridad Nacional de Protección de Datos ya utilizó el término en una decisión relativa a la actualización de la Política de privacidad de WhatsApp.
² TECNOLOGÍAS EMERGENTES QUE MEJORAN LA PRIVACIDAD: ENFOQUES NORMATIVOS Y POLÍTICOS ACTUALES - punto 3.1. Categorías de tecnologías que mejoran la privacidad (PET)
³ Según el art. 5, III de la LGPD: «datos anónimos: datos relacionados con un propietario que no pueden identificarse, considerando el uso de medios técnicos razonables disponibles en el momento de su tratamiento;».
4 Como se indica en su Política de privacidad, disponible en eslabón
¹ El monedero digital eIDAS se diseñó para garantizar la seguridad de las transacciones internacionales mediante la identificación y la autenticación de los titulares. Para obtener más información, acceda al presente