El auge del uso de aplicaciones móviles provoca que también crezca la incertidumbre de qué se hace o adónde van a parar nuestros datos. Debido a esto, las empresas deben ceñirse a las leyes de protección de datos de las distintas jurisdicciones en las que operan, reflejando cómo van a tratar nuestros datos en su política de privacidad. En ella, deben explicar de forma clara detalles como qué hacen con los datos de los usuarios, dónde se guardan y con quién los comparten.Debido a que hay países y asociaciones de países (e.g., la Unión Europea) en las que estas leyes de protección de datos se comparten entre regiones en las que cohabitan varios idiomas, surge la necesidad de encontrar un método con el que se puedan analizar políticas en varios idiomas de forma escalable. Esto es necesario para poder comprobar si las empresas cumplen lo establecido por sus políticas de privacidad, así como con lo que indica la legislación.
En esta investigación se recurre a los Large Language Models (LLMs), en concreto a ChatGPT, para el desarrollo de un método capaz de identificar prácticas de privacidad en estos textos legales en otros idiomas además del inglés. Para ello, se lleva a cabo un proceso iterativo basado en la metodología Design Science Research (DSR) para validar el método. Para ello, son necesarios conjuntos de políticas de privacidad (datasets) anotados, que sirvan para contrastar los resultados del método. Para ello, durante el transcurso del trabajo ha sido necesario elaborar un dataset en español, que permita medir el rendimiento del método en este idioma. Este conjunto de datos ha sido publicado de forma abierta para contribuir a la comunidad científica.
Además, en este trabajo no sólo se medirán las capacidades multilingües de ChatGPT en español y alemán, si no que se evaluarán rendimiento y costes de los tres modelos disponibles: GPT-3.5, GPT-4 y GPT-4o. Tras comparar los rendimientos de los tres modelos para cada idioma, se llegará a conclusiones sobre qué modelos pueden ser más útiles dependiendo de factores como el económico o de la precisión requerida en los resultados. Como resultado, se propone un método que logra entre un 0.85-0.95 de F1 score dependiendo del idioma y la práctica a identificar. Finalmente, se aplicará este método en un caso real, evaluando un conjunto de aplicaciones móviles y sus políticas de privacidad para saber si cumplen o no con lo declarado respecto a transferencias internacionales de datos personales. Con ello podrán identificarse casos de potencial incumplimiento con la legislación, demostrando la importancia del método desarrollado.
El auge del uso de aplicaciones móviles provoca que también crezca la incertidumbre de qué se hace o adónde van a parar nuestros datos. Debido a esto, las empresas deben ceñirse a las leyes de protección de datos de las distintas jurisdicciones en las que operan, reflejando cómo van a tratar nuestros datos en su política de privacidad. En ella, deben explicar de forma clara detalles como qué hacen con los datos de los usuarios, dónde se guardan y con quién los comparten.Debido a que hay países y asociaciones de países (e.g., la Unión Europea) en las que estas leyes de protección de datos se comparten entre regiones en las que cohabitan varios idiomas, surge la necesidad de encontrar un método con el que se puedan analizar políticas en varios idiomas de forma escalable. Esto es necesario para poder comprobar si las empresas cumplen lo establecido por sus políticas de privacidad, así como con lo que indica la legislación.
En esta investigación se recurre a los Large Language Models (LLMs), en concreto a ChatGPT, para el desarrollo de un método capaz de identificar prácticas de privacidad en estos textos legales en otros idiomas además del inglés. Para ello, se lleva a cabo un proceso iterativo basado en la metodología Design Science Research (DSR) para validar el método. Para ello, son necesarios conjuntos de políticas de privacidad (datasets) anotados, que sirvan para contrastar los resultados del método. Para ello, durante el transcurso del trabajo ha sido necesario elaborar un dataset en español, que permita medir el rendimiento del método en este idioma. Este conjunto de datos ha sido publicado de forma abierta para contribuir a la comunidad científica.
Además, en este trabajo no sólo se medirán las capacidades multilingües de ChatGPT en español y alemán, si no que se evaluarán rendimiento y costes de los tres modelos disponibles: GPT-3.5, GPT-4 y GPT-4o. Tras comparar los rendimientos de los tres modelos para cada idioma, se llegará a conclusiones sobre qué modelos pueden ser más útiles dependiendo de factores como el económico o de la precisión requerida en los resultados. Como resultado, se propone un método que logra entre un 0.85-0.95 de F1 score dependiendo del idioma y la práctica a identificar. Finalmente, se aplicará este método en un caso real, evaluando un conjunto de aplicaciones móviles y sus políticas de privacidad para saber si cumplen o no con lo declarado respecto a transferencias internacionales de datos personales. Con ello podrán identificarse casos de potencial incumplimiento con la legislación, demostrando la importancia del método desarrollado. Read More


