Por Mario Ruiz
En la era digital actual, la inteligencia artificial (IA) está transformando industrias y mejorando servicios de manera sin precedentes. Sin embargo, el uso de datos personales por sistemas de IA plantea importantes desafíos éticos y legales, que deben ser abordados para proteger los derechos individuales a la privacidad y evitar la discriminación injusta.
Hace pocos días se publicó una noticia respecto a una falla mundial en la conocida herramienta ChatGPT, en donde muchos datos personales fueron revelados a causar de una desprotección en dispositivos iOS, que utilizaban esta herramienta. Esto no debería limitar o desincentivar el uso de la herramienta, sino debe motivar la necesidad de optar por prácticas recomendadas al momento de apoyarse en la IA.
Localmente, no existe una normativa específica que norme el tratamiento de datos y la IA; no obstante, la recopilación y procesamiento de datos personales por sistemas de IA sí están recogidos en diversas legislaciones internacionales, como el Reglamento General de Protección de Datos (GDPR) de la Unión Europea (UE) y la California Consumer Privacy Act de los Estados Unidos. Estas leyes establecen principios claros sobre la recopilación, el uso y la protección de datos personales, asegurando que los individuos tengan control sobre la información que comparten. Un ejemplo destacado es el caso de Google LLC vs. CNIL, donde el Tribunal de Justicia de la UE determinó que los individuos tienen derecho al olvido y pueden solicitar la eliminación de datos personales irrelevantes o excesivos.
Además de las regulaciones legales, existen normas éticas y directrices internacionales que enfatizan la importancia de la responsabilidad y la ética en el desarrollo y uso de la IA. Por ejemplo, la UNESCO ha desarrollado directrices sobre ética en la inteligencia artificial, que subrayan la necesidad de transparencia, justicia y equidad en el tratamiento de datos personales. Estas directrices subrayan la importancia de asegurar que los sistemas de IA respeten los derechos humanos y las libertades fundamentales, incluido el derecho a la privacidad. Un ejemplo de estas directrices incluyen: i) la necesidad de documentación detallada para requerir que los desarrolladores de IA proporcionen documentación detallada sobre cómo funciona su sistema, incluyendo datos de entrenamiento, algoritmos utilizados y métricas de rendimiento; y, ii) la aplicación del derecho a la explicación para garantizar que los individuos afectados por decisiones automatizadas tengan derecho a recibir una explicación comprensible sobre cómo se tomó la decisión y qué datos se utilizaron para ello. Estas directrices están diseñadas para promover la confianza pública en la IA y para mitigar riesgos asociados con el uso indebido de datos personales.
Adicionalmente, la Asociación para la Inteligencia Artificial Beneficiosa ha establecido principios que promueven un desarrollo de IA, que sea positivo para la sociedad. Estos principios incluyen el respeto por la privacidad y los derechos individuales, así como la promoción de la transparencia y la rendición de cuentas en todas las etapas del ciclo de vida de los sistemas de IA.
Ahora bien, uno de los principales desafíos legales es garantizar que los sistemas de IA sean transparentes en cómo utilizan los datos personales y puedan explicar las decisiones automatizadas. Por ejemplo, en el sector financiero, la obscuridad en los algoritmos utilizados para otorgar préstamos puede resultar en decisiones discriminatorias basadas en datos sensibles como la raza o el género. Por ello, resaltamos la necesidad de aplicar la transparencia, lo que implica que los sistemas de IA deben ser capaces de explicar claramente cómo llegan a sus decisiones. Esto es crucial no solo para que los usuarios comprendan el funcionamiento de la tecnología, sino también para identificar posibles sesgos o errores en los datos que podrían llevar a decisiones injustas o discriminatorias. De otro lado, hay la necesidad de aplicar la explicabilidad, que se refiere a la capacidad de los sistemas de IA para proporcionar una justificación o explicación clara y comprensible de sus decisiones. Esto es especialmente importante en contextos donde las decisiones automatizadas pueden tener un impacto significativo en la vida de las personas, como en la contratación, la medicina o la justicia.
Los sistemas de IA pueden perpetuar sesgos existentes en los datos utilizados para entrenarlos, así, para mitigar riesgos, es crucial realizar, en la medida de lo posible, Evaluaciones de Impacto en la Protección de Datos en proyectos de IA. Estas evaluaciones ayudan a identificar y minimizar posibles riesgos para la privacidad desde las primeras etapas del desarrollo de la tecnología. Así mismo, resulta importante implementar el diseño por defecto y la privacidad al momento de diseñar un sistema de IA para asegurar que la protección de datos esté incorporada en todas las etapas del ciclo de vida del servicio. Esto implica diseñar sistemas que minimicen la recopilación y retención de datos personales innecesarios. Finalmente, es importante llevar a cabo auditorías regulares y de supervisión para asegurar el cumplimiento continuo de las normativas de protección de datos y ética. Estas prácticas garantizan que los sistemas de IA operen de manera ética y respetuosa con la privacidad de los individuos.
Como se aprecia, la ética y la responsabilidad en el uso de datos personales por sistemas de IA requieren un enfoque holístico, que integre normativas legales, normas éticas y prácticas de transparencia y explicabilidad. Al adoptar estas directrices, las organizaciones pueden no solo cumplir con los requisitos regulatorios, sino también ganar la confianza de los usuarios y promover un desarrollo tecnológico ético y responsable.
Este enfoque no solo protege los derechos individuales a la privacidad, sino que también asegura que la IA se utilice para el beneficio social de manera justa y equitativa.
Aliado: AVL Abogados