Noticias

Imagen: CPLT
Opinión.

Luces y Sombras de la Transparencia Algorítmica en las Recomendaciones del Consejo para la Transparencia (CPLT), por Lorayne Finol Romero.

La publicación de estas recomendaciones marca un avance positivo para el país. Consolidando así buenas prácticas que dan continuidad a la Política Nacional de IA, aprovechando la experiencia acumulada de la Ley 20.285, que desde hace 16 años promueve la transparencia en la función pública y fiscaliza el acceso a la información de los organismos del Estado.

10 de septiembre de 2024

El nombre literal del texto normativo aprobado es: «Recomendaciones del Consejo para la Transparencia sobre Transparencia Algorítmica», y fue publicado como una Resolución Núm. 372 exenta, en el Diario Oficial (Núm. 43.938) el 30 de agosto de 2024. Este hito coloca a Chile como país pionero en la creación de un marco de buenas prácticas de transparencia algorítmica (TA), aplicable a los organismos del Estado que utilizan sistemas automatizados con algoritmos.

El título del documento no es baladí, y tiene varias repercusiones cuestionables ya que su contenido contempla un conjunto de obligaciones que, en virtud del principio de legalidad, para hacerlas exigibles y evitar una huida del derecho, amerita que algunos aspectos formales sean abordados en otra discusión. A pesar de algunas dudas sobre la técnica legislativa utilizada, este comentario pretende explicar su alcance. Justificado, porque estudios recientes subrayan la necesidad de establecer un mínimo de transparencia para los algoritmos del Estado, dado que su opacidad intrínseca puede afectar derechos fundamentales. Desde 2021 la Política Nacional de Inteligencia Artificial en Chile reconoce esta urgencia, señalando la importancia de identificar y mitigar riesgos de estos sistemas.

Es destacable que estas recomendaciones provengan del CPLT, el organismo responsable de garantizar la transparencia y el derecho de acceso a la información pública en Chile. Este paso se suma a las regulaciones que buscan promover el uso responsable de la Inteligencia Artificial (IA) en el país. Con esto, el CPLT se incorpora en el debate sobre la gobernanza de algoritmos públicos, en lugar de limitarse a ser un espectador pasivo.

En sí, la publicación de estas recomendaciones marca un avance positivo para el país. Consolidando así buenas prácticas que dan continuidad a la Política Nacional de IA, aprovechando la experiencia acumulada de la Ley 20.285, que desde hace 16 años promueve la transparencia en la función pública y fiscaliza el acceso a la información de los organismos del Estado.

¿Qué tipos de transparencia algorítmica recomienda la Resolución?

La resolución incluye 19 recomendaciones: 8 generales y 11 específicas, clasificadas como prácticas de transparencia garantes del acceso y publicación proactiva de información que los organismos públicos deben seguir. Estas prácticas abarcan desde la publicación de información sobre los SDA, en un lenguaje claro y accesible relativa a los tipos de servicios y actos en los que se utilizan los SDA, así como, aspectos técnicos como las especificaciones de la fuente de los datos de entrenamiento, evaluaciones enfocadas en derechos humanos y mitigación de riesgos. De igual modo, aspectos específicos como la publicación de la política de privacidad, derechos de propiedad del proveedor, en caso de estar sometidos a licencia privada.

Como parte de la transparencia proactiva, también se recomiendan pruebas de validación y evaluación de impacto de datos. Todo esto, porque el objetivo es que cualquier persona pueda conocer qué sistemas se utilizan, cómo funcionan y cómo ejercer su derecho de oposición. A pesar de ello, persisten dudas sobre la efectividad de estas medidas, ya que no se mencionan consecuencias por su incumplimiento, ni se incluyen disposiciones claras sobre la auditabilidad o la fiscalización periódica de estas recomendaciones.

En síntesis, CPLT ha creado un conjunto de recomendaciones generales y específicas para asegurar que los sistemas automatizados que utiliza el Estado, sean más transparentes. Destaca su carácter no coercitivo, cuando establece que el propósito normativo es, recomendar, orientar y promover la adopción de buenas prácticas en torno a la transparencia y publicidad de los sistemas de decisiones automatizadas y semiautomatizadas que se utilizan en el sector público. Por esta razón, alberga dudas de su efectividad en la práctica.

¿Qué contiene la resolución?

El documento se compone de tres artículos. En el primero se aclaran definiciones y conceptos clave, además de detallar las 19 recomendaciones sobre transparencia pasiva (información general de los SDA) y proactiva (especificaciones técnicas). Algunas aclaraciones son innecesarias, como las definiciones de «recomendación» o la propia Ley 20.285. Sin embargo, incorpora conceptos importantes relacionados con la evaluación de impacto de datos, y el perfilado de datos. Pero desaprovecha la oportunidad, para incorporar aspectos esenciales para garantizar su efectividad técnica, así como la juridicidad y fiscalización de estas nuevas obligaciones de transparencia. En el segundo y tercer artículo, se establecen disposiciones formales respecto a su publicación y notificación a los sujetos obligados.

Sin embargo, es destacable que en el artículo 4.8 del artículo primero, la resolución define qué constituye un SDA y qué no lo es. Queda claro que estos sistemas son aquellos que utilizan inteligencia artificial o aprendizaje automático para predecir, clasificar, optimizar y tomar decisiones. Sin embargo, no prohíbe el uso de perfiles basados en datos («scoring»), lo cual podría contradecir futuras normativas sobre la protección de datos personales en Chile. Esto se encuentra actualmente consagrado en la nueva Ley de Protección de Datos que ha sido aprobada por el Congreso y espera por su promulgación.

Conclusión: ¿Es suficiente esta resolución para garantizar la transparencia algorítmica requerida?

Si bien las recomendaciones del CPLT representan un avance importante, algunos expertos, con los que coincide esta posición, sugerimos que se debe ir más allá de la transparencia básica de información disponible para el escrutinio cívico. Abogando porque los sistemas sean además, auditables y se realicen evaluaciones de impacto por expertos y personal técnico, antes de su implementación. En suma, para prevenir decisiones injustas o discriminatorias, es menester reforzar medidas de transparencia interna o, también conocidas como estándares técnicos.

Se observa que la Resolución chilena es muy similar al estándar pionero de transparencia algorítmica publicado por el gobierno del Reino Unido (UK) en el 2021, cuya  aplicación se enfoca principalmente en el sector público. En efecto, la TA chilena es un espejo de la iniciativa denominada: “The Algorithmic Transparency Recording Standard”. Esta fue creada a la par de la Estrategia Nacional de Datos del gobierno (CDDO) en UK, por lo que su foco se centró en brindar una mayor transparencia en la toma de decisiones asistida por algoritmos en el sector público.

En resumen, la resolución del CPLT es un primer paso hacia la transparencia algorítmica de los SDA utilizados por el Estado, pero algunos aspectos aún son inciertos. Será necesario seguir evaluando si estas medidas son suficientes para garantizar que las decisiones automatizadas sean justas, confiables y seguras para toda la ciudadanía. Esto requerirá nuevas obligaciones exigibles para avanzar hacia un segundo nivel de transparencia.

De tal manera que cuando imaginemos que cada vez que se accede a un servicio público en Chile, ejemplo cómo postular a un subsidio, recibir un servicio de atención médica o solicitar una matrícula escolar, o valoración del riesgos asociados a la vida familiar, se comprenda, que la solicitud pasa por un sistema automatizado que ha sido probado, fiscalizado y evaluado continuamente, para que cuando decida si cumples con los requisitos, sea de una forma justa, responsable y segura. Especialmente considerando, que estos sistemas automatizados aunque son herramientas tecnológicas que ayudan a tomar decisiones más rápidas y eficientes, entiéndase que, también pueden tener un impacto negativo en nuestras vidas.

La Doctora Lorayne Finol Romero es profesora Cátedra Legal Tech U. Central.

Te recomendamos leer:

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *