Hacia una IA Más Segura y Transparente: Claves del Tercer Borrador del Código de Buenas Prácticas
Por Susana Romero
Esta semana comienzan las sesiones de trabajo en torno al recién publicado tercer borrador del Código de Buenas Prácticas en Inteligencia Artificial (IA), un paso fundamental para avanzar en el desarrollo de un marco normativo que promueva la ética, la seguridad y la transparencia en el uso de modelos de IA. AEPSAL, participa activamente en estas discusiones representados por nuestra compañera Susana Romero, aportando su experiencia y contribuyendo a la construcción de un entorno de IA más seguro y humano.
El Código de Buenas Prácticas de IA tiene como misión ofrecer un marco normativo claro para el desarrollo y uso de la IA de manera ética y segura. Alineado con los principios fundamentales de la UE, busca integrar medidas que resguarden los derechos fundamentales de los ciudadanos, especialmente en cuanto a la protección de la privacidad, la no discriminación y la transparencia.
Detalles del tercer borrador del Código de Buenas Prácticas de IA
El tercer borrador del Código presenta una serie de compromisos y medidas diseñadas para mejorar la transparencia y seguridad de los modelos de IA, con una atención especial a aquellos que representan riesgos sistémicos. Este borrador propone 2 compromisos clave sobre transparencia y derechos de autor para todos los proveedores de modelos de IA, y 16 compromisos adicionales dirigidos a los proveedores de IA clasificados como modelos de IA con riesgos sistémicos:
- Obligaciones de Transparencia y Derechos de Autor: Las primeras secciones abordan las obligaciones de todos los proveedores de modelos de IA de uso general. Incluye un formulario de documentación fácil de usar que centraliza la información necesaria para cumplir con la ley.
- Medidas para Modelos con Riesgos Sistémicos: Esta sección es especialmente relevante para un pequeño número de proveedores de modelos de IA avanzados que podrían representar riesgos sistémicos. Establece medidas detalladas para la evaluación y mitigación de riesgos sistémicos, incluyendo informes de incidentes y medidas de ciberseguridad.
Riesgo Sistémico en la IA: Novedades y Contribución de AEPSAL
En el marco del tercer borrador del Código, AEPSAL ha trabajado en el desarrollo de modelos de riesgos sistémicos seleccionados para la Medida II.3.1
El concepto de riesgo sistémico se refiere a los posibles peligros derivados de fallos o vulnerabilidades en sistemas de IA que pueden tener un impacto de gran alcance en infraestructuras, ecosistemas y sociedades en su totalidad, afectando múltiples sectores o entidades a la vez. Este tipo de riesgo puede provocar consecuencias difíciles de predecir, con impactos significativos en áreas como la economía, la seguridad, y la confianza pública.
A continuación, se detallan los riesgos más destacados en esta Medida II.3.1
- Delito Cibernético: Los riesgos relacionados con las capacidades ofensivas cibernéticas que pueden facilitar ciberataques a gran escala. amenazas como el descubrimiento automatizado de vulnerabilidades, la creación de explotaciones y la escalabilidad de los ataques, lo que pone en riesgo sistemas y servicios clave.
- Riesgos Químicos, Biológicos, Radiológicos y Nucleares: La IA puede ser utilizada para habilitar ataques o accidentes en áreas de gran riesgo, como los químicos, biológicos, radiológicos o nucleares. Los avances en la IA pueden reducir significativamente las barreras de entrada para actores malintencionados, lo que incrementa el potencial de daño.
- Manipulación del Comportamiento: Este riesgo se refiere a la manipulación dirigida del comportamiento de las personas a través de interacciones de IA. Los sistemas de IA podrían influir en las personas, incluidas las decisiones en situaciones de alto riesgo o el fraude masivo. El uso de algoritmoy sistemas de inteligencia artificial para la toma de decisiones de gestión de personas, incluyendo tanto a personas trabajadoras subraya la necesidad de un enfoque riguroso para evitar abusos
La participación activa en las discusiones sobre el tercer borrador del Código de Buenas Prácticas de IA es crucial para garantizar que se aborden adecuadamente los riesgos sistémicos y se implementen medidas eficaces para mitigar sus impactos. La colaboración de entidades como AEPSAL desempeña un papel esencial en la creación de un marco robusto que proteja tanto a las personas como a las infraestructuras críticas frente a los riesgos emergentes en el ámbito de la IA.