Guía para el desarrollo de sistemas de IA seguros: avances y carencias
Hoy se ha publicado una guía para el desarrollo de sistemas de IA seguros, respaldada por EE. UU., Reino Unido y otros 16 países más (España no está incluida).
En resumen, seguimos con un montón de buenas intenciones y prácticas a considerar, pero también una enorme vaguedad y falta de concreción en los enfoques y su implementación. No se definen criterios de evaluación objetivos ni se especifican detalles prácticos que alguien pueda implementar y evaluar.
Me parece adecuado que aún no se esté regulando la IA de manera estricta, pero es necesario que se empiecen ya a dar algunos pasos concretos:
- Definición de un estándar para el desarrollo de System Cards.
- Sistemas de evaluación para modelos de LLM basados en pruebas automáticas, acompañados por bases de datos abiertas de prompts que verifiquen el cumplimiento ético y moral de los modelos.
- Publicación de checklists y protocolos de cumplimientos concretos para los modelos.
- Creación de un sistema que monitoree y analice “vulnerabilidades” en los frameworks de IA (similar al sistema CVE) para permitir la identificación y la difusión de fallos de seguridad.
Por último, llama la atención que no haya ningún apartado ni referencia a Open Source ni se promueva el desarrollo de estas tecnologías en este ámbito. Si los gobiernos desean verdaderamente un desarrollo responsable de estas tecnologías, deberían promover el uso de este tipo de licencias abiertas de forma prioritaria.
Para más información, puedes consultar la guía completa en el sitio web del Centro Nacional de Ciberseguridad de Reino Unido. La iniciativa también está respaldada por el Centro de Seguridad de IA de EE.UU. y forma parte de los esfuerzos internacionales tras la Cumbre de Seguridad de IA de Bletchley Park celebrada en noviembre de 2023.