System Cards: transparencia y explicabilidad en modelos de IA
Una de las iniciativas más útiles que se están desarrollando alrededor del uso ético y responsable de modelos de IA son las “System cards”. Estos son documentos que resumen el diseño, capacidades y limitaciones de un modelo de inteligencia artificial. Al estilo de “prospecto” de un medicamento se intenta dar un resumen sencillo que ayude a comprender mejor como funciona un modelo, cómo interactuar con él y qué limitaciones tiene.
Es interesante el esfuerzo que está haciendo OpenAI para intentar mostrar transparencia en el uso de sus modelos. En concreto con la aparición de la nueva capacidad de GPT-4 de tener capacidad multimodal para procesar imágenes (y en breve con DALL-E 3 de generarlas).
Algunas de las cosas que se describen en el paper que GPT-4V intenta evitar:
- Identificar y juzgar personas únicamente por imágenes en base a su apariencia física, país, raza o sexo.
- Dar respuestas que inciten a cometer hechos delictivos
- Resolver CAPTCHAs
- Hacer jailbreaks del modelo mediante la introducción de imágenes con prompts
- Dar respuestas de uso médico con imágenes
- Dar respuestas con imágenes con uso violento o con logotipos de organizaciones que inciten al odio.
Aún queda mucho por hacer, y a pesar de estos avances significativos, el camino hacia una IA completamente transparente y explicable es largo y lleno de retos. No obstante, dotar de transparencia y explicabilidad a los sistemas basados IA debe ser una prioridad a día de hoy para todos los que desarrollen y utilicen modelos.
Quizás la idea de validadores públicos, al estilo como se hicieron para la web en los años 90 para estándares HTML, vuelva a tener relevancia y veamos dentro de poco entidades independientes que puedan hacer certificaciones automáticas de modelos éticos y responsables.