Una herramienta de auditoría de sesgos en sistemas de IA.objetivo es analizar modelos de IA para detecta
E desarrollando “ai-act-compliant-auditor”, una herramienta CLI en Rust diseñada expresamente para auditar modelos de inteligencia artificial desde un enfoque técnico, legal y de información pública, garantizando la ausencia total de manejo de datos personales o inferencias emocionales.La arquitectura está pensada para permitir auditorías matemáticas directas sobre archivos de modelos y conjuntos de pruebas externos (“AuditModel”), verificaciones de transparencia algorítmica (“CheckTransparency”) y análisis post-facto de decisiones (“PostFactoAnalysis”), todo mediante subcomandos claros y modulares. El núcleo de la aplicación mide métricas robustas –paridad estadística, robustez, equidad, transparencia, cumplimiento legal del AI Act y derechos de acceso a la información– únicamente a través de análisis técnicos validados, sin ningún compromiso sobre la privacidad individual.Cada auditoría queda documentada en estructuras serializables que incluyen: análisis formal de pesos y activaciones del modelo, verificación técnica independiente del cumplimiento con el AI Act (artículos clave como el 5, 13 y 14), cumplimiento de libertad de información y certificado digital hash+firma, facilitando así la trazabilidad y defensa forense del resultado. No se almacena ni analiza ningún dato personal, garantizando una auditoría matemáticamente objetiva y respetuosa con los derechos digitales.Todo el proyecto y su uso están regulados por mi “Licencia de Herramienta de Defensa Constitucional y Derechos Digitales” (ver XML adjunto), que ampara su uso bajo el derecho internacional y europeo de no discriminación, transparencia algorítmica y defensa de la igualdad, cubriendo expresamente la protección legal de quienes auditen IAs de alto riesgo y proporcionando herramientas tecnológicas sólidas para la protección de los derechos fundamentales y la libertad digital.