domingo, noviembre 9, 2025

La importancia de evitar los sesgos y tener datasets de calidad antes de implantar IA

Cualquier análisis con Inteligencia Artificial requiere DATOS, en cantidad suficiente, de calidad y sin sesgos de origen. Esto es aplicable también a la producción animal.
Es por ello que resumimos aquí un interesante documento de la UE, que aunque no se refiere a la ganadería, es perfectamente aplicable a esta.
El extenso informe técnico y legal titulado «Auditing the quality of datasets used in algorithmic decision-making systems», fue elaborado por múltiples autores de centros académicos y de investigación a solicitud del Panel para el Futuro de la Ciencia y la Tecnología (STOA) del Parlamento Europeo. Este documento examina exhaustivamente el problema del sesgo en los sistemas de inteligencia artificial (IA), argumentando que el sesgo es inherente a la sociedad humana y se replica en la IA a través de los conjuntos de datos.
El informe analiza las implicaciones técnicas y legales de los sesgos, proponiendo que la legislación de protección de datos, particularmente el concepto de «equidad» (fairness) del GDPR, junto con las próximas regulaciones como la Ley de IA (AI Act), son herramientas cruciales para su mitigación. Finalmente, el estudio presenta y evalúa diversas opciones de políticas públicas, incluyendo la certificación de bases de datos y el fortalecimiento de los derechos de transparencia, con el objetivo de garantizar una IA más justa y menos discriminatoria dentro del marco regulatorio de la Unión Europea.

Este estudio del Parlamento Europeo analiza el problema de los sesgos en los sistemas algorítmicos de toma de decisiones, centrándose en la calidad de los conjuntos de datos utilizados. A continuación presentamos un resumen de sus principales hallazgos y recomendaciones.

Hallazgos clave

  • Los sesgos en la IA reflejan los sesgos humanos y sociales: El informe subraya que la inteligencia artificial (IA) a menudo reproduce los sesgos existentes en la sociedad. Por lo tanto, el objetivo no es oponerse a la tecnología, sino utilizarla como una oportunidad para comprender y mitigar la discriminación.
  • El ciclo de vida del sesgo: Los sesgos pueden introducirse en cualquier etapa del desarrollo de un sistema de IA: desde la definición del problema y la recopilación de datos hasta el desarrollo, la validación y la implementación del modelo.
  • Importancia de la calidad de los datos: La calidad de los conjuntos de datos de entrenamiento es fundamental para evitar resultados sesgados. Cuestiones como la falta de representación de ciertos grupos, los errores en los datos y el etiquetado incorrecto pueden dar lugar a sistemas de IA discriminatorios.
  • Limitaciones del marco legal actual: Las actuales directivas de la UE sobre discriminación tienen lagunas que dificultan la prevención de sesgos algorítmicos. Por ejemplo, la protección contra la discriminación a menudo se limita a ciertos motivos (como el género o la raza) y a contextos específicos (como el empleo).
  • El papel de la protección de datos: El Reglamento General de Protección de Datos (RGPD) puede ser una herramienta eficaz para combatir los sesgos, especialmente a través del principio de «equidad» (fairness) en el tratamiento de los datos. Las Evaluaciones de Impacto en la Protección de Datos (EIPD) son un mecanismo clave para evaluar y mitigar los riesgos de sesgo desde el diseño.

Recomendaciones y opciones de política

El estudio propone varias opciones de política para abordar el problema de los sesgos en la IA:

  1. No crear nueva legislación específica sobre sesgos: En lugar de crear nuevas leyes, el informe sugiere centrarse en resolver las inconsistencias entre las regulaciones existentes y las nuevas propuestas (como la Ley de IA, la Ley de Gobernanza de Datos y la Ley de Datos).
  2. Enfoque preventivo: Fortalecer la mitigación de sesgos desde las primeras etapas del desarrollo de herramientas de IA, garantizando que los conjuntos de datos de entrenamiento, validación y prueba sean relevantes, representativos, libres de errores y completos.
  3. Certificación de bases de datos: Promover la creación de certificados para los conjuntos de datos, especialmente los utilizados en sistemas de IA de alto riesgo. Esto ayudaría a garantizar la estandarización y la calidad de la información, aplicando la concienciación sobre el sesgo desde el inicio del ciclo de vida de los sistemas algorítmicos.
  4. Derechos de transparencia para los sujetos de los sistemas de IA: Otorgar a las personas afectadas por decisiones algorítmicas el derecho a obtener información significativa sobre la lógica implicada y los datos de entrenamiento utilizados. Esto les permitiría comprender mejor las decisiones y detectar posibles sesgos.
  5. Facilitar la implementación de la Ley de IA: Apoyar a las empresas, especialmente a las pymes, para que cumplan con las nuevas regulaciones. Esto podría incluir medidas como la creación de «sandboxes» regulatorios y la provisión de acceso a bases de datos de alta calidad por parte de las instituciones públicas.

Fuente:
-. Auditing the quality of datasets used in algorithmic decision-making system.

Publicado en
Etiquetado