Inteligencia Artificial

Sistema de IA de Alto Riesgo

Un sistema de IA que plantea riesgos significativos para la salud, la seguridad o los derechos fundamentales, y que está sujeto a requisitos estrictos en virtud del Reglamento Europeo de IA, como evaluaciones de conformidad, supervisión humana y obligaciones de documentación.

Definición Completa

En virtud del Reglamento Europeo de IA, los sistemas de IA de alto riesgo son aquellos que se encuadran en una de dos categorías principales. En primer lugar, los sistemas de IA utilizados como componentes de seguridad de productos regulados por la legislación de armonización de la UE incluida en el Anexo I (por ejemplo, maquinaria, productos sanitarios, juguetes, ascensores). En segundo lugar, los sistemas de IA desplegados en áreas sensibles enumeradas en el Anexo III, como la identificación biométrica, la gestión de infraestructuras críticas, la educación, el empleo, la aplicación de la ley, la migración y la administración de justicia.

Los proveedores de sistemas de IA de alto riesgo deben cumplir un conjunto integral de requisitos antes de comercializarlos. Estos incluyen el establecimiento de un sistema de gestión de riesgos, la garantía de gobernanza de datos y calidad de los conjuntos de datos de entrenamiento, el mantenimiento de documentación técnica detallada, la implementación de capacidades de registro y trazabilidad, la provisión de transparencia e información a los responsables del despliegue, la habilitación de una supervisión humana efectiva y la garantía de niveles adecuados de precisión, robustez y ciberseguridad.

Los sistemas de IA de alto riesgo deben someterse a una evaluación de conformidad, ya sea mediante procedimientos de control interno o, en determinados casos, con la intervención de un organismo notificado, antes de su comercialización en el mercado de la UE. También deben registrarse en la base de datos de la UE para sistemas de IA de alto riesgo.

Las obligaciones se extienden más allá de la comercialización inicial. Los proveedores deben implementar sistemas de vigilancia poscomercialización, notificar incidentes graves a las autoridades nacionales y garantizar el cumplimiento continuo durante todo el ciclo de vida del sistema. Los responsables del despliegue de sistemas de IA de alto riesgo también tienen obligaciones específicas, incluyendo la realización de evaluaciones de impacto en los derechos fundamentales en determinados supuestos.

Términos Relacionados

Otros términos que pueden ser útiles

Adelántate a los Cambios Regulatorios

Reversa monitoriza los cambios regulatorios en tiempo real para que nunca te pierdas una actualización que afecte a tu negocio.

Uso de cookies

Utilizamos cookies analíticas para mejorar nuestra web y su experiencia. Para más información, visite nuestra Política de Cookies.