La Ley europea de IA en la seguridad de los dispositivos médicos
- Actualidad
Un sistema de inteligencia artificial siempre se considerará de alto riesgo si elabora perfiles de personas físicas.
La implementación de la nueva ley europea de Inteligencia Artificial ha puesto de manifiesto la necesidad de definir límites legales y éticos para esta tecnología. El propósito principal de la norma es asegurar que los sistemas de inteligencia artificial comercializados en Europa cumplan con estándares de seguridad y respeten los valores y derechos fundamentales de la Unión Europea (UE).
Y es que esta ley, pionera a nivel mundial, aspira a regular el uso de la IA adaptando un enfoque “basado en el riesgo”, y aplicando reglas más estrictas según de qué manera pueda afectar a la seguridad los sistemas de IA comercializados en el mercado europeo.
Desde la perspectiva de ERNI Consulting España, Alberto Martín, director de Tecnología e Innovación, explica que “si bien esta Ley de IA representa un hito histórico, es necesario establecer normas concretas y sin lagunas, ya que la ambigüedad en estas podría ralentizar el proceso y limitar el potencial transformador de la IA”.
Dos visiones de la Ley de inteligencia artificial de la UE
Desde ERNI señalan que esta nueva normativa presenta una dualidad importante: por un lado, la norma actúa como una garantía de “filtro de calidad” para los proyectos de IA aprobados y destinados al uso comercial; sin embargo, las barreras operativas y la amenaza de multas excesivas podrían convertirse en un obstáculo para la innovación, especialmente para las pequeñas empresas y startups.
Paralelamente, la ley pone sobre la mesa una clasificación del riesgo que pueden llegar a representar los diferentes sistemas de IA (riesgo mínimo, alto riesgo, riesgo inadmisible). Por ejemplo, la ley contempla como “alto riesgo” los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos, incluyendo los dispositivos médicos.
En este caso, los expertos explican que, en el ámbito médico, una IA no podrá tomar decisiones para los pacientes y, en cualquier caso, un sistema de inteligencia artificial siempre se considerará de alto riesgo si elabora perfiles de personas físicas.
Finalmente, dependiendo de la infracción y el tamaño de la empresa, el incumplimiento de esta ley en la UE implicará multas que oscilan entre los 35 millones de euros o el 7% de la facturación global y los 7,5 millones o el 1,5% de la facturación.