Europa estudia las implicaciones de seguridad de la inteligencia artificial en los vehículos autónomos

  • Actualidad

ciberseguridad coche autonomo

La seguridad debe ser un requisito previo para el despliegue confiable de vehículos autónomos en las carreteras europeas. Por eso, ENISA y el Joint Research Centre de la Comisión Europea han analizado los riesgos de la aplicación de la inteligencia artificial a la conducción y han emitido una serie de recomendaciones.

Recomendados: 

Protección avanzada de datos y continuidad de negocio con Nutanix y Veeam Webinar

Transacciones electrónicas europeas: cumpliendo con eIDAS Webinar 

La Agencia de la Unión Europea para la Ciberseguridad (ENISA) y el Joint Research Centre (JRC) de la Comisión Europea han analizado os riesgos de ciberseguridad que entraña la Inteligencia Artificial (IA) en vehículos autónomos, y sus conclusiones se han compilado en un informe con recomendaciones para mitigarlos.

Los vehículos autónomos podrán reducir en el futuro los accidentes de tráfico y las muertes, ya que sacan de la ecuación la causa más común: el conductor humano. Sin embargo, van a surgir otros riesgos completamente diferentes para los conductores, pasajeros y peatones. Estos coches utilizan sistemas de inteligencia artificial que emplean técnicas de aprendizaje automático para recopilar, analizar y transferir datos, con el fin de tomar decisiones que en los automóviles convencionales tomamos los humanos. Estos sistemas, como todos los de TI, son vulnerables a ataques que podrían comprometer el correcto funcionamiento del vehículo.

Los sistemas de inteligencia artificial de un vehículo autónomo funcionan sin parar para reconocer las señales de tráfico y las marcas viales, y para detectar vehículos, calcular su velocidad y planificar la ruta. Aparte de las amenazas no intencionales, como los fallos repentinos de funcionamiento, son vulnerables a ataques intencionados que pretenden interferir en las funciones críticas de seguridad.

Por eso, el informe recomienda que se realicen evaluaciones de seguridad con regularidad de todos los componentes de inteligencia artificial a lo largo de su ciclo de vida. “Esta validación sistemática de los modelos y datos de la IA es fundamental para garantizar que el vehículo siempre se comporte correctamente ante situaciones inesperadas o ataques maliciosos”, señala el documento.

Otro consejo es que los procesos continuos de evaluación de riesgos respaldados por inteligencia de amenazas podrían facilitar la identificación de peligros potenciales y amenazas emergentes relacionadas con la adopción esta tecnología en la conducción autónoma.

El informe concluye que deben regir “las políticas de seguridad de IA adecuadas, así como una cultura de seguridad, en toda la cadena de suministro del sector del automóvil”.

La industria debe un enfoque de seguridad por defecto desde el diseño para desarrollar y desplegar las funcionalidades de inteligencia artificial y convertir la ciberseguridad en pieza central. Finalmente, los autores subrayan que las empresas de este vertical deben aumentar su nivel de preparación y reforzar sus capacidades de respuesta ante los posibles incidentes para poder gestionar las situaciones que se puedan dar.

Suscríbete a nuestro Newsletter

* Todos los campos son requeridos