Regulando la IA: esta es la situación a día de hoy

  • Actualidad

Inteligencia artificial Pervasive

El rápido crecimiento de las aplicaciones de consumo impulsadas por IA plantea muchas preguntas, tanto legales como técnicas y éticas. En este reportaje analizamos el borrador de regulación aprobado por la Unión Europea y sus posibles consecuencias.

Inteligencia artificial (IA) y regulación. Sin duda, estos dos conceptos llevan meses en boca de todos y, seguramente,seguirán formando parte de muchos titulares y noticias dado que la Unión Europea está en proceso de regular el uso de la tecnología a través de su proyecto de ley “IA Act”. Esta ley está estrechamente ligada a la aplicación del Reglamento General de Protección de Datos (RGPD), y subyace en la reciente decisión de las autoridades de algunos países europeos de sancionar a ChatGPT en su mercado, o el anuncio realizado por Google, de retrasar el acceso a su chatbot Bard en la Unión Europea.

Sin embargo, esta ley también tendrá como objetivo hacer más seguro el uso de estatecnología, que tanto se ha puesto en entredicho en los últimos meses, mediante el establecimiento de controles y regulaciones más estrictas.

Y es que, el rápido crecimiento de las aplicaciones de consumo impulsadas por IA plantea muchas preguntas, tanto legales como técnicas y éticas. Entre ellas, destaca la falta de transparencia ligada a la propia naturaleza de la tecnología y uso, que ya ha provocado la filtración de datos de grandes empresas como Samsung que, no olvidemos, ha sufrido tres filtraciones de datos desde que emplea ChatGPT. Pero los problemas van más allá: las soluciones como ChatGPT son herméticas y, en el estado actual, es imposible hacer seguimiento de cada pieza de información que se ha utilizado para responder a una solicitud de forma que es imposible “rastrear” la procedencia de los datos que hacen que la herramienta proporcione ciertas conclusiones y, por tanto, impide saber si esas respuestas tienen fundamento real.

De hecho, el problema va más allá cuando se plantean ejemplos de riesgo legal inducido por la combinación de IA con ciertos datos protegidos por el RGPD, una normativa cuyas multas en los últimos doce meses han alcanzado los 1.100 millones de euros (la mayoría de ellas ha afectado a empresas estadounidenses).

El 14 de junio marcó un nuevo paso hacia la regulación de la IA en la Unión Europea, pues el Parlamento Europeo ha dado luz verde a esta legislación con 499 votos a favor, 28 en contra y 93 abstenciones. Pero habrá que esperar hasta 2024 para su entrada en vigor efectiva, y varios meses más para observar las primeras implementaciones en la práctica. La siguiente etapa es que las autoridades comunitarias que, previsiblemente, deberían dar su respuesta a finales de este año. Después, deberá pasar por el Consejo Europeo para atender las diferentes consideraciones de los países miembro.

Ley europea de regulación de la IA: estas son las claves

El documento aprobado por la Eurocámara es una versión más dura que la propuesta inicial que esbozó la Comisión Europea en 2021 e incluye en su marco a los sistemas de IA generativa como ChatGPT. Además, mantiene la clasificación de distintos niveles de peligro en los usos de esta tecnología que ya incluía la propuesta inicial. Así mismo, los europarlamentarios han impulsado una prohibición adicional sobre el uso de la IA para sistemas de vigilancia biométrica, una tecnología que se encuentra también en pleno auge.

En cuanto a los niveles de riesgo, la norma distingue principalmente tres según especifica el borrador de la Comisión:

De un lado estarían las inteligencias artificiales cuyo uso no representa una gran amenaza para los ciudadanos.

En segundo lugar, las asociadas con la conducción autónoma o los sistemas que empleen las entidades financieras o de controlo como la policía fronteriza estarán sometidos a una mayor vigilancia al ser consideradas de riesgo alto para los derechos fundamentales.

El tercero lo componen las IAs cuyo riesgo se considera inaceptable y que pasarán a estar prohibidas en el territorio de la Unión Europea una vez la norma entre en vigor. En esta categoría se han incluido, por ejemplo, los sistemas biométricos de vigilancia.

Como vemos, la ley sigue su curso y, aunque no entrará en vigor hasta 2024, y la preocupación sobre lo que ocurrirá y las consecuencias que podrían derivarse sigue creciendo. En este sentido, el especialista en SASE Zscaler acaba de anunciar la disponibilidad de una solución de protección de datos para compañías que necesitan gestionar de forma segura el uso de aplicaciones de IA generativa por parte de sus empleados, en un momento en el que aproximadamente uno de cada cien utiliza activamente ChatGPT a diario. Así, las empresas se aseguran de que la utilización de IA por parte de sus empleados no suponga un problema para su seguridad.

Y es que, como hemos visto en los últimos meses, a pesar de todo el revuelo generado por filtraciones y otros problemas derivados de la utilización de esta tecnología, lo cierto es que son muchas las empresas que siguen apostando por ella. Buen ejemplo de ello es Mercedes-Benz que desde el pasado mes de junio incorpora ChatGPT al asistente de voz de sus coches.

Con esto en mente, Cohesity ha decidido proporcionar algunas recomendaciones a las empresas que desean beneficiarse de la IA hoy para que lo hagan en toda seguridad:

Así puede provechar la IA sin disminuir la ciberseguridad

-Piense en el cumplimiento: incluso si todos los datos no se ven afectados de la misma manera, la opinión de un experto en protección de datos es fundamental antes de introducir la IA en la empresa.

-Conozca sus datos: cada empleado debe saber qué datos alimentarán la IA y cuál es el valor para la empresa.

-Comprenda el contenido de los datos: los datos a los que se dirigen directamente las reglas de cumplimiento, como los datos bancarios o los datos personales, se deben identificar y marcar mediante filtros predefinidos lo que permitirá a la empresa mejorar la seguridad de sus datos y su cumplimiento.

-Controle los flujos de datos: cuando los datos se clasifican y categorizan de manera efectiva, las soluciones modernas de administración de datos pueden hacer cumplir estas reglas de clasificación sin la intervención del administrador. Luego, el acceso se controla a través del cifrado automático de datos y el control de identidad a través de la autenticación de múltiples factores.

Para Mark Molyneux, director técnico para la región EMEA de Cohesity: "Está claro que las empresas y sus empleados se enfrentarán a nuevos requisitos de cumplimiento. El tiempo que lleva ratificar e implementar la ley de IA no ralentizará su uso, al contrario, seguirá creciendo exponencialmente. Sin embargo, si estos datos incluyen reglas de uso vinculadas al RGPD, las empresas podrán controlar el uso de esta nueva tecnología sin temor a los riesgos legales”.

Desirée Rodríguez