La importancia de la seguridad y los derechos humanos en el crecimiento de la IA

  • ITDigitalSecurity

inteligencia artificial aplicada ©Freepik

La seguridad y los derechos humanos son cuestiones críticas en el crecimiento de la inteligencia artificial, ya que garantizan que la IA se desarrolle y utilice de manera ética, responsable y segura. En este reportaje analizamos las claves de esta problemática y cómo se le está haciendo frente.

En la era digital en la que vivimos, la ciberseguridad se ha convertido en un tema de vital importancia. Tanto es así, que aparece como uno de los temas a tener en cuenta en la Agenda Digital de la UE, en la que se establecen las bases para el avance tecnológico de la Unión en los próximos años. Y es que, el crecimiento exponencial de la tecnología ha supuesto que la ciberseguridad se convierta en un sujeto primordial en todos los ámbitos. La interconexión de dispositivos, de redes, el avance de la IA generativa y la proliferación de ataques dirigidos a grandes corporaciones, infraestructuras críticas y gobiernos han hecho fundamental garantizar la protección de nuestros datos y la privacidad en el entorno virtual.

No debemos olvidar que, más que nunca, la ciberseguridad está estrechamente relacionada con los derechos humanos y precisamente por ese motivo instituciones como la UE trabajan para desarrollar bases legales que permitan un avance tecnológico no intrusivo y seguro.

De hecho, según la Organización de las Naciones Unidas (ONU), acceder y utilizar internet de manera segura y libre, sin restricciones ni censura es un derecho. Por lo tanto, garantizar la ciberseguridad es fundamental para proteger este derecho y evitar cualquier forma de violación de los derechos humanos en el entorno virtual. Más aún cuando, en un mundo cada vez más digitalizado, la cantidad de datos e información que compartimos es cada vez mayor (y los ataques a los que estamos expuestos aumentan consecuentemente). Por lo tanto, es esencial contar con medidas de seguridad adecuadas que velen por la privacidad de nuestros datos y eviten una violación de nuestros derechos. Es necesario promover la educación en ciberseguridad a todos los niveles y fomentar el uso responsable de las tecnologías. Sobre todo, teniendo en cuenta el crecimiento y democratización de tecnologías como la IA generativa que, puede aportar muchos beneficios pero también supone un gran riesgo si se utilizada de forma errónea. Ya lo avisaban expertos como Elon Musk, CEO de Tesla y SpaceX al afirmar que "la inteligencia artificial es un riesgo fundamental para la existencia de la civilización humana". Más allá va Stephen Hawking, físico teórico y una de grandes mentes del siglo XXI al sentenciar que "el desarrollo pleno de la inteligencia artificial podría significar el fin de la raza humana".

Pero no entremos en terreno apocalíptico, lo cierto es que muchos de los peligros que supone la mala utilización de la IA ya han copado portadas en los últimos meses y alarmado parte de la sociedad ante el riesgo que supone el avance en este ámbito. Pero, tal y como apunta Bill Gates, cofundador de Microsoft, "la inteligencia artificial es una herramienta poderosa y, como todas las herramientas poderosas, puede usarse tanto para el bien como para el mal".

La proliferación de usos y el acceso generalizado a la inteligencia artificial está generando un profundo debate y cierta "alarma social" en los últimos meses. Hasta el punto de que muchos países de la UE prohibieron herramientas como ChatGPT ante el surgimiento de filtraciones de datos y otros problemas de seguridad. Sin embargo, para muchos expertos no vale con prohibir. Lo que realmente ha de hacerse es garantizar mejores condiciones para el desarrollo y el uso de esta tecnología y es por ello que la Unión Europea tiene preparada una Ley que intenta regular su uso dentro de nuestros estándares democráticos. El Parlamento europeo trabaja ya en una norma que garantice que los sistemas de IA utilizados en la UE sean “seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente”. Entre las medidas para conseguirlo, se establece, por ejemplo, que los sistemas de IA deben ser supervisados por personas “en lugar de automatización”. Asimismo, se establecen obligaciones para proveedores y usuarios en función del nivel de riesgo y, en el caso de la IA generativa que tanto ha dado que hablar en los últimos meses, debe cumplir con los requisitos de transparencia:

• indicar que el contenido fue generado por IA.

• Diseñar el modelo para evitar que genere contenido ilegal.

• publicar resúmenes de datos protegidos por derechos de autor utilizados para la capacitación.

Como vemos, la seguridad y los derechos humanos son cuestiones fundamentales en el desarrollo y crecimiento de la inteligencia artificial (IA) por varias razones:

  • Ética y responsabilidad: La IA tiene un impacto significativo en la sociedad, y es esencial que su desarrollo y uso se guíen por principios éticos y responsables. La idea es tener una norma que garantice que la IA se utiliza de manera justa, equitativa y, sobre todo, sin causar daño a las personas. Algo que, por desgracia, estamos viendo cada día más con aplicaciones que “muestran” cómo sería una persona desnuda, “falsean” su voz o incluso son capaces de generar imágenes en las que aparece una persona con gran credibilidad.
  • Privacidad: La IA a menudo involucra el procesamiento de grandes cantidades de datos personales por lo que se ha de garantizar que los datos de las personas que se utilizan para el procesamiento no sean comprometidos ni mal utilizados por el sistema.
  • Responsabilidad legal: A medida que la IA se vuelve más autónoma, surge la pregunta de quién es responsable en caso de daño o perjuicio causado por sistemas de IA. La claridad en las leyes y regulaciones relacionadas con la responsabilidad es importante en este ámbito porque siempre han de protegerse los derechos de las posibles víctimas.
  • Transparencia: Para garantizar la seguridad y privacidad es esencial que los sistemas de IA sean transparentes de forma que todo usuario pueda entender qué datos se van a utilizar y con qué fin.

Está claro que la seguridad y los derechos humanos son cuestiones críticas en el crecimiento de la inteligencia artificial, ya que garantizan que la IA se desarrolle y utilice de manera ética, responsable y segura, sin comprometer los derechos y libertades de las personas. Estos aspectos deben ser considerados en todas las etapas del desarrollo de la IA, desde la recopilación de datos hasta la implementación de los sistemas y es por ello que se espera que los próximos meses lleguen más noticias acerca de la norma definitiva ya que el pasado 14 de junio de 2023, los eurodiputados adoptaron su posición negociadora y ahora es momento de conversar con los diferentes países en el Consejo sobre la forma final de la ley para llegar a un acuerdo antes de que termine el año.

Está claro que sólo con una ley que proteja al usuario y exija responsabilidades podremos disfrutar plenamente de los beneficios de la tecnología sin comprometer nuestra seguridad ni nuestros derechos. En definitiva, la ciberseguridad no es el futuro, es el presente y sin ella, los avances tecnológicos supondrán un problema a gestionar en el futuro.

Desirée Rodríguez