Los 7 pecados digitales de ChatGPT

  • Opinión

Mario García, director general para España y Portugal de Check Point

Tras abrir su disponibilidad al público general el año pasado, hemos visto como las herramientas de inteligencia artificial generativas se han convertido en uno de los productos favoritos de los usuarios, destacando especialmente ChatGPT. Ofreciendo respuesta a todo tipo de consultas personales e incluso de trabajo, por desgracia, muchos usuarios todavía ignoran los peligros que esconde.

La IA todavía cuenta con un gran potencial de desarrollo, por eso es importante que la colaboración entre expertos en ciberseguridad y los desarrolladores de estas herramientas se convierta en uno de los cimientos esenciales para anticipar y abordar los posibles riesgos emergentes. Y es que, durante estos meses, nuestros expertos han podido detectar numerosos ejemplos de cómo los ciberdelincuentes han estado utilizando las aplicaciones de OpenAI, Microsoft y Google para acelerar y mejorar sus ciberataques, suponiendo ya una problemática para los desarrolladores de estas tecnologías, y el público general.

Tratándose de un campo todavía bastante novedoso, la inteligencia artificial todavía carece de una regulación adecuada. Algo que ha acabado desembocado en diversas problemáticas que, además de conllevar un gran peligro, debemos tratar de manera apremiante. El primer paso es continuar apostando por una mayor seguridad que impida que los ciberdelincuentes continúen utilizando estas herramientas para la creación, depuración y mejora de códigos maliciosos y herramientas de malware.

Aunque este no es el único mal uso que podemos encontrar, el phishing es una de las mayores problemáticas actualmente. Con una gran cantidad de ejemplos disponibles, la IA permite crear unas comunicaciones falsas mucho más realistas y convincentes que hacen que la tarea de distinguir los verdaderos correos legítimos se convierta en un auténtico reto. Algo que vemos también reflejado en la suplantación de otros usuarios mediante el uso de técnicas de ingeniería social.

Todo ello desemboca en campañas para la filtración y robo de datos, generando unas comunicaciones empresariales e individuales utilizadas para engañar a los usuarios y hacer que revelen datos personales, credenciales, e incluso datos sensibles como cuentas bancarias.

Los ciberdelincuentes han descubierto en la inteligencia artificial un poderoso aliado

No obstante, esto es sólo la punta del iceberg. Los grupos de ciberdelincuentes dedicados al hacktivismo han descubierto en la inteligencia artificial un poderoso aliado para la creación de desinformación y propaganda. Con herramientas como estas, cada vez más accesibles y asequibles, hay una creciente preocupación de que distinguir entre archivos auténticos y deep fakes sea casi imposible, capaces de crear fotografías, vídeos e incluso audios falsos.

En un contexto claramente marcado por el todavía presente conflicto bélico entre Ucrania y Rusia, sin duda estos países y sus representantes políticos han sido unos de los principales protagonistas de estas suplantaciones de identidad. Además por supuesto de otras personalidades de repercusión mundial como Donald Trump o Joe Biden, al que vimos interpretar una conocida canción para niños.

Sin embargo, también hemos podido ver otros ejemplos a nivel local, con motivo de las ya realizadas elecciones generales y la incertidumbre sobre unas nuevas votaciones. Y es que hemos podido ver cómo las redes sociales se llenaban con ejemplos de audios falsos en los que se emula a la perfección las voces de Pedro Sanchez o Alberto Núñez Feijóo, e incluso imágenes comprometedoras de Inés Arrimadas.

Para mitigar los riesgos de la inteligencia artificial en la ciberseguridad, y en general en nuestra sociedad, es esencial que comencemos a implementar unas regulaciones y estándares que garanticen un uso ético de esta tecnología y sus aplicaciones, promoviendo una total transparencia y responsabilidad en su desarrollo y uso.

Y es que la propia inteligencia artificial puede ser una de las herramientas para combatir el mal uso de su tecnología, con ejemplos ya presentes en soluciones que analizan a tiempo real las principales tácticas que utilizan los ciberdelincuentes para llevar a cabo sus ataques.

Estamos cerca de un punto de no retorno. Debemos comprender que este futuro ya no es para nada lejano, y que el momento de actuar debe ser ahora, evitando más daños antes de que estos ocurran.

Mario García, director general de Check Point Software para España y Portugal