¿Cómo prepararse para el riesgo, la desinformación y los deepfakes generados por la IA?

  • Actualidad

Deepfake

Junto con la ciberseguridad, la regulación, los marcos, la gobernanza de datos y la fuerza de trabajo involucrados con la IA serán prioridades que los profesionales de la confianza digital deben tener en cuenta durante 2024.

El año pasado trajo consigo un nivel histórico de avances en inteligencia artificial con la introducción y el ascenso meteórico de herramientas de IA generativa como ChatGPT. “A medida que los profesionales de la confianza digital anticipan nuevos desarrollos en este espacio, es importante tomar medidas para prepararse para el riesgo, la regulación, los marcos, la gobernanza de datos y la fuerza de trabajo involucrados con la IA”, dice el experto de ISACA Goh Ser Yoong. Es por ello que, los entendidos recomiendan aplicar mecanismos de seguridad y resiliencia a los sistemas de IA, y prestar atención a otros factores entre los que se encuentran seis grandes aspectos:

1. Estar alerta ante los deepfakes y la desinformación generados por IA. Cada vez es más fácil engañar al público con estafas que pueden propagarse a través de videos falsos y desinformación creados a través de la tecnología de IA. Goh enfatiza que los individuos juegan un papel clave en la verificación de la credibilidad de la información que consumen.

2. Prestar atención a las próximas normativas relacionadas con la IA. Los expertos predicen que 2024 traerá más guardarraíles a través de regulaciones de IA, y todos los profesionales de la confianza digital -ya sean desarrolladores o CEO- deben mantenerse al tanto de los cambios en el panorama normativo.

3. Ser conscientes de la evolución del riesgo en torno a la utilización de la IA. Están surgiendo nuevos riesgos a medida que se crean diferentes formas de IA generativa. Los profesionales de la confianza digital deben conocer los riesgos asociados a la IA generativa y sus respectivas repercusiones para las organizaciones y la sociedad.

4. Fortalecer la gobernanza de los datos mediante la comprensión de los modelos de IA y la toma de decisiones. La integridad de los datos es primordial con la IA. Goh señala que los usuarios deben tener visibilidad de los datos utilizados para entrenar un modelo de IA y los factores que influyen en sus resultados para garantizar que son fiables, representativos, justos, y que no están sesgados.

5. Garantizar que los sistemas de IA sean seguros y resistentes. Los profesionales de la confianza digital deben tomar medidas para asegurarse de que los sistemas de IA funcionan como deben y se comportan de forma segura en diversas circunstancias. Este año y en adelante, será importante que los profesionales de la confianza digital desarrollen habilidades en el aseguramiento de la calidad y las pruebas, así como en la comprensión de las regulaciones existentes que guían la seguridad de la IA.

6. Cubrir las lagunas de conocimiento sobre IA con formación. Según la reciente encuesta AI Pulse Poll de ISACA, solo el seis por ciento de las organizaciones están proporcionando capacitación a todo el personal sobre IA; en tanto que el 54% dice que no se proporciona capacitación sobre IA, incluso a los equipos directamente impactados por la IA. Es fundamental crear talentos que dispongan de las herramientas adecuadas para trabajar con IA y para comprender y mitigar los distintos tipos de riesgos asociados.