Desinformación y exceso de regulación: dos espadas de Damocles para la IA
- Actualidad
Desde su irrupción en 2023, la inteligencia artificial no ha parado de crear controversia, y es fuente de generación de uno de los principales riesgos globales de los próximos años.
La inteligencia artificial irrumpió de forma clara y generalizada a lo largo de 2023, pero aún está lejos de desarrollar todo su potencial. Más allá de los avances que aporta, la IA se erige como el nuevo gran riesgo global a corto plazo, junto con la crisis climática, según el último informe del Foro Económico Mundial (FEM).
En este contexto, los expertos de EALDE Business School sostienen que, “al margen del recorrido que se tiene en términos de algorítmica y aprendizaje, la IA tendrá un efecto disruptivo nunca visto en la historia de la humanidad. La computación cuántica acabará por llevar a la inteligencia artificial y a la computación en general, a límites insospechados”. La escuela de negocios mantiene que las ventajas de la IA son innumerables y, en consecuencia, las oportunidades asociadas muchísimas. No obstante, los riesgos también son igualmente enormes ya que confiar en exceso de los resultados de procesos de IA puede llevarnos a cometer errores críticos.
El uso de la IA por parte de malas prácticas de la competencia puede llegar a destruir nuestra reputación, y los sesgos asociados a malos modelos de entrenamiento pueden discriminar colectivos o poblaciones enteras. En este sentido, no solo se trata de vigilar las nuevas prestaciones asociadas la IA, sino de pensar cómo esas nuevas prestaciones pueden convertirse en amenazas.
En segundo plano está la enorme dependencia que cada vez más tienen todo tipo de actividades del flujo de información y de la transferencia de datos mediante internet. “Ya no solo se trata de la vulnerabilidad asociada a que los datos fluyan por la red, se trata de que, si dejan de fluir, la disrupción es clara y potencialmente crítica”, mantiene EALDE.
La desinformación de la IA en el ranking de riesgos a corto plazo
La Inteligencia Artificial ha permitido que personas y/o organizaciones sin demasiadas habilidades generen gran cantidad de información falsificada que aumentará en el tiempo y contenidos ‘sintéticos’, como clonación de voces e imágenes, así como falsificación de sitios web para para engañar a las personas.
En este sentido, los expertos señalan que, para paliar los riesgos crecientes, los gobiernos están comenzando a implementar nuevas regulaciones dirigidas a combatir la desinformación en línea y el contenido ilegal. Sin embargo, las regulaciones probablemente se quedarán rezagadas debido a la gran velocidad de innovación de la IA. En cualquier caso, el exceso de regulación no es positivo para el desarrollo de la inteligencia artificial, por lo que se debe mantener un equilibrio entre innovación y regulación.
De acuerdo con los expertos, es importante que las empresas, gobiernos y otras organizaciones establezcan políticas y regulaciones digitales efectivas que demuestren prioridades claras y estables. Por ejemplo, en China la regulación exige colocar una marca de agua, que indique que el contenido fue generado con inteligencia artificial, lo que puede ayudar a identificar información falsa, manipulada o errónea. “Además, la IA aumentará la brecha digital entre países de altos y bajos ingresos, provocando una mayor disparidad en la distribución de beneficios y riesgos.