Alinear ciberseguridad y ética, obligatorio en el uso de la inteligencia artificial

  • Actualidad

El 60% de las empresas españolas está implantando soluciones de inteligencia artificial para automatizar procesos, pero en los modelos de automatización no se conseguirá el verdadero éxito si no se implanta la tecnología de manera responsable. Y la seguridad y la ética son muy importantes para conseguirlo.

Recomendados: 

Informe IT Trends: 2020, el año de la consolidación digital Leer

Ciberseguridad en 2020, ¿qué podemos esperar? Registro

Tendencias TI 2020, visionando el futuro. Webinar ondemand.

La inteligencia artificial es una de las tecnologías más disruptivas y se cuela a gran velocidad en los entornos empresariales. Así lo constata el último CEO Outlook, en cuyo interior KPMG subraya que “las tecnologías basadas en Automatización Inteligente ofrecen grandes oportunidades para transformar los modelos de negocio de sus organizaciones y lograr un mayor rendimiento”.

Sin embargo, el verdadero éxito a largo plazo de los modelos de automatización inteligente reside en su implantación y control de manera responsable. Para poder lograr un despliegue ético de la inteligencia artificial, KPMG ha identificado cinco pilares básicos sobre las políticas y acciones que pueden llevar a cabo las organizaciones para que la Inteligencia Artificial sea productiva y les permita implantar modelos con integridad y transparencia. Son éstos:

1. Transformar el lugar de trabajo
Aunque se ha prestado mucha atención al potencial impacto negativo de las tecnologías de automatización inteligente en los puestos de trabajo, la consultora cree que si la organización integra correctamente la tecnología con las personas, no sólo favorecerá sus resultados financieros sino que también reforzará su cultura. La formación en el puesto de trabajo con el desarrollo de nuevas habilidades es un paso crucial que las empresas más punteras ya han empezado a adoptar.

2. Establecer supervisión y buen gobierno
Existen iniciativas emergentes enfocadas a regular y supervisar la IA como el Reglamento General de Protección de Datos (GDPR) de 2018 o la American AI Initiative de febrero de 2019. Sin embargo, KPMG considera que, además, es la empresa la que debe establecer políticas claras de supervisión y gobierno de la IA, como el correcto uso de los datos y las reglas de privacidad. Crear algoritmos basados en un marco ético es un imperativo para los responsables de implantar la IA de manera responsable. Estas políticas a nivel empresarial pueden sin duda ayudar a influir en la dirección de la legislación.

3. Alinear la ciberseguridad y la ética
Los algoritmos no solo deben tener una base ética sino también aportar una fuerte seguridad. Las empresas son conscientes de que hay que gestionar los riesgos de seguridad que plantean los algoritmos para no poner en peligro su reputación y otros activos clave de la misma. La ciberseguridad por tanto es crucial para inspirar confianza a los líderes empresariales y generar modelos de algoritmos sólidos y con integridad.

4. Reducir sesgos
Los líderes empresariales deben asumir el imperativo moral de mitigar el sesgo en todo el ciclo de gobierno de la IA. Los algoritmos van evolucionando, desde su concepción hasta su construcción y uso, por tanto el sesgo puede aparecer en cualquier momento y puede ponerse en peligro la información que incorpora. KPMG propone verificar que el diseño esté en consonancia con las principios y normas, valores y ética empresariales para evitar los sesgos en la medida de lo posible.

5. Aumentar la transparencia
En un contexto de análisis masivo de datos sensibles, las empresas deben proporcionar a los clientes la claridad y transparencia en la información que buscan y necesitan. Es necesario hacer llegar al mercado que la empresa está actuando con transparencia y el alcance de las decisiones tomadas en base a datos personales.