Los ciberdelincuentes ante el dilema ético de la IA
- Actualidad
Aunque la inteligencia artificial generativa ya está siendo utilizada para la generación automática de mensajes eficaces de ingeniería social, según un estudio de Sophos los ciberdelincuentes son desconfiados con las herramientas de IA y debaten sobre las cuestiones éticas de su uso.
2023 ha sido el año de la inteligencia general generativa. Junto a la proliferación de herramientas que intentan aprovechar todo su potencial en los más diferentes sectores, ha habido también una oleada de reacción frente a ella, fundamentada en una cuestión central: el peligro que puede suponer para la Humanidad. Este temor ha tenido varios hitos a lo largo del año, desde la carta de importantes representantes del mundo tecnológico pidiendo que se parase su desarrollo hasta la declaración de primeras figuras tecnológicas en el senado de Estados Unidos.
Pues bien, al parecer los ciberdelincuentes no son ajenos a ese dilema ético. Puede que sean incluso más sensibles que la media sobre el tema. Aunque no hay encuestas sobre los intereses y preocupaciones de los hackers, es lógico pensar que son más aficionados a Matrix o Terminator que, digamos, a Los puentes de Madison. A falta de encuestas, Sophos ha analizado los foros de discusión de la dark web para sondear la opinión sobre el tema.
Según la compañía, hay desconfianza sobre aplicaciones tipo GPT aplicadas a la ciberdelincuencia, aunque los investigadores de Sophos ya han encontrado diez derivados de ChatGPT preparados para lanzar ciberataques y desarrollar programas maliciosos. Derivados que se han topado con el escepticismo por el temor de los ciberdelincuentes a ser estafados. También es probable que tengan miedo de que la IA les haga perder su negocio.
Así, los mensajes sobre la IA no son tan habituales como pudiéramos pensar. Mientras Sophos encontró 1.000 mensajes que hablaban sobre las criptomonedas, solo encontró 100 mensajes sobre inteligencia artificial en el mismo periodo. También se encontró con una especia de artículos de opinión en los que se alertaba del peligro de la inteligencia artificial para la Humanidad.
Christopher Budd, director de investigación de X-Ops de Sophos, resume que han “observado que algunos atacantes intentaban crear malware o herramientas de ataque utilizando LLM, pero los resultados eran rudimentarios y a menudo se encontraban con el escepticismo de otros usuarios. En un caso, un cibercriminal, ansioso por mostrar el potencial de ChatGPT, reveló inconscientemente información sobre su identidad real. Además, encontramos muchas ‘tribunas de opinión’ sobre los posibles efectos negativos de la IA en la sociedad y las implicaciones éticas de su uso. En otras palabras, al menos por ahora, parece que los ciberdelincuentes mantienen los mismos debates sobre la IA que el resto del mundo”.