Borja Sánchez, Cibersecurity & Business Resilence Senior Manager en Marsh España, realiza una serie de comentarios sobre los posibles riesgos de la utilización de herramientas de Inteligencia Artificial como ChatGPT.
Así, indica que «las herramientas públicas de OpenAI, como ChatGPT o DALL·E, pueden ser mal utilizadas por individuos malintencionados. Estos individuos pueden usar ChatGPT para actividades ilegales, como el phishing, el robo de identidad, el robo de información personal y financiera, la creación de contenido perjudicial como información falsa o discurso de odio, el robo de información a través de búsquedas de sistemas y su posterior envío, la ejecución de código malicioso en sistemas vulnerables».
Y añade que «hay preocupaciones de seguridad debido al potencial mal uso de ChatGPT por parte de actores malintencionados. Actualmente, se está compartiendo información en la deep web sobre cómo crear herramientas automatizadas para el cibercrimen y el fraude usando ChatGPT con facilidad. El mal uso de herramientas de IA como ChatGPT o DALL·E puede tener graves consecuencias éticas, incluyendo discriminación, difusión de información falsa, violación de la privacidad, daño emocional y responsabilidad y ética. Es importante considerar estos desafíos éticos a medida que se usan las herramientas de IA y se toman medidas para prevenir su uso fraudulento y garantizar un uso ético».
Las personas malintencionadas, como indica Sánchez, pueden utilizar ChatGPT para realizar actividades ilegales como: Phishing, suplantación de identidad, robo de información personal y financiera, creación de contenido malicioso como información falsa o discursos de odio, robo de información a través de la búsqueda en sistemas y su posterior envío y ejecución de código malicioso en sistemas vulnerables.
Así, sobre el robo de información: «ChatGPT puede ayudar a crear una herramienta de forma sencilla que busca información en el sistema (pdf, word, excel, etc) y crea una carpeta temporal donde copiarla, comprimirla y enviarla mediante FTP».
En cuanto a la ejecución remota de código malicioso: «ChatGPT es capaz de redactar líneas de código en varios lenguajes de programación como Java o Python, esto puede ayudar a un ciberatacante a generar un código malicioso que ejecutado en un ordenador vulnerable, pueda lanzar cualquier programa mediante el uso de la consola de comandos de Windows y por ejemplo, acabar encriptando toda la información del sistema».
Y sobre la monetización de contenido generado por IA con derechos de autor: «Gracias a la facilidad que ofrece ChatGPT para generar contenido, usuarios con fines fraudulentos están usando la herramienta para monetizar contenidos generados por la herramienta que podrían estar infringiendo derechos de autor. Existe cierta preocupación sobre la información usada para entrenar los algoritmos que usa ChatGPT o DALL·E y ya se han visto casos de demandas por uso no autorizado de elementos sujetos a derechos de autor como imágenes o textos literarios»
Leer artículo completo:https://segurosnews.com/