El hermano maligno de ChatGPT y otras amenazas de la inteligencia artificial generativa




FraudGPT es el hermano maligno de ChatGPT. Se promociona en la dark web y puede escribir un mensaje hacindose pasar por un banco, crear malware o mostrar sitios web susceptibles de ser defraudados, segn la plataforma de anlisis de datos Netenrich. Otras herramientas como WormGPT tambin prometen facilitar el trabajo a los ciberdelincuentes. La inteligencia artificial generativa puede usarse con fines maliciosos: de generar estafas sofisticadas, a crear pornografa no consentida, campaas de desinformacin e incluso armas bioqumicas.A pesar de ser algo relativamente nuevo, los delincuentes no han tardado en aprovechar las capacidades de la inteligencia artificial generativa para conseguir sus propsitos, afirma Josep Albors, director de investigacin y concienciacin de la compaa de seguridad informtica ESET en Espaa. El experto pone algunos ejemplos: de la elaboracin de campaas de phishing cada vez ms perfeccionadas sin faltas de ortografa, adems de muy bien segmentadas y dirigidas a la generacin de desinformacin y de deepfakes. Es decir, vdeos manipulados con inteligencia artificial para alterar o sustituir la cara, el cuerpo o la voz de una persona.Ms informacinPara Fernando Anaya, country manager de Proofpoint, la inteligencia artificial generativa ha demostrado ser un paso evolutivo ms que revolucionario. Atrs quedaron los das en los que se aconsejaba a los usuarios buscar errores gramaticales, de contexto y de sintaxis obvios para detectar correos maliciosos, afirma. Ahora los atacantes lo tienen ms fcil. Basta con pedirle a una de estas herramientas que genere un email urgente y convincente acerca de actualizar informacin de cuentas y rutas bancarias.Adems, pueden crear fcilmente correos electrnicos en muchos idiomas. Es posible que un LLM (un modelo de lenguaje colosal, que usa aprendizaje profundo y se entrena con grandes cantidades de datos) primero lea todos los perfiles de LinkedIn de una organizacin y luego redacte un correo electrnico muy especfico para cada empleado. Todo ello en impecable ingls u holands, adaptado a los intereses especficos del destinatario, advierte el Centro de Seguridad Ciberntica holands.Philipp Hacker, catedrtico de Derecho y tica de la Sociedad Digital en la Nueva Escuela Europea de Estudios Digitales, explica que la inteligencia artificial generativa puede usarse para crear malware ms efectivo, ms difcil de detectar y capaz de atacar sistemas o vulnerabilidades especficas: Si bien todava es probable que se requiera una gran experiencia humana para desarrollar virus avanzados, la inteligencia artificial puede ayudar en las etapas iniciales de la creacin de malware.La implementacin de este tipo de tcnicas an dista mucho de estar generalizada, segn Albors. Pero herramientas como FraudGPT o WormGPT pueden suponer un serio problema de cara al futuro. Con su ayuda, delincuentes sin apenas conocimientos tcnicos previos pueden preparar campaas maliciosas de todo tipo con una probabilidad de xito considerable, lo que para usuarios y empresas supondr tener que lidiar con un nmero de amenazas an mayor.Generar audio, imgenes y vdeosCuanto ms convincente sea una estafa, ms probabilidades habr de que alguien se convierta en vctima. Hay quienes usan la inteligencia artificial para sintetizar audio. Estafas como las de pig butchering podran pasar algn da de los mensajes a las llamadas, aumentando an ms la capacidad de persuasin de esta tcnica, cuenta Anaya. Esta estafa, traducida al espaol como carnicera de cerdos, se llama as porque los atacantes engordan a las vctimas y se ganan su confianza para luego llevarse todo lo que tienen. Aunque suele estar relacionada con las criptomonedas, tambin puede implicar otros intercambios financieros.Los investigadores de Proofpoint han visto ya a ciberdelincuentes emplear esta tecnologa para engaar a funcionarios gubernamentales. Algo que muestra su investigacin sobre el grupo TA499, que utiliza esta tcnica contra polticos, empresarios o celebridades. Realizan videollamadas en las que tratan de parecerse lo ms posible a los individuos suplantados con inteligencia artificial y otras tcnicas para que las vctimas cuenten informacin o ridiculizarlas, subiendo la grabacin despus a redes sociales, explica Anaya.La inteligencia artificial generativa tambin se usa para realizar campaas con imgenes modificadas e incluso vdeos. Se ha clonado el audio de presentadores de televisin o personalidades importantes como Ana Botn, Elon Musk o incluso Alberto Nez Feijo. As lo explica Albors: Estos deepfakes se usan principalmente para promocionar inversiones en criptomonedas que suelen terminar con la prdida del dinero invertido.De pornografa a armas bioqumicasA Hacker le resulta particularmente alarmante el uso de inteligencia artificial generativa para crear pornografa. Esta forma de abuso se dirige casi exclusivamente a las mujeres y provoca graves daos personales y profesionales, seala. Hace unos meses decenas de menores de Extremadura denunciaron que circulaban fotos de falsos desnudos suyos creadas por inteligencia artificial. Algunas celebridades como Rosala o Laura Escanes han sufrido ataques similares.La misma tecnologa se ha usado para crear imgenes falsas que retratan a inmigrantes amenazantes, con el objetivo de influir en la opinin pblica y los resultados electorales, y para crear campaas de desinformacin ms sofisticadas y convincentes a gran escala, como destaca Hacker. Tras los incendios forestales que arrasaron la isla de Maui en agosto, algunas publicaciones indicaban sin ningn tipo de evidencia que haban sido causados por un arma climtica secreta probada por Estados Unidos. Estos mensajes formaban parte de una campaa liderada por China e incluan imgenes aparentemente creadas con inteligencia artificial, segn The New York Times.El potencial del uso de la inteligencia artificial generativa no acaba aqu. Un artculo publicado en la revista Nature Machine Intelligence indica que los modelos avanzados de inteligencia artificial podran ayudar en la creacin de armas bioqumicas. Algo que, para Hacker, representa un peligro global. Adems, los algoritmos pueden infiltrarse en el software de infraestructuras crticas, segn el experto: Estas amenazas hbridas desdibujan las lneas entre los escenarios de ataque tradicionales, lo que las hace difciles de predecir y contrarrestar con las leyes y regulaciones existentes.El desafo de prevenir los riesgos de FraudGPT y otras herramientasExisten soluciones que utilizan aprendizaje automático y otras técnicas para detectar y bloquear los ataques más sofisticados. Aun así, Anaya hace hincapié en la educación y la concienciación de los usuarios para que ellos mismos puedan reconocer los emails de phishing y otras amenazas. Para Hacker, mitigar los riesgos asociados con el uso malicioso de la inteligencia artificial generativa requiere un enfoque que combine medidas regulatorias, soluciones tecnológicas y directrices éticas. 
Entre las posibles medidas, menciona la implementación de equipos independientes obligatorios que prueben este tipo de herramientas para identificar vulnerabilidades y posibles usos indebidos o la prohibición de ciertos modelos de código abierto. “Abordar estos riesgos es complejo, ya que existen importantes compensaciones entre los diversos objetivos éticos de la inteligencia artificial y la viabilidad de implementar ciertas medidas”, concluye.Puedes seguir a EL PAS Tecnologa en Facebook y X o apuntarte aqu para recibir nuestra newsletter semanal.