FraudGPT y WormGPT son dos modelos de IA que permiten crear scripts y correos electrónicos maliciosos.
La IA ha traído consigo una revolución en diversos ámbitos, y lamentablemente, la ciberdelincuencia no ha quedado excluida de este avance. En este contexto, emergen en la Dark Web gemelos malignos de modelos de IA benignos, como es el caso de FraudGPT, un hito en la evolución de los ciberataques maliciosos, según detallan investigadores en un informe publicado en IJSR CSEIT.
De acuerdo con Xataka, FraudGPT se presenta como una herramienta de IA generativa por suscripción, cuyo propósito es la creación de correos de phishing altamente convincentes y páginas web falsas. Su descubrimiento tuvo lugar en julio de 2023 a través de la plataforma Netenrich, que rastreaba la Dark Web y canales de Telegram. Este gemelo maligno de ChatGPT se ha convertido en una herramienta esencial para cibercriminales que buscan engañar a usuarios y ejecutar campañas de desinformación.
Acompañando a FraudGPT, surge WormGPT, otro modelo de IA que facilita la creación de correos de phishing de manera sencilla. Basado en el modelo abierto GPT-J creado por EleutherAI en 2021, WormGPT presenta una versión más antigua accesible desde unos US$65 al mes y hasta US$559 al año, con una versión v2 más actualizada disponible por 5.000 euros.
Le puede interesar: Cinco tendencias que afectarán al sector de la seguridad en 2024
Contrariamente a la versión de OpenAI, FraudGPT no es gratuita y tiene un costo mensual de alrededor de US$200 o US$1.700 al año. Los cibercriminales, conscientes de la efectividad de esta herramienta, están dispuestos a invertir en ella para potenciar sus actividades delictivas. WormGPT, por otro lado, ofrece opciones más asequibles, pero la versión personalizada tiene un precio significativo, destacando la creciente comercialización de herramientas de ciberdelincuencia en la Dark Web.
FraudGPT se presenta como una IA especializada en la redacción de código malicioso, la creación de malware indetectable, la elaboración de páginas de phishing, herramientas de hackeo y la composición de correos de estafas. Los investigadores de Trustwave han comparado esta herramienta con ChatGPT, encontrando diferencias notables. Aunque ChatGPT puede proporcionar código y correos de phishing, lo hace con advertencias y con un resultado menos convincente en comparación con FraudGPT.
Uno de los aspectos más preocupantes es la capacidad de herramientas como FraudGPT para generar contenido malicioso en cualquier idioma, con un lenguaje prácticamente perfecto. Esto representa un cambio significativo en las tácticas de ciberataque, eliminando la vieja recomendación de buscar errores gramaticales y sintácticos obvios para detectar correos maliciosos.
El experto en seguridad Fernando Anaya, de la firma Proofpoint, destaca que los días en los que los usuarios podían confiar en la detección de faltas de ortografía han quedado atrás. Esta nueva generación de herramientas permite a los ciberdelincuentes superar barreras lingüísticas, aumentando la efectividad de sus ataques.
Comments