La inteligencia artificial
no deja de avanzar, ya
sea para bien o para mal.
Aunque ChatGPT es uno
de los modelos de lenguaje (LLM) más conocidos y difundidos por los
usuarios, existen otras
variantes, principalmente aprovechadas con fines
maliciosos y disponibles en
foros clandestinos.
Algunos de estos modelos son
WormGPT y FraudGPT, se menciona en un informe del IJSR CSEIT, herramientas similares en la Dark Web
destinadas a ayudar a ciberdelincuentes, sin restricciones y diseñadas para tareas como la creación de
malwares indetectables, identificación de fugas o vulnerabilidades, así
como la elaboración de páginas de
phishing y pirateos.
El primero de estos proyectos es
WormGPT, un modelo de IA que surgió en marzo de 2021 y que empezó
a ofrecerse en foros de hackers. Este
chatbot se caracteriza por no tener límites que le impidan responder
preguntas sobre actividades ilegales,
a diferencia de LLM como ChatGPT.
Por ejemplo, WormGPT se puede utilizar para tareas como escribir
malware en Python o incluso redactar correos electrónicos de phishing
convincentes.