
Les pirates ont eux aussi leur ChatGPT: WormGPT
Le Journal de Montréal
Contrairement à ChatGPT ou à d’autres outils d’IA générative connus, WormGPT répond aux requêtes cherchant du contenu malveillant.
SlashNext, un service de sécurité des courriels qui a testé le robot conversationnel (chatbot), prévient que ce nouvel outil pourrait ouvrir un nouveau vecteur pour les cybercriminels, en particulier dans les attaques de type Business Email Compromise (BEC) ou fraudes du faux PDG.
WormGPT a été présenté par le pirate en mars et a été publié un peu plus tard. Il n’est pas protégé contre les requêtes malveillantes, ce qui le différencie des modèles d’IA plus éthiques tels que ChatGPT ou Bard de Google. Le concepteur de WormGPT a exprimé son intention de créer une plateforme permettant aux utilisateurs de se livrer à des activités illégales sans quitter le confort de leur domicile.
Les dangers potentiels de WormGPT résident dans sa capacité à automatiser la création de courriels faux et convaincants, personnalisés pour les destinataires, augmentant ainsi le taux de réussite des cyberattaques.
Il est possible d’ordonner au robot de créer des logiciels malveillants avec du code Python et d’obtenir des conseils sur la conception d’attaques dangereuses. WormGPT utilise GPT-J, un ancien modèle de langage de grande taille, après avoir été formé à l’aide d’informations sur la production de logiciels malveillants.
Pour accéder à WormGPT, les utilisateurs doivent créer un compte sur le forum et suivre un guide complet. Cependant, l’utilisation du dialogueur (chatbot) pour des activités malveillantes est illégale, et SlashNext en déconseille fortement l’usage. Bien qu’il puisse théoriquement être utilisé à des fins bénignes, il a été créé et diffusé dans une intention malveillante, ce qui soulève des questions éthiques et juridiques.
Les dangers de l’IA générative vont au-delà de WormGPT, car cette technologie peut être utilisée à mauvais escient par des pirates informatiques pour générer des courriels d’hameçonnage, des fausses nouvelles réalistes et des logiciels malveillants. Les logiciels malveillants produits par l’IA générative peuvent s’infiltrer dans l’ordinateur d’une victime et collecter des informations délicates. Par conséquent, les pirates informatiques peuvent envisager l’IA générative comme un outil utile pour exécuter des attaques nuisibles.