Les entreprises de cybersécurité mettent en garde contre le fait que des chatbots intelligents similaires à ChatGPT démocratisent la cybercriminalité et rendent les hackers plus dangereux.
Dans l’actu : Alors que ChatGPT révolutionne le lieu de travail et remet en question l’utilité de nombreux emplois de bureau, des variantes non éthiques émergent également. Une porte ouverte pour les cybercriminels.
- Un jeune Portugais a créé WormGPT, qui élimine autant que possible les restrictions de sécurité et autres limitations intégrées. Le chatbot intelligent peut donc être utilisé pour créer des ransomwares ou élaborer des schémas de phishing sophistiqués.
- Le mois dernier, sur le dark web, l’internet clandestin, a été lancé le ChatGPT Fraud Bot ou FraudGPT. Ce service prétend également faciliter la tâche des hackers pour pénétrer dans les réseaux d’entreprise et commettre des cyber-vols.
- Les chatbots malveillants se multiplient, y compris une variante malveillante de DarkBERT, un modèle de langage à l’origine légitime qui scanne le dark web, ainsi que DarkBART, une version malveillante presque identique à Bard de Google.
En résumé : « Des outils d’IA malveillants tels que WormGPT et FraudGPT sont construits sur des plateformes d’IA générative open source afin de démocratiser la cybercriminalité, d’accroître la productivité des pirates informatiques et d’augmenter les chances de succès des attaques », écrit le spécialiste de la cybersécurité Trend Micro dans un communiqué de presse cette semaine. « Cette technologie est déjà utilisée par des cybercriminels opportunistes pour exploiter les failles de sécurité des entreprises. »
Kidnapping virtuel
Quelques applications concrètes :
- De vastes ensembles de données sont fusionnés et filtrés pour sélectionner les victimes les plus « lucratives », des numéros de téléphone aux informations de carte bancaire.
- Grâce au clonage vocal – la génération de voix avec des techniques de deepfake – le « kidnapping virtuel » devient beaucoup plus réaliste : les cybercriminels peuvent convaincre les victimes que leur enfant a été kidnappé en utilisant des voix clonées et exiger une rançon, alors qu’en réalité, il n’y a pas eu d’enlèvement physique.
- L’IA utilisée améliore considérablement la qualité des e-mails frauduleux ou des pages web, et ce, dans plusieurs langues.
- La création de logiciels malveillants et de virus.
Testé : Au cours des dernières semaines, l’entreprise de services informatiques Econocom a été touchée par une cyberattaque. Les nouveaux outils d’IA vont-ils entraîner une énorme vague de cybercriminalité ?
- Le spécialiste néerlandais de la cybersécurité, Daniël Luthra (Bodyguard.io), affirme avoir lui-même testé les outils malveillants et a de bonnes nouvelles : « La qualité des réponses nous semble bien inférieure à celle de l’application ChatGPT-4 classique », déclare-t-il sur le site professionnel LinkedIn. Ces chatbots se révèlent également instables et sont souvent hors service.
- Cependant, l’expert met également en garde : « Malheureusement, il s’agit de problèmes rencontrés durant leur croissance qui finiront par être maîtrisés à terme. La demande semble en effet importante. »
(SR)