Intelligence artificielle et cybercriminalité : les pirates tirent profit des nouvelles avancées

Intelligence artificielle et cybercriminalité : les pirates tirent profit des nouvelles avancées

La puissance de création de l’intelligence artificielle générative est actuellement exploitée par les cybercriminels pour perfectionner leurs attaques et leurs arnaques. C’est le début d’une nouvelle ère où l’IA devient un outil central pour les pirates informatiques.

Alerte d’Interpol : mise en garde contre l’utilisation de l’IA et du deep fake

Interpol a émis une alerte « mauve » mettant en garde les forces de l’ordre du monde entier contre l’utilisation croissante de l’intelligence artificielle et de la technologie du deep fake par les cybercriminels. Ces avancées visent à rendre les usurpations d’identité plus crédibles, marquant ainsi une nouvelle sophistication dans les techniques d’attaque.

La technologie de l’intelligence artificielle générative (IAG), popularisée par le robot conversationnel ChatGPT, pénètre désormais tous les secteurs de l’économie, y compris la cybercriminalité. Les escroqueries en ligne, les rançongiciels, et les attaques telles que l’arnaque au président bénéficient d’une sérieuse mise à niveau grâce à ces nouveaux outils.

L’IA se démocratise chez les cybercriminels, renforçant leur efficacité et crédibilité. Selon Jean-Jacques Latour, directeur de l’expertise en cybersécurité de Cybermalveillance.gouv.fr, elle agit comme un accélérateur, augmentant le volume et la persuasion des campagnes d’attaques.

Évolution du phishing et du rôle de l’IA générative dans la cybercriminalité

Le traditionnel e-mail de phishing, souvent utilisé en fin d’année, évolue. Exit les erreurs d’orthographe grossières. Selon Jean Diederich du cabinet Finegan, spécialisé dans la lutte contre la fraude bancaire, les faux e-mails sont de plus en plus adaptés au langage de la cible, utilisant le bon contexte pour convaincre de cliquer sur des liens douteux.

L’IA générative dévoyée : menace dans le monde virtuel

L’IA générative, utile pour la production de code informatique, prend une tournure pervertie. Des logiciels comme ThreatGPT sur le Darknet développent des virus sur mesure pour exploiter des vulnérabilités de programmes. Les programmes WormGPT (création de malwares) ou FraudGPT (phishing) gagnent en attractivité parmi les acteurs malveillants.

Les rançongiciels, fléau pour les entreprises et les hôpitaux, exploitent déjà le potentiel de l’IA. Les hackers utilisent l’IA pour trier rapidement les données volées, maximisant ainsi leurs profits. Les attaques telles que l’arnaque au président sont industrialisées grâce aux générateurs d’audio « deepfake », permettant de synthétiser la voix de dirigeants lors d’appels persuasifs.

Menaces et controverses : la technique PoisonGPT

La police britannique rapporte des cas d’utilisation de contenu synthétique généré par l’IA pour tromper, harceler ou extorquer des victimes. En France, bien que les premiers cas ne soient pas officiellement recensés, des chercheurs et la commissaire Alice Koiran, de la plate-forme anti-escroquerie Thesée, soulignent le besoin d’une analyse approfondie.

La règle du « zero trust », l’absence de confiance a priori, reste cardinale dans le domaine de la cybersécurité et de l’IA, face à la montée de menaces telles que la technique PoisonGPT, visant à empoisonner les algorithmes des IA pour propager des fausses informations via des chatbots.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *