Comment Doctolib a contré une cyberattaque assistée par IA ?

Comment Doctolib a contré une cyberattaque assistée par IA ?

Doctolib, leader français dans la réservation de rendez-vous médicaux en ligne, après avoir vécu un vol de données en 2020, continue d’être la cible régulière de hackers en tout genre, comme le sont la plupart des plate-formes populaires en ligne. Elle a récemment fait face à une cyberattaque d’un genre inédit. Cette attaque, orchestrée avec l’aide d’un modèle d’intelligence artificielle, marque une nouvelle ère dans le domaine de la cybercriminalité. Découvrez comment l’entreprise a réagi et ce que cela implique pour l’avenir de la sécurité informatique.

Adaptation aux dispositifs de sécurité

Fin 2023, Doctolib a subi une attaque par déni de service (DDoS), une menace fréquente pour l’entreprise. Cependant, cette fois-ci, l’attaque s’est révélée plus complexe. L’attaquant semblait s’ajuster continuellement aux mesures de sécurité mises en place. L’attaque a commencé de manière classique, avant de se transformer en une série de vagues d’intensité croissante, ciblant divers points de l’infrastructure.

Les équipes de Doctolib ont observé un comportement atypique : l’attaquant modifiait constamment ses techniques pour contourner les défenses, ce qui rendait l’attaque de plus en plus difficile à neutraliser. Cette progression méthodique a nécessité une vigilance poussée de la part des équipes de sécurité.

Identification des patterns par Cloudflare

Les experts de Cloudflare, partenaire de Doctolib pour la protection de leurs installations, ont identifié des patterns communs dans cette attaque. Ils ont reconnu des schémas similaires à ceux observés lors d’attaques automatisées précédentes, probablement assistées par IA. Cette reconnaissance a permis à Doctolib de mieux comprendre et répondre à la menace.

Cloudflare a filtré une grande partie du trafic malveillant, mais l’attaquant s’est concentré sur les systèmes de sécurité internes de Doctolib, utilisant des techniques comme le changement régulier d’adresses IP. Cette adaptation rapide et continue suggère que l’attaquant pourrait avoir utilisé un modèle de large language model (LLM) pour optimiser son approche en temps réel.

Malgré cette sophistication, l’attaque n’a pas réussi à perturber les systèmes de Doctolib grâce à l’efficacité des filtres en place. Depuis cet incident, aucune attaque similaire n’a été détectée, témoignant de la résilience des dispositifs de sécurité de l’entreprise.

doctolib

Vers des attaques entièrement automatisées ?

Clément Thersiquel, ingénieur en sécurité des applications chez Doctolib, anticipe une augmentation de l’utilisation des LLM par les cybercriminels, rendant les attaques automatisées plus sophistiquées. Il estime que ces attaques par IA pourraient devenir plus efficaces que les simples scripts actuels, car l’IA serait capable d’analyser des masses de données, d’identifier des vulnérabilités et d’ajuster ses méthodes en temps réel.

Pourtant, il reste optimiste, soulignant que des hackers humains expérimentés conserveront toujours un avantage sur les modèles d’IA automatisés. Entraînés à partir de données et failles déjà publiques, les modèles d’IA n’auraient que peu d’avantages significatifs. De plus, les coûts et les ressources nécessaires pour exécuter des modèles d’IA de pointe limiteraient également leur impact à grande échelle, rendant les investissements dans des attaques complexes plus difficiles à justifier.

Quoi qu’il en soit, les progrès autour de l’intelligence artificielle apportent de nombreuses facilités aux professionnels : récemment, c’était Doctolib lui-même qui a implémenté la technologie d’IA pour aider les professionnels de santé à mieux gérer leurs RDV. Il faudra tout de même rester vigilant quant aux usages illégaux de cette technologie, qui pourrait rendre de plus en plus complexe le travail des professionnels autour de la cybersécurité.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *