Qu'est-ce qu'un robot malveillant, comment le détecter et le bloquer ?

Bots, Feb-14-20225 minutes de lecture

Lorsque vous entendez le mot "bots", quelque chose de positif vous vient-il à l'esprit ou savez-vous comment détecter et bloquer les bots malveillants ? Je suppose que vous n'avez entendu parler que de bots nuisibles, sans parler de la manière de les détecter et de les bloquer. Cependant, tous les bots ne sont pas mauvais, et il en existe de bons. Cet article

Lorsque vous entendez le mot "bots", quelque chose de positif vous vient-il à l'esprit ou savez-vous comment détecter et bloquer les bots malveillants ? Je suppose que vous n'avez entendu parler que de bots, et encore moins de la manière de les détecter et de les bloquer.

Cependant, tous les robots ne sont pas mauvais, et il en existe de bons. Cet article traite des robots nuisibles, de la manière dont vous pouvez distinguer les bons des mauvais robots et des dommages qu'ils peuvent causer à votre site web. Enfin, vous découvrirez comment prévenir les conséquences des robots malveillants.

Tout d'abord, voyons ce que sont les robots en termes non spécialisés.

Qu'est-ce qu'un robot internet ?

Selon un rapport récent de l'entreprise de cybersécurité Barracuda, les deux tiers du trafic internet (64 %) sont constitués de bots. Sur ces deux tiers de bots, 40 % du trafic internet est constitué de bad bots. Ces statistiques datent de septembre 2021.

Ce rapport souligne également que si nous n'appliquons pas des mesures de sécurité strictes, ces robots franchiront les défenses et voleront des données, ce qui entraînera de mauvaises performances des sites et des violations de données.

Examinons quelques-unes des tâches quotidiennes effectuées par un robot.

Exemples typiques de bots

Les moteurs de recherche tels que Google emploient des robots pour explorer des milliers de pages web afin d'en extraire le contenu et de les indexer, ce qui constitue un exemple courant d'opération de robot. Ainsi, lorsque vous recherchez une phrase dans Google, le moteur sait où se trouve l'information recherchée.

De même, les robots transactionnels effectuent des transactions pour le compte d'humains, et les robots de billetterie achètent des billets pour des événements populaires.

En outre, depuis le développement de l'IA (intelligence artificielle) et de l'apprentissage automatique, les services de veille stratégique utilisent des robots pour récupérer des pages de produits et des témoignages sur les profils de médias sociaux afin de découvrir les performances d'un produit. 

La préférence accordée aux robots par rapport aux humains pour certaines des tâches susmentionnées s'explique en grande partie par le fait qu'ils peuvent exécuter des instructions des centaines, voire des milliers de fois plus rapidement que les humains.

Voyons maintenant la différence entre les bons et les mauvais robots.

Quels sont les différents types de bots ?

Comme je l'ai mentionné précédemment, on peut classer les bots en deux catégories : les bons et les mauvais. Comme pour tout le reste, examinons d'abord les bons bots.

Bons bots

Nous venons de voir un exemple de bon robot, celui d'un moteur de recherche. De même, il existe d'autres bons robots tels que :

  • Les moteurs de recherche vocale : Comme les moteurs de recherche, ces robots parcourent le web pour trouver des réponses aux questions que les utilisateurs posent par le biais de la recherche vocale. Alexa's Crawler et Applebot (Siri) sont des moteurs de recherche vocale bien connus.
  • Les robots de réseaux sociaux : Ces robots parcourent les sites web partagés sur Facebook et d'autres sites de médias sociaux afin d'améliorer les suggestions, de lutter contre le spam et d'améliorer l'environnement en ligne. Parmi les exemples typiques, citons Facebook Crawler et Pinterest Crawler. 
  • Bots de droits d'auteur : Ces robots recherchent des contenus numériques pour découvrir des violations de droits d'auteur. Le Content ID de Youtube, attribué aux détenteurs de droits d'auteur du réseau, en est un excellent exemple. Un autre exemple serait l'utilisation de ces robots sur les médias sociaux, où la création de contenu original est la priorité absolue.
  • Les robots de marketing : Les logiciels de référencement et de marketing de contenu utilisent principalement ces robots pour rechercher des liens retour sur les sites web, déterminer le volume de trafic et rechercher des mots-clés organiques et payants. Parmi les exemples, citons SEMrush bot et AhrefsBot.
  • Data bots : Il s'agit de bots qui fournissent des informations instantanées sur les actualités, la météo et les taux de change. Amazon Echo et Google Home en sont des exemples marquants. 
  • Trader Bots : Ces robots vous aident à trouver les meilleures offres ou promotions sur les produits que vous envisagez d'acheter en ligne. Les consommateurs et les détaillants utilisent au mieux les trader bots pour trouver de meilleures offres de prix et devancer leurs concurrents.

Quelles sont les caractéristiques des bons robots ?

Comme vous pouvez le constater, l'une des caractéristiques de ces bons robots est qu'ils accomplissent une tâche utile pour une entreprise ou les visiteurs d'un site web. Les développeurs qui les ont créés ne le font pas avec des intentions malveillantes.

En outre, ils n'entravent pas l'expérience de l'utilisateur d'un site web qu'ils explorent. Un bon robot respecte également les règles du fichier robot.txt d'un site web qui spécifie les pages à explorer et celles à ne pas explorer.

En revanche, lorsque des robots visitent un site web, ils peuvent consommer le temps de chargement du serveur et la bande passante. Ainsi, même des robots authentiques peuvent involontairement causer des dommages. En outre, un robot de moteur de recherche agressif peut également faire tomber un site. 

Cela dit, il est possible de remédier à ces conséquences négatives en configurant correctement le serveur.

Voyons maintenant ce que sont les "bad bots".

Bab Bots

Tout comme les bons bots sont utiles aux utilisateurs, les développeurs de logiciels mettent au point de mauvais bots pour nuire. Voici quelques-uns des mauvais bots présents sur le marché :

Les robots qui gonflent le nombre de pages vues

Les développeurs mettent au point ces robots pour envoyer un faux trafic vers les sites web afin d'augmenter le nombre de pages vues et de faire croire aux propriétaires des pages que le nombre total de pages a augmenté. En réalité, il n'y a pas d'utilisateurs réels, et ce sont les robots qui augmentent le nombre de pages vues ou aimées. 

Certains services web utilisent ces bots pour vendre du trafic. Ils prétendent envoyer des utilisateurs réels sur votre site web, alors qu'en fait, ils finissent par envoyer du trafic de robots.

Certains robots regardent des vidéos et gonflent également le nombre de vues.

Spam bots

Les robots spammeurs visitent souvent une page web pour y effectuer des tâches malveillantes. L'un des exemples les plus significatifs de cette activité est l'interaction automatique avec des formulaires en ligne, le fait de laisser des commentaires et de les soumettre en cliquant automatiquement sur le bouton d'envoi. 

Certains concurrents de votre entreprise, par exemple, laissent de faux commentaires sur les produits pour générer des avis négatifs sur un produit. Les campagnes politiques constituent un autre exemple de l'utilisation fréquente de robots spammeurs.

Vous avez peut-être souvent remarqué que les commentaires spammy contiennent des URL et même des caractères spéciaux.

Scrapers Web

Les "web scrapers" sont des robots Internet qui facilitent le vol de votre contenu. Ces scrapeurs visitent généralement les pages web et extraient des données sans le consentement des administrateurs du site web.

Bien que le scraping en ligne ne soit pas illégal au regard de la loi, tant que le contenu est librement accessible, ne nécessite pas d'authentification et n'est pas soumis aux lois sur les droits d'auteur, les auteurs n'apprécient généralement pas cette pratique. Les "web scrapers" peuvent fermer le site web s'ils envoient trop de requêtes.

Checkout Bot

La plupart du temps, les gens utilisent des "checkout bots" lorsqu'ils achètent des baskets en édition limitée pour les copier. Étant donné qu'un utilisateur n'est autorisé à acheter qu'une seule paire en raison de la nature compétitive de l'édition limitée, il utilise des "checkout bots" pour accélérer le processus d'achat en ligne.

Ce processus d'achat de baskets par des robots se déroule à une vitesse supérieure à celle dont seuls les humains pourraient rêver. Par conséquent, ceux qui achètent réellement n'auront aucune chance d'obtenir des baskets car ils ne peuvent pas s'approcher de la vitesse des robots. Vous trouverez peut-être cette lecture intéressante : Que sont les Sneaker bots et comment sont-ils utilisés ?

Réseaux de zombies

Les réseaux de zombies sont des réseaux informatiques qu'un pirate informatique a détournés pour mener diverses cyberattaques.

Les pirates développent des réseaux de zombies pour accroître leur capacité à mener des attaques plus extraordinaires, telles que des attaques DDOS coordonnées, en développant, automatisant et accélérant le processus. Les botnets utilisent ensuite vos appareils pour frauder et perturber les appareils d'autres personnes sans que vous le sachiez ou que vous l'approuviez.

Ces appareils infectés sont alors appelés appareils Zoombie. Pour plus d'informations sur les réseaux de zombies, vous pouvez consulter cet article.

Les robots de prise de contrôle de comptes

Ces robots volent généralement les identifiants de connexion en employant deux des méthodes automatisées les plus courantes, à savoir le "Credential Stuffing" (bourrage d'identifiants) et le "Credential Cracking" (craquage d'identifiants). La première méthode utilise des tentatives de connexion en masse pour vérifier la validité d'un couple nom d'utilisateur/mot de passe qu'ils ont volé.

En revanche, la dernière méthode consiste pour le robot à essayer différentes valeurs pour la paire nom d'utilisateur/mot de passe. Les bots finissent par réussir et s'introduisent dans un système informatique, ce qui peut avoir des conséquences considérables.

Bots de cardage et de piratage de cartes

Comme vous l'avez peut-être deviné, la fraude à la carte de crédit peut se produire sur n'importe quel site web qui utilise un processeur de paiement. Les pirates utilisent des robots malveillants pour vérifier les numéros de cartes de crédit qu'ils ont volés en effectuant des paiements mineurs, connus sous le nom de Carding. 

Ils utiliseraient également le "Card Cracking" pour identifier les informations manquantes telles que les dates d'expiration et les numéros CVV.

Ces menaces pèsent souvent sur les secteurs de la vente au détail, du divertissement et des voyages.   

Comment détecter les robots malveillants ?

La détection et la gestion des robots nécessite beaucoup d'investigations et d'expertise car les pirates conçoivent les robots de manière à ce qu'ils soient invisibles. Vous devez creuser en profondeur pour découvrir si votre site est fréquenté par des robots. D'autre part, vous devez minimiser les faux positifs (les humains sont pris pour des bots) et les faux négatifs (lorsque vous identifiez par erreur des humains pour de mauvais bots).

Quoi qu'il en soit, voici quelques indications qui montrent que des bots ont pu s'infiltrer dans votre système :

Augmentation irrégulière de votre trafic

Tout propriétaire de site a accès aux données de mesure du site. Par exemple, les données de Google Analytics. Lorsque vous consultez ces données, si vous constatez une augmentation considérable du trafic en provenance d'endroits inhabituels, cela indique que des robots interagissent avec votre site.

Dans de telles circonstances, vous pouvez constater une augmentation du taux de rebond. Ce trafic peut provenir d'endroits où vous n'avez pas l'habitude de recevoir des visiteurs.

En inspectant l'en-tête de la requête

Dans la plupart des cas, certains robots moins sophistiqués n'envoient pas tous les en-têtes qu'un navigateur envoie habituellement. En fait, ils oublient d'envoyer l'en-tête user-agent.

Les robots sophistiqués qui envoient généralement des en-têtes n'envoient pas plus que la chaîne user-agent. Par conséquent, si vous recevez des demandes avec peu ou pas de titres, cela indique que les robots évaluent potentiellement votre site web. En revanche, les navigateurs envoient un nombre raisonnable d'informations d'en-tête.

Les performances du serveur deviennent considérablement lentes

Comme vous l'avez appris plus haut, lorsque des robots accèdent à votre site web, ils consomment la plupart des ressources de votre site, y compris la bande passante. Par conséquent, si vous recevez un grand nombre de requêtes de la part de robots dans un court laps de temps, cela signifie que votre site web sera considérablement plus lent.

Toutefois, certains robots rusés agissent de manière à passer inaperçus et à mener leurs activités comme un être humain. Ils envoient trop peu de demandes, comme le ferait un humain.

Il ne faut donc pas toujours se fier au ralentissement des performances pour mesurer le trafic de robots.

Durées de session élevées ou faibles

En règle générale, la durée de la session ou le temps qu'un utilisateur passe sur un site web est stable. Toutefois, une augmentation soudaine de la durée des sessions indiquerait que les robots naviguent moins vite sur votre site web. D'autre part, les robots peuvent cliquer sur les pages du site plus rapidement qu'un utilisateur humain, ce qui entraîne une diminution spontanée de la durée de la session.

Conversions et affichages de contenu indésirables

Il se peut que vous receviez des formulaires provenant d'adresses électroniques inhabituelles, de faux numéros de téléphone ou de faux noms.

D'autres moyens de détecter facilement les robots sont les contenus qu'ils publient. Contrairement aux humains, les robots n'ont pas le temps de créer un contenu de qualité. Par conséquent, lorsque vous commencez à recevoir des commentaires vagues et stupides ou des messages avec des URL intégrées, vous devez reconnaître qu'ils ne proviennent pas de personnes réelles, mais plutôt de robots.

Comment bloquer les robots malveillants

Pour commencer à lutter contre ces robots malveillants, vous devez configurer le fichier robot.txt de votre site. Vous pouvez sans aucun doute configurer ce fichier pour contrôler les pages auxquelles le robot peut accéder et minimiser les interactions du robot avec la plupart des pages de votre site web.

Parmi les autres mesures, on peut citer

Fixer des limites de taux basées sur l'adresse IP - L'adresse IP est un identifiant unique de l'appareil qui évalue votre site web. En tant qu'administrateur de site web, vous pouvez donc limiter le nombre de requêtes qu'une adresse IP effectue sur votre site au cours d'une période donnée.

Blocage des adresses IP suspectes - Outre la fixation de limites de débit, vos adresses web peuvent bloquer la liste des adresses IP suspectes d'où proviennent les demandes. Vous pouvez utiliser un WAF (Web Application Firewall) à cette fin.

Utiliser les services de captchas - Vous avez peut-être déjà rencontré des captchas en accédant à certains sites web. Lorsqu'un service de captcha détecte un comportement étrange ou semblable à celui d'un robot, il vous oblige à résoudre le problème avant qu'il n'interdise l'accès au site.

Conclusion

Nous espérons que vous avez acquis une vue d'ensemble des mauvais bots, de la manière de les détecter et de vous en débarrasser. En effet, vous aurez besoin de bots authentiques qui ne causent aucun dommage à votre système. Cependant, il serait utile d'expulser les mauvais bots à tout prix, car les dommages qu'ils peuvent causer sont très graves.

Nous espérons que cet article vous a été utile et restons à l'écoute pour d'autres articles.