Je viens de désactiver tous les robots pour l’instant
Désactiver les robots dans le PCA de phpBB n’est pas utile et va empirer les choses pour deux raisons :
- Les groupes de robots vous permettent d’assigner des permissions et ils cachent les liens que vous ne voulez pas qu’ils suivent comme les pages de recherche par exemple.
- L’autre problème est qu’ils vont gonfler la table des sessions, ce qui peut causer des problèmes de performance.
Pour les robots qui s’identifient, utilisez le fichier
robots.txt pour les bloquer.
https://developers.google.com/search/do ... ntro?hl=fr
La seule chose que vous pouvez faire dans phpBB est de créer un groupe supplémentaire pour les mauvais robots avec toutes les permissions définies à
JAMAIS. Ceci n’est utile que pour les robots qui s’identifient eux-mêmes et qui ne sont pas obéissants au fichier
robots.txt. Cela ne les empêchera pas complètement de consommer des ressources, la demande doit encore être traitée mais ils obtiendront une page « Permissions denied » qui est au début de l’exécution des scripts.
Lorsque vous voyez beaucoup de personnes de connectés, vérifiez le lien « Qui est en ligne » et le lien « Afficher les invités ». Assurez-vous que vous n’avez pas d’invité avec l’agent utilisateur robot. S’il y en a, ajoutez-le à la liste des robots et bloquez-le dans le fichier
robots.txt si vous voulez le bloquer.
Le reste des invités sont probablement des IP aléatoires avec des agents d’utilisateur de navigateur. Pour cela, vous avez besoin de Cloudflare ou d’une sorte de blocage côté serveur.