1回答

0收藏

如何用Apache限制屏蔽恶意搜索引擎爬虫禁止抓取网站?

系统运维 系统运维 50 人阅读 | 1 人回复 | 2024-05-05

本帖最后由 求知者 于 2024-5-5 15:56 编辑

如何用Apache限制屏蔽搜索引擎爬虫访问,禁止蜘蛛抓取网站?
"打赏他人,曝光自己,利他利我"
还没有人打赏,支持一下

回答|共 1 个

大神

发表于 2024-5-5 18:20:28 | 显示全部楼层

apache屏蔽蜘蛛 下方代码复制到.htaccess文件
  1. <IfModule mod_rewrite.c>
  2. RewriteEngine On
  3. #Block spider
  4. RewriteCond %{HTTP_USER_AGENT} "SemrushBot|Webdup|AcoonBot|AhrefsBot|Ezooms|EdisterBot|EC2LinkFinder|jikespider|Purebot|MJ12bot|WangIDSpider|WBSearchBot|Wotbox|xbfMozilla|Yottaa|YandexBot|Jorgee|SWEBot|spbot|TurnitinBot-Agent|mail.RU|curl|perl|Python|Wget|Xenu|ZmEu" [NC]
  5. RewriteRule !(^robots\.txt$) - [F]
  6. </IfModule>
复制代码



还没有人打赏,支持一下
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则