robots后台泄露解题思路
做优化的朋友都知道网站的robots的目的是让搜索引擎知道我们网站哪些目录可以收录,哪些目录禁止收录。通常情况蜘蛛访问网站时,会首先检查你的网站根目录是否有robots文件,如果有,则会根据此文件来进行抓取判断,如果不存在robots,那么网站的所有页面都有可能被收录,这将会给网站带来安全隐患。
例如:通过搜索“织梦内容管理系统V57_UTF8_SP1”就会出现一堆用织梦程序的后台地址,将后台暴露给他人,带来极大的安全隐患。
下面木子网络先给大家介绍下是干什么的?
基本上每个网站都有,并且是在网站的根目录下,任何人都可以直接输入路径打开并查看里面的内容上面已经讲到该文件的目的就是告诉搜索引擎,哪些页面可以去抓取,哪些页面不要抓取。
如何使用
在网站根目录下创建一个文件,取名,文件名必须是这个!然后设置里面的规则。
比如我有一个博客,我要设置不允许任何搜索引擎收录本站,中就设置如下两行即可。
User-agent:x
Disallow:/
如果要限制不让搜索引擎访问我们网站后台admin目录,则规则改为:
User-agent:x
织梦系统更新Disallow:/admin/
通过上面的方法我们可以禁止搜索引擎收录我们的后台页面,但矛盾的是,文件任何人都可以访问,包括黑客。为了禁止搜索引擎,我们同时也把隐私泄露给了黑客。
像上面的例子中,我们为了让搜索引擎不要收录admin页面而在里面做了限制规则。但是这个页面,谁都可以看,于是黑客就可以通过robots了解我们网站的后台或者其它重要的目录结构。
有没有办法既可以使用的屏蔽搜索引擎访问的功能,又不泄露后台地址和隐私目录的办法呢?
有,那就是使用星号(x)作为通配符和截取部分目录名称。举例如下后台地址为admin:
User-agent:x
Disallow:/ax/
或者使用下面这种方法:
User-agent:x
Disallow:/ad
关键在第二句,这样写就会阻止搜索引擎访问任何以“ad”开头的文件和目录。为了防止别人猜出你的后台目录,这里截取的越短越好。当然如果你后台的目录是admin,还是有可以被人猜到,但如果你再把admin改为admadm呢?还有会谁能知道?
总结下,为了不让搜索引擎收录网站的后台目录和其它隐私目录,我们将这些路径在文件中禁用。又为了让中的内容不泄露网站的后台和隐私,我们可以使用上面两种robots写法。最后为了不让黑客猜到真实的路径,我们可以把这些敏感的目录进行非常规的重命名例如加特殊符号“@”等。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。