本站的域名http:www.9laile.com 以前是做主机网站的,百度收录了很多页面,现在我们搬过来做这个原创php毕业课程设计作业下载网,那么以前收录的页面就打不开了,成了死链。
死链是做网站的大忌,不仅客户的体验度不好,搜索引擎也很方案。于是乎,我们设置了404页面,将这些死链全部交个404页面,希望百度能理解我们的良苦用心。可是,百度并没有从他的搜索结果里删除这些死链,用site:www.9laile.com 可以看出,这些曾经做主机的网站留下的页面依然存在。
【来源:原创成品php mysql毕业设计、课程设计、作业下载网 http://www.9laile.com 原创文章 转载请注明出去】
通过百度相关知识,终于得知一个比较好的办法,那就是 robots 我们可以在robots文件中禁止蜘蛛爬行这些死链,于是乎,我们在robots.txt中写了以下代码:
User-agent:*
Disallow:/Template/
Disallow:/*.asp$
第一行 说明该robots文件适合所有搜索引擎
第二行 禁止蜘蛛爬行 /Template/ 目录,这个目录也是以前网站的,现在的网站不存在该目录
第三行 禁止蜘蛛爬行asp文件,以前的网站是asp脚本,我们现在的毕业设计网站是php脚本,因为可以将asp的文件全部禁用掉
根据以上设置,理论是,百度会很快将我们的死链删除,效果如何有待考证。
【来源:原创成品php mysql毕业设计、课程设计、作业下载网 http://www.9laile.com 原创文章 转载请注明出去】
2014年06月21日更新
根据以上设置,死链并没有被清除,用了百度站长平台,提交了死链文件,同时禁用了上面说的robots文件。
"如果链接成为死链之前已被百度搜索引擎收录,设置404后请不要再设置robots封禁,否则会影响搜索引擎对链接的判断和处理"
效果如何观察中~~