-
404错误页面与301跳转对网站优化的影响
发布时间:2024-12-27 / 热度 564
Http404或notfound错误消息是HTTP的“标准响应信息”(HTTP状态码)之一,这意味着客户端浏览网页时服务器无法正常提供信息,或者服务器无故无法响应。
1、很多站点不能避免死链接的存在,但是死链机率高会影响搜索引擎对站点的评级。
2、搜索引擎每天抓取每个网站的频率。如果网站有很多死链接,就会浪费抓取配额,影响正常页面的抓取。
3、过多的死链对网站用户来说也是一个糟糕的表现。
百度站长工具有一个抓取异常,那么这个工具是如何产生异常数据的呢?
编辑错误或程序员粗心地使页面产生不存在的页面。
由于服务器、空间或程序问题,网站暂时无法访问,导致大量服务器错误页面,返回代码为500。
当单个爬虫程序提取页面URL时,它们只提取URL的一部分或正常URL之后的文本或字符。
在网站修改过程中,未经301跳转到相应页面直接删除旧页面,或301跳转后部分旧页面无法访问。
网站管理员删除被黑、广告、过期、被水淹过的页面导致很多死链接。
网页异常中的许多错误页都是由程序员的疏忽或我们的程序问题引起的。它们应该是普通的页面,因为由于错误而无法访问。对于这样的页面,请尽快修复。
但是必须有许多错误的页面不应该存在,所以我们需要找到一种方法来获取这些页面的URL,主要有以下三种方式:
(1) 百度站长工具-抓取异常-页面未找到-复制数据[修复:这里不需要提交死链,百度站长工具自动提交死链];
(2) 删除页面时,管理员手动或自动保存被删除页面的URL;
(3) 使用相关的爬虫软件对整个站点进行爬虫,获得死链,如Xenu。
然后将上面处理的数据粘贴到网站根目录下的文档中,并将文档地址提交到百度站长工具-网页抓取-死链提交-添加新数据-填写死链文件地址。
如果大量错误的url具有某些规则,则可以在robots文件中编写规则,以防止爬行器获取此类链接,但前提是要妥善处理正常页面,避免阻止规则损坏正常页面。
将规则添加到robots文件后,必须到百度站长的robots工具进行验证,将指定的错误页面放入,查看拦截是否成功,然后将正常页面放入,查看是否被错误拦截。