由于最近在文章内页查看源代码时会有乱码,经过几次排查我确定了是wp-super-cache的问题,在上一篇文章
博客停用了WP-SUPER-CACHE插件
中提到过我碰到的问题。但今天仔细研究了下,发现问题不在这个插件上。
之前(忘了多久了)做过对文章内页的Description优化,其中header.php部分有一段代码是这样的。
代码的意思是文章内页的Meta Description属性取值为文章内容的前220个字符。
而用substr取值涉及到编码问题,对于一些中文页面会产生乱码,所以就会让百度蜘蛛识别错误,导致收录信息不正常。
解决方法是:将代码替换为mb_strimwidth函数,如下:
这样,就完美解决了编码问题,中英文页面都不会出现源代码乱码问题了。
现在,等待着百度收录信息的恢复。
突然发现:同样是Google蜘蛛与百度蜘蛛,Google蜘蛛爬行我页面的时候就不会因为这点乱码问题而出现收录不正常,总结性地说一句:如果说其他搜索引擎的蜘蛛是普通蜘蛛的话,那么Google蜘蛛就是文艺蜘蛛,百度蜘蛛就是二逼蜘蛛。
本文讨论了WordPress文章内页使用substr函数处理Description时产生的编码问题,并提供了使用mb_strimwidth函数的解决方案,以避免乱码问题,确保百度蜘蛛正确识别收录信息。
1311

被折叠的 条评论
为什么被折叠?



