一般来说,使用js进行构建的页面seo比较困难,考虑了一下可能是这个原理。许多页面在渲染后产生的静态页面经过后端处理,等着b端发get请求。然而许多单页应用,它的页面改变的只是hash值,对于网络爬虫来说等于没有发送get请求,所以爬虫无法爬到这些东西,seo就很困难。再加上很多触发动作,爬虫都是无法完成的,所以爬虫最喜欢的就是那种静态页面,适用于很久很久之前的技术~~
爬虫不是浏览器,他不会将get到的js资源进行执行与解析,更无法渲染,so,你无法获取html页面,无法seo
以上是我的理解,可能不对
本文探讨了使用JavaScript构建的单页应用在搜索引擎优化(SEO)方面面临的难题,包括爬虫无法执行JS代码导致的内容不可见性问题,以及由此带来的SEO难度。
531

被折叠的 条评论
为什么被折叠?



