请问搜狗:你当用户是傻子呢?【由图为证】

博主分享了使用搜狗输入法的经历,批评其通过弹窗提示修改默认输入法的行为,并将其视为一种流氓软件的做法。

这几天一直围绕着“弹窗”这种桌面软件时代最令人讨厌的方式,写了以下几篇文章,分别对瑞星木马防御、腾讯QQ、可牛杀毒的弹窗,是有道理还是没道理,是正常、有价值的信息提醒,还是自私自利的误导用户,看官们看了自有评论。

今天就写一下搜狗输入法

我的电脑一直使用“谷歌拼音输入法”和“陈桥五笔输入法”,前几天发现很多联想的语句“谷歌拼音输入法”根本就是支持太差了,索性就去下载装了一个搜狗输入法,从输入法功能本身讲:搜狗输入法远胜过QQ拼音输入法和谷歌拼音输入法,因为我电脑和手机目前都用了搜狗输入法了,有了比较深的使用体验;

就在我安装了搜狗拼音输入法的第二天,又是一个弹窗(老子讨厌弹窗),

说:“输入法首位被修改,建议您阻止”,我安装了搜狗你这个输入法后,你说谁修改了输入法首位?

你当我傻呢!

说:“这将有可能降低您的打字准确率”?,没错,你这么弹窗,不影响我打字才怪,

你当我傻呢!

说:“当前首位:搜狗拼音输入法 被修改为:谷歌拼音输入法2”,你自己干了啥亏心事,非要说是人家谷歌修改位置了,无语呀。

你当我傻呢!

第二天,蹦一下,又是一个弹窗,瞧见没,我什么都没点,搜狗输入法给我强制“修复”,把自己修改成第一位置,这不是典型的流氓软件吗?

你当我傻,看不出来呀!

结尾:我瞧不起中国企业,特别是互联网企业,你们应该好好学一下google,搞清楚什么是互联网精神,如何做人,如何做一家值得国人尊敬的公司,天天搞这么些鬼把戏,折腾用户,那我真能将你们从电脑上永远删除。

我不删除你们这些流氓软件,你当我傻呀!

今日配图: 你们就这么忽悠吧

这些是我作为一个电脑用户的真实经历,文章也是我的亲身体会,希望让更多的网民知道,这些公司的产品是多么的无耻,多么的流氓。

一名QQ老用户:致腾讯和马化腾的一封信

瑞星木马防御专杀QQ,360,百度软件管家(见图为证!)

【souapp搜应用】:可牛杀毒软件连android手机应用.apk都误杀,真是头傻妞!

分析以下代码:User-agent: Baiduspider Disallow: /baidu Disallow: /s? Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: Googlebot Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: MSNBot Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: Baiduspider-image Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: YoudaoBot Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: Sogou web spider Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: Sogou inst spider Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: Sogou spider2 Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: Sogou blog Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: Sogou News Spider Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: Sogou Orion spider Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: ChinasoSpider Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: Sosospider Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: yisouspider Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: EasouSpider Disallow: /baidu Disallow: /s? Disallow: /shifen/ Disallow: /homepage/ Disallow: /cpro Disallow: /ulink? Disallow: /link? Disallow: /home/news/data/ Disallow: /bh User-agent: * Disallow: /
03-13
<think>好的,我现在需要分析用户提供的这段代码,看起来像是robots.txt文件的内容。首先,我应该回忆一下robots.txt的作用相关语法,以确保分析正确。 用户给出的代码中有多个User-agent字段,每个后面跟着一些Disallow规则。robots.txt的主要功能是告诉网络爬虫哪些目录或页面不应被访问。每个User-agent指定了适用的爬虫,Disallow则列出禁止访问的路径。 首先,我需要确认代码的结构是否符合标准。常见的格式是每个User-agent块对应一组DisallowAllow指令。用户提供的代码中,每个User-agent后面都有多个Disallow行,看起来结构正确。例如,Baiduspider、Googlebot、MSNBot等都有各自的禁止规则。 接下来,注意不同的User-agent可能有不同的规则。例如,Baiduspider-image普通的Baiduspider是否被区别对待?在代码中,所有列出的User-agent,包括各种Sogou蜘蛛其他搜索引擎的爬虫,后面都跟着相同的Disallow列表。唯一的例外可能是User-agent: *,它通常用于匹配所有其他爬虫,但在这个文件中,它出现在最后,同样有相同的Disallow规则。不过需要检查是否有重复或覆盖的情况。 然后,具体分析每个Disallow的路径。例如,/baidu、/s?、/ulink?等路径被禁止。这些路径可能对应网站的不同部分,比如搜索页面、链接页面等。例如,/s?可能用于搜索参数,禁止爬虫访问可以防止它们抓取动态生成的搜索结果页面,避免浪费服务器资源或索引低质量内容。 另外,某些路径如/home/news/data/可能包含敏感数据或内部信息,禁止爬虫访问可以保护隐私。而/bh可能是特定功能的目录,同样不希望被索引。 需要确认是否有语法错误,比如Disallow后的冒号是否正确,路径是否正确书写。在用户提供的代码中,所有Disallow行都以正确的格式出现,没有明显的语法错误。但需要注意是否有重复的User-agent声明,比如多个User-agent后面是否有相同的规则,或者是否有遗漏的Allow指令。 此外,注意到所有指定的爬虫(如Baiduspider、Googlebot、Sogou等)都被禁止访问相同的路径,而最后的User-agent: *同样被禁止这些路径。这意味着所有未被前面明确列出的爬虫也会被禁止访问这些目录。这可能是一种广泛禁止的策略,确保所有爬虫无法访问这些敏感或无关的页面。 但需要指出的是,robots.txt只是建议性的,并非所有爬虫都会遵守。特别是恶意爬虫可能完全忽略该文件。因此,重要的安全措施不应仅依赖robots.txt。 最后,总结这段代码的作用是阻止多个知名搜索引擎的爬虫访问特定目录页面,可能是为了保护敏感数据、减少服务器负载或避免重复内容被索引。同时,对所有其他爬虫也应用相同的规则,确保一致性。 在分析过程中,还需要确认是否有路径错误,例如是否某些路径应该更精确,或者是否有必要允许某些爬虫访问特定资源。例如,如果/s?被禁止,是否会影响搜索引擎正确索引网站的有效内容?需要根据网站的具体情况来评估这些规则是否合理。 总之,这段robots.txt文件通过针对不同的爬虫设置相同的禁止规则,有效地限制了它们对指定路径的访问,从而帮助网站管理者控制爬虫的行为。</think>以下是代码的逐层分析: 1. **文件类型识别**: - 这是一个标准的`robots.txt`文件,用于控制网络爬虫对网站的访问权限。 2. **语法结构**: - 采用`User-agent: [爬虫名称]`声明目标爬虫 - 通过`Disallow: [路径]`指定禁止访问的目录/文件 - 每个爬虫代理单独配置规则组,使用空行分隔不同配置块 3. **目标爬虫分析**: ```plaintext - 百度系列:Baiduspider, Baiduspider-image - 谷歌:Googlebot - 微软:MSNBot - 搜狗全系:包含10种不同变体 (web spider/inst spider/blog等) - 其他中文搜索引擎:YoudaoBot(有道)、ChinasoSpider(中国搜索)、yisouspider(神马)等 - 通配符:`*` 表示适用于所有未明确声明的爬虫 ``` 4. **禁止访问路径详解**: | 路径 | 潜在作用 | 禁止原因推测 | |----------------------|---------------------------------|---------------------------| | `/baidu` | 可能用于百度合作内容 | 防止第三方抓取合作资源 | | `/s?` | 搜索功能相关参数 | 避免抓取无意义的动态搜索页 | | `/shifen/` | 可能与用户积分系统相关 | 保护用户数据隐私 | | `/homepage/` | 用户主页目录 | 防止抓取用户生成内容 | | `/cpro` | 可能关联广告系统 | 保护广告投放逻辑 | | `/ulink?` `/link?` | URL重定向或外链功能 | 防止权重流失恶意爬取 | | `/home/news/data/` | 新闻数据存储目录 | 保护内部资讯资源 | | `/bh` | 可能为行为验或安全模块 | 保护安全机制完整性 | 5. **特殊设计解析**: - **统一规则策略**:所有爬虫被赋予完全相同的禁止规则,包括最后的通配符`*` - **防御性配置**: - 对`/s?`这类含参数的动态页面全面禁止 - 对用户系统(`/shifen/`/`/homepage/`)深度保护 - 包含广告系统(`/cpro`)系统(`/bh`)隔离 - **SEO优化**:通过禁止抓取低价值页面,集中搜索引擎权重 6. **注意事项**: - 该配置会阻止搜索引擎索引标记路径下的所有内容 - 实际效果依赖爬虫的合规性(恶意爬虫可能无视规则) - 如需允许特定爬虫访问,需要单独添加`Allow`指令 - 重要敏感数据应配合其他安全措施(如身份验) 7. **改进建议**: - 添加`sitemap`声明指引合规爬虫 - 对静态资源目录使用`Allow`精细控制 - 对重要路径设置更精确的正则表达式匹配 - 定期更新以适应爬虫行为变化 这个配置体现了网站对搜索引擎抓取的严格管控,在隐私保护、资源优化安全防护之间取得了平衡。开发者通过统一规则简化了维护,但牺牲了个性化控制的可能性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值