网摘与网络爬虫的应用想法

网络信息分拣工具开发与应用设想
博主将Linux下的爬虫移植到Windows并添加自动分拣功能,但智能算法未达理想效果。认为新浪推广的ViVi网摘让用户自行分拣信息更实在。得到准确分拣信息后可进行信息挖掘,有诸多衍生应用,可惜开发计划未获老板青睐,博主也不想只做平凡的数据库操作开发。

以前做了个简单的网络信息自动分拣的工具,其实就是把Linux下的一个爬虫移植到Windows下,加上自动分拣功能。然而自动分拣的智能算法始终没有达到理想的效果,很佩服Google的“类似网页”的功能--可惜没有一个链接是可以打开的,很奇怪,这么明显的错误Google居然毫不理会这么多年!

自从新浪开始推广它的ViVi网摘后,觉得让用户自己去分拣信息在目前来说显得更实在些。(我做的模仿秀:http://BL.6688.COM

得到准确的分拣信息后,可做的信息挖掘工作就准确多了!由此产生的衍生应用一箩筐!例如:对用户感兴趣的商品信息的分析、顾客关注点的转移过程...(特别结合RSS的跟踪)

可惜没有老板对我的开发计划感兴趣。
很现实,我无力饿着肚皮创业。

实在不愿让自己的时间淹没在平凡的数据库操作“开发”中......

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值