计算机设计大赛国赛演讲稿

这篇演讲稿介绍了参加计算机设计大赛的人机交互类作品——资讯快捷输入机器人。该软件通过辅助新闻工作者抓取、筛选互联网新闻,提高工作效率,减少人机交互的工作量。机器人使用网络爬虫抓取可信来源信息,并结合新闻五要素进行筛选。虽然存在需要人工干预的情况,如敏感信息识别和信息质量控制,但总体上提高了新闻工作者的生产力和新闻质量。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

计算机设计大赛参赛演讲稿

尊敬的评委老师,亲爱的同学们:

    大家好。

我们来自XXXXXX,来参加人机交互类竞赛,作品是资讯快捷输入机器人。

为什么我们会选择这样一个主题呢?为什么这款机器人属于人机交互类应用呢?这就要从以下几点来进行展开了:

第一:为什么属于人机交互类,我们的机器人并不是物理存在的机器人,我们只是一款软件,这款软件是用来辅助新闻工作者工作的,提高他们的工作效率,在机器人后台的运作过程中,他会一天24小时实时去抓取互联网上的最新新闻,汇总,然后根据我们设计的新闻五要素去甄别和筛选出一系列目标新闻的条目,这些条目再提供给新工作者进行筛选,这样新闻工作者就不需要漫天的在互联网上随机的去搜索新闻。他的筛选范围大大减少,工作效率将会提升。那么他为什么会属于人机交互类应用呢?因为后台工作的部分各位是看不到,新闻工作者他们用的时候只需要输入几个关键词,那么后台的大量的新闻模板就会自动进行匹配。你要写一则新闻不再需要把这些新闻所有的标题内容全部一字不差的输入进去,你只要输入几个字就会出现一条完整的新闻,减少了输入的工作量,这个就是我们所说的人机交互。减少了人和计算机交互的工作量。说了这么多我们项目的整体轮廓已经出现了,那么它是怎么设计出来的呢?

从整个项目而言,不能像我刚才说的那么单一,整个项目的应用必然包括给用户展示的部分,用户可以在前端页面上面浏览新闻、搜索新闻、登录、编辑、发表评论等。一般的web页面的常用功能项目都有所包含。

在这个界面背后是项目的后台部分,后台部分就使用的是网页抓取技术,可以使用网络爬虫去实时的抓取互联网上的信息。互联网上信息更新非常的快,信息量非常的大,也不是所有的都能抓取,我们抓取的是几个可信来源的信息。在抓取的同时还会根据新闻工作者设计的五要素进行筛选,只有相关的信息才会抓取。

    这个是从逻辑上,表象上来看的。而其背后深层的问题则出现了,什么叫相似,什么叫不相似,什么是可信,什么是不可信。哪一些站点更适合我们抓,从理论上来说,有一整套

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值