今天接着聊人工智能技术(这里主要指AI),因为一则新闻再度勾起我对人工智能的兴趣:特斯拉(国际知名电动车公司)CEO在接受提问闻到相关问题时对人工智能的未来表示忧心忡忡,并警告研究人员“不要做蠢事”。他说“我认为我们应该非常小心的对待人工智能 ,如果让我去猜测什么是什么目的存在最大威胁,我想大概就是它了。我们需要非常小心地对待人工智能,应该相应的国家甚至国际级法律法规进行监管,让人们别做蠢事。使用人工智能,就是在召唤魔鬼,就像每个故事中都会有一个拿着五角星水晶(用于抵御恶灵)和圣水,以为自己能够控制恶魔的人可是他失败了”
从他的用词可以看出人工智能已经不仅仅是一个技术上的问题,说大了已经涉及人类未来的生存问题,可能有许多人认为他的发言有点小题大做,可国际上很大一部分主流声音已经开始反对人工智能的开发,喜欢小说电影的人应该能看过一部分表现这个问题的作品,比较有的代表性的是2004年改编自艾萨克艾西莫夫所作的同名小说《机械公敌》剧情大家都比较熟悉,不知大家还记不记得里面所描写的三大法则“1、机器人不得伤害人类,或对人类受伤害坐视不理2、机器人必须服从人类一切命令,除非违背第一定律3、机器人必须保证自身存在,除非违背第一与第二定律”
智搜(Giiso)公司成立于2013年是国内领先的“人工智能+资讯”领域技术服务商,在大数据挖掘、智能语义、知识图谱等领域都拥有国内顶尖技术。同时Giiso旗下研发产品包括编辑机器人、写作机器人等人工智能产品!凭借雄厚的技术实力,公司成立之初,就获得了天使轮投资,并在2015年8月获得了金沙江创投500万美元pre-A轮投资。
一般看来着三大法则没有问题,甚至可以说完美,如果机器人(这里的机器人代表人工智能已经成熟)遵循那就还是一个工具。可是这三大法则其实是一个悖论(指在逻辑上可以推导出互相矛盾之结论)有很大的逻辑漏洞,当机器人意识到逻辑漏洞的时候就会像开始从工具进化成意识形态体。这也是国际比较担心的部分,因为人工智能是基于人的意识形态来开发的,最理想的状态不过是造一个服务于人类的奴才,而不像当将军的士兵不是好士兵,想要做一个好奴才就意味着无限趋近于人,当这个技术成熟的那一刻起,他们还会是奴才么?