随着IT行业的迅猛发展,其带来的道德与伦理问题也日渐突出。其中最为显著的,就是人工智能的伦理问题。不论是近期阿尔法狗在与人类的围棋战中大获全胜,还是数十年前以《我,机器人》为代表的一类科技类电影,都在引起人们的思考,即关于人工智能的伦理问题。
思维存在是否人就存在?
3D活动模拟图在结构上与人脑皮层相同,如果复制后的“电子人脑”能够产生思维意识,思维的存在是否就是人的存在呢?
“电子人脑”即使不能达与人类相同程度的思维意识。即使是低一级或者迟钝的思维意识,都同样可以看做强AI研究的成功,因为思维意识产生规律的发现将使人工智能逐渐向着人类智能迈进,而且将来为“电子人脑”安装各种传感设备来代替人类感觉器官是极为容易的事情,接收外界环境的感知也将不再是难题,那么高级智能的产生也将仅仅是时间问题。其次,网络技术的普及和发展使得网络对人们的影响不断加深,如今人们除了现实存在外,还在虚拟世界里有着虚拟存在,通过网络,人们能足不出户对客观世界进行认识与实践,或者说认识方式与实践方式随着网络技术的发展而改变。
第一,通过网络。人们能够对想要了解的事物有一个基本的认识。网上交流、聊天能获得自己需要的信息,并建立起新的社会关系。
第二,通过网络。改变了人类的实践方式。人类的实践活动是一种目的性活动。列宁曾经简洁地提出一个公式:“人的实践=要求+外部现实性”问。网络恰好满足这种“要求和外部现实性”,为虚拟实践提供可能。因此,我们可以设想如果”电子人脑”与网络相联接.即使在缺少自然生命和身体的情况下。其思维意识同样能够与现实社会的人沟通、交流并在网上进行认识实践活动,如在网上实现现实物品的买卖、网络视频会议等。而且认识实践活动中将逐步建立起相应的社会关系。其社会属性和精神属性都将得到实现,如果那样我们还能将这些没有生命的“电子人脑”当作机器看待吗?
有感情有意识的人工智能是否应该享有人权?
假设某一人工智能可以拥有和人类一样的情感和意识,那么对于该人工智能体的界定便面临了巨大的挑战。
人类是否应该仅仅作为其创造者的身份与该人工智能相处?该人工智能是否应该享有同人类相同各种权利?当这样的人工智能体的数量极其稀少时这样的问题并非明显,但是一旦拥有自我意识的人工智能数量达到一定限度时,矛盾便凸显了出来。对于拥有自我意识的人工智能在社会中的地位界定是需要提前进行的,只有拥有了正确的明确定位后,拥有自我意识的人工智能体才不会给社会的健康
发展带来不利影响。
什么才是对于人工智能正确的定位?绝不是简单的使其拥有和普通人类完全相同的人权。做一个极端情况的假设,由于人工智能在大量领域能力是远远超过人类所具备的能力的,以个体的利己性进行考量,人工智能体在择偶市场上可能会拥有超过大多数人类的竞争力,这种平等,极有可能对人类自身的生存和发展造成不良的影响。但是,直接将有情感的人工智能体放在低于人类的地位上同样是不可取的。无数的历史事实告诉我们,阶级的不平等必定带来反抗。
人类究竟应该如何看待拥有人类情感的人工智能,人类应该如何与人工智能体共处,这将是人类在人工智能发展道路上必须要面对的问题。
具备自我改造进化能力的人工智能的危险性
在之前对于人工智能的未来发展的部分中已经提及了不断自我进化的的人工智能的不确定性。这种不确定性是危险的,其危险性不仅在于在不进行人为干预的条件下其自我进化的不可预知性,更在于人为对机器自我进化干预的困难性和不可预知性。
在不进行人为干预下的不可预知性较容易理解,它是由于在不断的自我进化中,任何微小的改变都有可能由于多次的自我改造而造成巨大的差别。而人为干预的困难性主要体现在人工智能体可能出现的对人为干预的改造的抵触以及其指数增长的进化速度。
而人为干预的不确定性主要在于干预后人工智能体对于人为干扰的响应不确定性。
人工智能技术是人类智慧的体现,如果应用得当,无疑可以有效的推动人类文明的发展。但是,在发展人工智能技术时,需要对其未来可能带来的问题进行充分考量,这样才能更好的让人工智能服务人类。