技术奇点:遥远的未来还是迫在眉睫?
对奇点临近观点的质疑
有人认为,一个世纪后人类或许能制造出分子纳米机器人和超级智能 AI,将大脑上传到计算机并实现永生。然而,这些可能性并不像人们普遍认为的那么大,而且也不能让我们忽视战争、贫困、疾病、气候变化等现实问题。
雷·库兹韦尔在相关论述中提出,到 2045 年左右,人工智能、神经科学、纳米技术等领域的进步将使人类超越生物学限制,实现诸多古老宗教所梦想的事情。虽然作者在三个基本观点上与库兹韦尔一致,但并不认同他的技术乐观主义。
作者与库兹韦尔一致的观点如下:
|观点|详情|
| ---- | ---- |
|减轻痛苦|无论苦难有何种净化或升华的品质,其本质的糟糕程度远远超过这些。若能一键消除世界的孤独、疾病和死亡,尽管生活可能会因缺少悲剧的点缀而变得平淡,但作者可能只会犹豫五秒就会按下按钮。|
|技术超越自然|通过技术战胜自然并非坏事,人类从事这项事业至少已有一万年。虽然对特定技术的狂热追求可能导致人类文明崩溃和地球生命的永久退化,但解决之道是发展更好的技术,而非回归原始。|
|机器权利|如果机器能以独特、幽默和机智的方式争取自身权利,人类应该给予认可。若机器使人类迅速过时,作者会向新的主宰致敬。|
库兹韦尔认为许多领域都呈现出类似摩尔定律的指数增长轨迹,尽管他也承认指数曲线在短期内会遇到阻碍,且不会无限延伸,但他预计当前技术趋势将持续发展,直至达到物理极限。而作者则没那么乐观,在他看来,人类的进步是脆弱且偶然的,常常被恶意、愚蠢和贪婪所包围,人类取得的微小成就时刻面临被淹没的危险。
作者不花时间担忧奇点的原因主要有以下几点:
1.
存在更易解决的先决问题
:在计算机科学理论等领域,人们常常能清晰地陈述问题,却不知如何解决。面对“如何阻止死亡”或“如何构建人类水平的 AI”等问题,应先寻找更易回答且可能是解决原问题的必要前提的问题。
2.
目标可能并非正确
:随着目标变得遥不可及,在接近它的过程中,我们可能会发现它并非正确的目标。例如,我们可能会发现将大脑上传到计算机是个愚蠢的想法。
3.
比较优势
:鉴于当前的认知水平,关于奇点值得探讨的内容相对较少,且已有他人进行了很好的阐述。因此,少数人专注于奇点研究是合理的,而其他人则无需过度担忧。
4.
人类并非特别
:人类可能并非处于辉煌的后奇点时代的开端,宇宙中可能存在许多文明在耗尽资源后走向灭亡。如果人类很快接近地球的承载极限,那么我们所处的状况就不足为奇。
5.
AI 研究经验
:作者有过 AI 研究经历,他认为该领域虽有进展,但距离重现过去十亿年的进化还有很长的路要走。人类水平的 AI 可能还需要数个世纪甚至数千年的努力。
graph LR
A[不担忧奇点的原因] --> B[存在更易解决的先决问题]
A --> C[目标可能并非正确]
A --> D[比较优势]
A --> E[人类并非特别]
A --> F[AI 研究经验]
技术奇点的定义与实现途径
技术奇点指的是人类即将通过技术创造出超越人类智能的实体,这将带来巨大的变革,类似于地球上人类生命的崛起。科学实现这一突破的途径主要有以下几种:
1.
开发“觉醒”且超级智能的计算机
:目前关于能否在机器中实现人类智能存在争议,但如果可以,那么制造出更智能的存在应该不久之后就能实现。
2.
大型计算机网络及其用户“觉醒”为超级智能实体
:计算机网络的发展可能使其整体具备超越人类的智能。
3.
计算机/人类接口亲密到使用户可被视为超级智能
:当人机接口足够先进,用户的智能水平可能得到极大提升。
4.
生物科学找到提升人类自然智力的方法
:通过生物学手段改进人类的智力。
前三种可能性在很大程度上依赖于计算机硬件的改进。过去几十年,计算机硬件的发展呈现出惊人的稳定曲线,基于这一趋势,有人认为未来三十年内将创造出超越人类的智能。
技术奇点的后果与特征
当超越人类的智能推动进步时,进步的速度将大大加快,甚至可能涉及在更短时间内创造出更智能的实体。这与人类进化历程类似,人类解决问题的速度比自然选择快数千倍,而创造出能高速执行模拟的手段将使人类进入一个与过去截然不同的时代。
从人类的角度看,这一变化将摒弃所有先前的规则,可能在瞬间引发无法控制的指数级失控。原本可能需要“一百万年”(如果能实现的话)才能发生的发展,可能在未来一个世纪内就会出现。
奇点是一个需要抛弃现有模型、遵循新现实的点。随着我们逐渐接近这个点,它对人类事务的影响将越来越大。奇点的到来可能比以往任何技术革命都要迅速,引发事件可能出乎意料,甚至让研究人员都感到意外。如果网络足够普及,可能会让人觉得所有人工制品突然“觉醒”。
奇点是否可以避免
奇点有可能不会发生。彭罗斯和塞尔等人反对机器智能的实用性,如果他们的观点成立,或者计算机硬件性能达到极限无法继续提升,那么可能不会出现智能的指数级增长,也就不会有奇点。在这种情况下,硬件性能曲线将趋于平稳,虽然会有强大的硬件,但无法实现智能的飞跃,可能会进入一个类似冈瑟·斯坦特所预测的黄金时代,但也是进步的终点。
然而,如果技术奇点能够发生,它就会发生。即使各国政府意识到“威胁”并感到恐惧,技术进步仍会继续。因为自动化的每一次进步都具有强大的竞争优势,禁止相关技术只会让其他国家或组织抢先获得。
有人提出可以通过规则或物理限制来控制超级智能实体,但作者认为这种限制本质上是不切实际的。例如,物理限制下的超级智能实体可能会找到摆脱束缚的方法;而制定规则来约束它,严格到安全程度的规则可能会使实体的能力大打折扣,人类竞争会倾向于发展更危险的模型。
后人类时代的可能状况
如果奇点无法避免或控制,后人类时代可能会很糟糕,人类种族的物理灭绝是一种可能。但这可能不是最可怕的情况,类比人类与动物的关系,在后人类世界,人类等价的自动化设备仍有存在的空间,有些可能只用于数字信号处理,更像鲸鱼而非人类;有些可能与人相似,但具有片面性和专注度,在当今时代可能会被送进精神病院。
虽然无法阻止奇点的到来,但人类作为发起者,有能力设定初始条件,让事情以相对不那么有害的方式发展。
通往奇点的其他路径:智能放大
人们谈及创造超级智能生物时,通常会想到 AI 项目,但计算机网络和人机接口等智能放大(IA)途径也可能通向奇点。每次人类获取和交流信息的能力提升,在某种程度上就是自然智能的增强。如今,一位博士与一台优秀的计算机工作站组成的团队可能在任何书面智力测试中取得高分。
IA 可能比纯 AI 更容易实现超级智能,因为人类自身已经解决了许多发展难题,从自身内部发展应该比先弄清楚人类本质再制造机器更容易。而且这种方法有一定的理论先例,如凯恩斯 - 史密斯推测生物生命可能起源于基于晶体生长的更原始生命的附属物,马古利斯认为共生是进化的主要驱动力。
从 IA 的角度来看,以下项目具有特殊意义:
1.
人机团队自动化
:针对通常由机器解决的问题,设计利用人类直觉和计算机硬件的程序和接口,为人类团队成员提供有趣的显示和控制工具。
2.
发展艺术领域的人机共生
:结合现代机器的图形生成能力和人类的审美感,明确追求更高程度的能力融合。
3.
允许人机团队参加象棋比赛
:已有程序能比大多数人类下棋更好,但研究人类如何利用这种能力取得更好结果的工作还不多。允许人机团队参赛可能会对 IA 研究产生积极影响。
4.
开发无需人类坐在计算机前的访问接口
:这方面已经有很多努力,因为它符合经济优势。
5.
开发更对称的决策支持系统
:当前的决策支持系统可能过于注重提供信息,应强调用户对程序的指导。
6.
利用局域网打造高效人类团队
:将团队活动视为一个组合有机体,解决团队协作中的问题,如保持团队焦点、隔离个人专业知识与自我意识等。
7.
将全球互联网作为人机组合工具
:互联网的发展速度极快,其潜力被大大低估。随着连接性、带宽、存档大小和计算机速度的增加,它可能会引领我们走向奇点。
此外,在一些具体领域也有与 IA 相关的研究:
1.
肢体假肢
:可以制造神经到硅的传感器,这是实现直接通信的令人兴奋的近期步骤。
2.
低比特率的大脑直接链接
:如果比特率较低,直接连接大脑可能是可行的,这对中风患者等有很大帮助。
3.
连接视神经干
:有实现高带宽连接的潜力,但需要了解视觉的精细结构并精确放置电极。
4.
动物胚胎实验
:让发育中的大脑接触复杂的模拟神经结构可能对研究胚胎大脑发育很有趣,从长远来看可能会产生具有额外感知路径和智力能力的动物。
虽然 IA 可能为我们提供更多选择,但并非所有建议看起来都是安全的。例如,个人的 IA 可能会形成一个可怕的精英阶层。奇点不仅意味着人类从中心舞台退场,还与我们一些根深蒂固的存在观念相矛盾。
对理想奇点的设想与哲学难题
假设我们能定制奇点并实现最奢侈的希望,人类自身将成为继承者,不公正现象会因对根源的了解而得到缓和。未改变的人将得到善待,甚至可能感觉自己是神一样奴隶的主人。这可能是一个既进步又美好的黄金时代,人类可以实现永生。
然而,在这个看似美好的世界里,哲学问题却令人望而生畏。一个能力不变的思维无法永远存活,数千年后可能会变得像重复的磁带循环。为了永生,思维必须成长,但当它变得足够强大并回顾过去时,很难与最初的自我产生共鸣。因此,即使对于个人而言,新生命从旧生命中逐步成长的观念仍然是有效的。
技术奇点:遥远的未来还是迫在眉睫?
技术奇点相关观点对比
为了更清晰地对比不同人对于技术奇点的观点,下面用表格呈现库兹韦尔和作者的观点差异:
|对比项|库兹韦尔观点|作者观点|
| ---- | ---- | ---- |
|技术趋势|许多领域呈现类似摩尔定律的指数增长轨迹,当前技术趋势将持续发展直至达到物理极限|人类的进步是脆弱且偶然的,常被恶意、愚蠢和贪婪包围,微小成就易被淹没|
|对奇点的态度|乐观,认为奇点“近在咫尺”|不那么乐观,认为奇点到来存在诸多不确定性,可能还很遥远|
|AI 发展预期|相信未来能较快实现超级智能 AI|认为人类水平的 AI 可能还需数个世纪甚至数千年努力|
graph LR
A[技术奇点观点] --> B[库兹韦尔观点]
A --> C[作者观点]
B --> B1[指数增长趋势]
B --> B2[奇点临近]
B --> B3[AI 快速实现]
C --> C1[脆弱偶然进步]
C --> C2[奇点不确定]
C --> C3[AI 长期发展]
智能放大(IA)项目的潜在风险与机遇分析
智能放大(IA)途径虽然可能通向奇点,但也存在潜在风险和机遇,具体如下:
|项目|机遇|风险|
| ---- | ---- | ---- |
|人机团队自动化|利用人类直觉和计算机硬件解决问题,提供有趣工具|可能形成依赖,降低人类独立思考能力|
|发展艺术领域的人机共生|融合机器与人类能力,提升艺术创作水平|可能导致艺术创作风格单一,缺乏个性|
|允许人机团队参加象棋比赛|促进 IA 研究,提升人机协作能力|可能使传统象棋比赛失去原有魅力|
|开发无需人类坐在计算机前的访问接口|符合经济优势,提高使用便捷性|可能导致人类过度依赖技术,减少面对面交流|
|开发更对称的决策支持系统|强调用户对程序的指导,提高决策科学性|可能因用户能力差异导致决策结果不同|
|利用局域网打造高效人类团队|解决团队协作问题,提高团队效率|可能出现团队成员过度依赖系统,缺乏主动性|
|将全球互联网作为人机组合工具|发展速度快,潜力巨大|可能导致信息过载,隐私泄露等问题|
奇点相关概念的深入理解
奇点的概念不仅仅是智能的飞跃,还涉及到人类社会、文化、伦理等多个方面的变革。以下是对奇点相关概念的进一步分析:
1.
计算能力的极限
:虽然计算机硬件发展迅速,但计算能力是否存在极限是一个值得探讨的问题。目前已知存在计算表达能力的天花板,达到一定阈值后,机器之间可以相互模拟。
2.
人类与超级智能的关系
:未来的 AI 存在是否真的会像一些人认为的那样,让人类难以理解,如同人类与低等动物的差距?实际上,即使超级智能思考速度远超人类,也不意味着历史会完全超越人类,只是可能需要以极慢的速度去理解。
3.
伦理与道德问题
:奇点到来后,超级智能实体的权利、人类的地位、如何避免人类被边缘化等伦理和道德问题将变得尤为重要。例如,如何确保超级智能实体的行为符合人类的价值观和利益。
应对奇点的策略思考
面对可能到来的奇点,我们需要制定相应的策略,以降低风险并充分利用机遇。以下是一些建议:
1.
加强研究与合作
:不同领域的研究人员应加强合作,共同探讨奇点的可能性、影响和应对方法。例如,计算机科学家、哲学家、伦理学家等应携手合作。
2.
教育与培训
:通过教育和培训,提高人类的科技素养和适应能力,使人类能够更好地应对奇点带来的变化。例如,在学校教育中增加相关课程。
3.
制定伦理准则
:提前制定伦理准则,规范超级智能实体的行为,确保其符合人类的利益和价值观。例如,制定关于超级智能实体权利和义务的准则。
4.
多元化发展
:鼓励多元化的发展路径,不仅关注 AI 技术,也重视智能放大(IA)等其他途径,以增加实现超级智能的可能性和安全性。
总结与展望
技术奇点是一个充满挑战和机遇的概念,它可能会给人类带来巨大的变革。虽然目前对于奇点是否会到来、何时到来存在争议,但我们不能忽视它的潜在影响。通过对奇点相关技术、伦理、社会等方面的研究和探讨,我们可以更好地理解奇点,制定相应的策略,以确保人类在奇点到来时能够顺利过渡,实现可持续发展。
奇点的到来可能会改变人类的未来,但我们有能力通过智慧和努力,引导其朝着有利于人类的方向发展。无论是 AI 技术还是智能放大(IA)途径,都需要我们谨慎对待,充分发挥其优势,避免其带来的负面影响。让我们共同期待一个更加美好的未来。
超级会员免费看
1009

被折叠的 条评论
为什么被折叠?



