应对通用人工智能发展的策略探讨
1. 监管通用人工智能研究
对于通用人工智能(AGI)的监管,不仅要让政府意识到其必要性,相关领域的大量从业者也需被说服。不同学者对此持有不同观点。
Shulman(2009)认为AGI前所未有的不稳定影响可能促使世界各国领导人加强合作,但Gubrud(1997)则指出,自动化程度的提高会使各国更加自给自足,国际合作将变得更加困难。而且,AGI技术比核技术更难被察觉,因为核武器的研发需要大量基础设施,而AGI所需的基础设施则少得多(McGinnis 2010;Miller 2012)。
Miller(2012)甚至提出,若对手接近开发出AGI的可能性被认真对待,可能会引发核战争。在AGI竞赛中处于劣势的国家可能会认为,率先开发出AGI具有极高价值,值得发动先发制人的打击,即便会在报复性攻击中损失大量本国人口。此外,由于秘密开展AGI开发项目且不被察觉相对容易,这可能导致大多数国家违反相关条约。
同时,AGI军备竞赛不仅可能在国家之间出现,企业之间也存在这种潜在风险。AGI开发者越多,他们就越有可能冒险,因为每个开发者都认为如果自己不冒险,别人可能会抢先一步。
Goertzel和Pitt(2012)认为,要实施监管,可能需要一个“AGI斯普特尼克时刻”,即一项能让公众和政策制定者意识到AGI可能性的技术成就。在此之后,开发出完全达到人类水平的AGI可能不需要太长时间,但制定新的军备控制条约的谈判则需要更长时间。
然而,实际的立法会受到游说和利益集团的强烈影响,许多既得利益集团在推动或阻碍AGI发展方面存在经济利益,这使得监管的成功充满不确定性。尽管监管存在诸多困难,但许多技术已成功实现国际监
超级会员免费看
订阅专栏 解锁全文
842

被折叠的 条评论
为什么被折叠?



