章节出错了,点此刷新,刷新后小编会在两分钟内校正章节内容,请稍后再试。
……
最新动态和当前观点
大型语言模型(LLMs)和其他AI技术的快速发展加剧了关于ASI的接近性和潜在风险的争论。虽然没有科学共识,但一些研究人员和AI从业者认为,当前的AI系统可能已经接近通用人工智能(AGI)甚至ASI功能。
LLM能力–最近的LLMsGPT-4这样的LLM在推理、解决问题和多模态理解等领域表现出意想不到的能力,导致一些人猜测他们通往ASI的潜在途径。
紧急行为–研究表明,随着AI模型的大小和复杂性增加,它们会表现出小型模型所没有的紧急能力,这可能表明更通用的智能趋势。
快速进步–AI进步的速度导致一些人认为,我们可能比以前认为的更接近ASI,这可能会对生存风险产生影响。
少数研究人员和观察家,包括AI开发社区的一些人,认为当前的AI系统可能已经处于或接近AGI水平,ASI可能会在不久的将来出现。这种观点虽然在科学界并未被广泛接受,但它是基于对AI能力的快速进步和大型模型中意外的紧急行为的观察。
然而,许多专家对AGI或ASI的过早主张持警告态度,认为当前的AI系统尽管具有令人印象深刻的能力,但仍然缺乏真正的理解和一般智能。他们强调了实现人类水平智能仍然存在的重大挑战,更不用说超级智能了。
围绕AI发展现状和轨迹的辩论凸显了持续研究AI安全和道德的重要性,以及随着AI能力的不断进步,需要强大的治理框架来管理潜在风险。
……
参考资料
Pearce,David(2012),Eden,AmnonH.;Moor,JamesH.;Søraker,JohnnyH.;Steinhart,Eric(eds.),"TheBiointelligenceExplosion:HowRecursivelySelf-ImprovingOrganicRobotswillModifytheirOwnSourceCodeandBootstrapOurWaytoFull-SpectrumSuperintelligence",SingularityHypotheses,TheFrontiersCollection,Berlin,Heidelberg:SpringerBerlinHeidelberg,pp.199–238,doi:10.1007/978-3-642-32560-1_11,ISBN978-3-642-32559-5
皮尔斯,大卫(2012),伊登,阿姆农H.摩尔,詹姆斯H.索拉克,约翰尼H.;Steinhart,Eric(eds.),“生物智能爆炸:递归自我改进的有机机器人如何修改自己的源代码并引导我们走向全光谱超级智能”,奇点假设,前沿收藏,柏林,海德堡:施普林格柏林海德堡,第199-238页,doi:10.1007/978-3-642-32560-1_11,ISBN978-3-642-32559-5