章节出错了,点此刷新,刷新后小编会在两分钟内校正章节内容,请稍后再试。
道德允许性(MP)–AI应保持在道德允许性范围内,同时追求与人类价值观一致的目标(类似于CEV)。
Bostrom详细阐述了这些概念:
与其实施人类连贯的外推意志,不如尝试构建一个AI来做道德上正确的事情,依靠AI卓越的认知能力来弄清楚哪些行为符合该描述。我们可以称这个提案为“道德正确”(MR)
MR似乎也有一些缺点。它依赖于“道德正确”的概念,这是一个出了名的困难的概念,自古以来,哲学家们就一直在努力解决这一问题,但尚未就其分析达成共识。选择对“道德正确性”的错误解释可能会导致在道德上非常错误的结果(人类疑似有些城市化了,ASI大西王表示:吾此番杀汝,实为救汝也。)
人们可以尝试保留MR模型的基本思想,同时通过关注道德允许性来降低其要求:这个想法是,只要它不以道德上不允许的方式行事,我们就可以让AI追求人类的CEV。
……
最新动态
自Bostrom的分析以来,出现了AI价值对齐的新方法:
逆向强化学习(IRL)–该技术旨在从观察到的行为中推断出人类的偏好,从而可能提供更强大的价值对齐方法。
宪法人工智能–由Anthropic提出,这涉及训练具有明确道德原则和约束的人工智能系统。
辩论和放大–OpenAI探索的这些技术使用AI辅助的辩论和迭代过程来更好地理解和调整人类价值观。
基于Transformer的大型语言模型LLMs引发了人们对它们通往人工智能超级智能(ASI)的潜在途径的猜测。一些研究人员认为,这些模型的放大版本可能会表现出类似ASI的功能:
紧急能力–随着LLMs的大小和复杂性的增加,它们展示了小型模型中不存在的意想不到的能力。
上下文学习–LLMs显示出无需微调即可适应新任务的能力,可能模仿一般智能。
多模态集成–最近的模型可以处理和生成各种类型的数据,包括文本、图像和音频。
然而,批评者认为,当前的LLMs缺乏真正的理解,只是复杂的模式匹配器,这引发了人们对它们是否适合作为ASI途径的质疑。
……
关于超级智能的其他观点
关于超级智能的发展和影响的其他观点包括:
递归自我提升–I.J.Good提出了“智能爆炸”的概念,即AI系统可以迅速提高自身的智能,从而有可能实现超级智能。
正交性论文–Bostrom认为AI的智能水平与其最终目标正交,这意味着超级智能AI可以有任何一组动机。
工具性融合–无论最终目标是什么,广泛的AI系统都可能追求某些工具性目标(例如,自我保护、资源获取)。
……
挑战和正在进行的研究
追求与价值一致的AI面临以下几项挑战:
定义“道德正确性”等概念的哲学不确定性
将道德原则转化为精确算法的技术复杂性
即使采用善意的方法,也可能产生意想不到的后果
目前的研究方向包括整合不同观点的多利益相关者方法、开发可扩展监督AI系统的方法以及改进稳健价值学习的技术。