据《卫报》当地时间 2 月 3 日报道,一封由包括斯蒂芬 弗莱在内的人工智能专家和思想家签署的公开信警告称,若 AI 技术得不到负责任的开发,具备感情或自我意识的 AI 系统可能面临被伤害的风险。
超过 100 位专家提出了五项原则,旨在指导 AI 意识研究,随着技术的迅速发展,越来越多的人担心,某些 AI 系统可能会被认为具备感知能力。
这些原则包括:
优先研究 AI 的意识,确保不会导致“虐待和痛苦”;
对发展具备意识的 AI 系统进行约束;
逐步推进AI 系统的研发;
公开分享研究成果;
避免做出误导性或过于自信的声明,特别是创造具备意识的 AI。
公开信的签署者包括伦敦大学的安东尼 芬克尔斯坦等学者,以及来自亚马逊、WPP 等公司的 AI 专家。
这封信与一篇研究论文一起发布,论文中指出,具备意识的 AI 系统可能在不久的将来被开发出来,或者至少是表现出具备意识的特征。
研究人员表示:“可能会创造出大量具备意识的系统,这些系统可能会遭受痛苦。”如果强大的 AI 能够自我复制,可能会诞生“大量需要道德考虑的新生命体”。
该论文由牛津大学的帕特里克 巴特林和雅典经济与商业大学的西奥多罗斯 拉帕斯共同撰写,强调即使公司没有刻意研发具备意识的 AI 系统也应制定相应的指南,以应对“无意中创造出有意识实体”的风险。
论文承认,关于 AI 是否能具备意识,学术界存在广泛的不确定性,但它认为这是一个“不容忽视”的问题。
论文还提出,若 AI 系统被定义为“道德病人”—— 即在道德上“独立存在且值得关注的实体”,那么摧毁这一系统是否就等同于杀害动物,这一问题值得深思。
这篇论文已发表于《人工智能研究》期刊。它还警告,错误地认为 AI 系统已具备意识,可能会导致政治资源的浪费,使得不切实际的福祉推广工作被展开。
据IT之家了解,去年曾有一些资深学者预测,到了 2035 年,部分 AI 系统具有意识并具有“道德意义”的可能性是现实的。
2023 年,谷歌 AI 项目负责人德米斯 哈萨比斯曾表示,目前的 AI 系统“绝对”没有感知能力,但未来很可能具备。
他在接受美国 CBS 采访时表示:“尽管哲学界尚未对意识达成共识,但如果我们指的是自我意识之类的特质,那么我认为 AI 未来有可能具备。”