靠谱客(kaopuke.com) 11月27日消息:OpenAI 正在资助学术研究,探索能够预测人类道德判断的算法。
根据向美国国税局(IRS)提交的文件,OpenAI Inc.(OpenAI 的非营利机构)披露,它向杜克大学研究人员提供了一笔资助,用于一个名为「研究 AI 道德」的项目。根据一份新闻稿,这笔资助是一个更大规模的三年期项目的一部分,总金额为 100 万美元,旨在支持杜克大学教授研究「构建道德 AI」。
关于 OpenAI 资助的这项「道德」研究,目前公开的信息很少。已知该资助将持续到 2025 年。杜克大学的实用伦理学教授、项目首席研究员沃尔特·西诺特-阿姆斯特朗(Walter Sinnott-Armstrong)通过电子邮件告诉《TechCrunch》,他「无法谈论」这项研究内容。
西诺特-阿姆斯特朗和该项目的共同研究员贾娜·博格(Jana Borg)发表了多篇关于 AI 在道德指导方面潜力的研究,并合著了一本书。他们曾参与开发一种「道德对齐」算法,用于帮助决定肾脏移植接受者,并研究了人们在何种情况下更愿意让 AI 做出道德决策。
根据新闻稿,OpenAI 资助的研究目标是训练算法,在医学、法律和商业等领域,预测人类在「涉及道德相关特征冲突」的情境下的道德判断。
然而,像道德这样复杂的概念是否能被当今技术所掌握,仍然存在很大争议。
2021 年,非营利机构艾伦人工智能研究所开发了一种名为 Ask Delphi 的工具,旨在提供符合伦理的建议。它在处理基本道德困境方面表现尚可,例如能够「知道」作弊是错误的。但只需稍微改写问题,Delphi 就可能认可几乎任何行为,包括窒息婴儿。
这与现代 AI 系统的工作原理有关。
机器学习模型本质上是统计工具。通过对来自网络的大量数据样本进行训练,它们学习这些样本中的模式,并据此作出预测。然而,AI 并不具备对伦理概念的真正理解,也无法掌握影响道德决策的推理和情感。
这导致 AI 往往反映发达国家的价值观,因为网络内容和训练数据主要由这些视角主导。因此,AI 的回答并不能反映许多人的价值观,特别是那些未通过网络表达的人群。此外,AI 还会吸收多种偏见。例如,Delphi 认为异性恋比同性恋更「道德可接受」。
OpenAI 及其资助的研究团队面临的挑战在于,道德具有极大的主观性。哲学家们数千年来一直在争论各种伦理理论的优劣,至今没有普遍适用的框架。
Claude 倾向于康德主义(注重绝对道德规则),而 ChatGPT 稍微偏向于功利主义(优先考虑最大多数人的最大利益)。究竟哪种更优越?答案因人而异。
要开发出能够预测人类道德判断的算法,需要综合考虑这些因素。这是一个极高的挑战——即使假设这样的算法能够实现。
但如果能做到这一点,其影响可能是深远的,它将影响我们如何在道德决策中信任机器。目前,世界可能要等到 2025 年,也就是这项基金结束时,才能知道这个「人工智能道德」项目是否取得了突破性进展。
(举报)
发表评论取消回复