Meritalk网站8月18日消息,美国国家标准技术研究院(NIST)提出了四项原则,以确定AI所做决定的“可解释”程度。“可解释人工智能的四项原则”(NISTIR 8312草案)是NIST基础研究的一部分,旨在通过理解AI的理论能力和局限性以及通过提高AI使用的准确性(accuracy)、可靠性(reliability)、安全性(security)、鲁棒性(robustness)和可解释性(explainability)来建立对AI系统的信任。
可解释AI的四项原则是:
● 人工智能系统为所有输出提供相关证据或原因;
● 人工智能系统应向个体用户提供有意义且易于理解的解释;
● 所提供的解释应正确反映AI系统生成输出结果的过程;
● AI系统“仅在预设或系统对其输出有足够信心的情况下运行。”
NIST电子工程师乔纳森·菲利普斯(Jonathon Phillips)表示,人工智能正在参与高风险的决策,没有人希望在不理解原因的情况下让机器做出决策。但是,工程师所满意的解释可能不适用于具有不同背景的人。因此,希望获取多元观点和意见来完善草案。随着可解释AI的发展,人们可能会发现AI系统的某些部分比人类更能满足社会的期望和目标。理解人工智能系统以及人类行为的可解释性,为寻求结合两者优势的方法打开了大门。
编译 | 贺佳瀛/赛博研究院研究员
本文由赛博研究院出品,转载请注明:本文来源于赛博研究院公众号。
更多精彩内容请关注“赛博研究院”公众号。