目  次
1范围 (1)
人工智能ai正则化使用方法2规范性引用文件 (1)
3术语和定义 (1)
4可信赖技术架构 (4)
5可信赖技术要求 (4)
5.1通用要求 (4)
5.2核心特征要求 (5)
5.3关键技术要求 (6)
6可信赖评估方法 (9)
6.1可信赖目标分类指南 (9)
6.2可信赖评估流程 (9)
附录A(资料性)可信赖应用场景 (11)
附录B(资料性)可信赖评估流程示例 (15)
人工智能可信赖规范第1部分:通则
1范围
本文件给出了人工智能系统的可信赖技术框架,规定了可信赖技术要求和可信赖评估流程。
本文件适用于人工智能系统、含人工智能的计算机系统相关的开发、设计、应用和测试。
2规范性引用文件
下列文件中的内容通过文中的规范性引用而构成本文件必不可少的条款。其中,注日期的引用文件,仅该日期对应的版本适用于本文件;不注日期的引用文件,其最新版本(包括所有的修改单)适用于本文件。
GB/T41867信息技术人工智能术语
3术语和定义
GB/T41867界定的以及下列术语和定义适用于本文件。
3.1
可信赖trustworthiness
满足利益相关方期望并可验证的能力。
注1:依赖于语境或行业,也依赖于具体的产品或服务、数据以及所用技术,应用不同的可信性赖特征并对其进行验证,以确保利益相关方的期望能得到满足。
注2:可信赖的特征包括:功能安全、伦理符合、隐私保护、透明性、公平性、可靠性、可问责性、可解释性、鲁棒性、可泛化性、备份、可追溯性、实时性、可控性、韧性、可复现性、偏见缓解、信息安全。
注3:可信赖作为一种属性可用于描述服务、产品、技术、数据和信息,在所管辖语境中也可用于组织。
[来源:GB/T41867—2022,2.4.1,有修改]
3.2
人工智能系统artificial intelligence system
针对人类定义的给定目标,产生诸如内容、预测、推荐或决策等输出的一类工程系统。
注1:该工程系统使用人工智能相关的多种技术和方法,开发表征数据、知识、过程等的模型,用于执行任务。
注2:人工智能系统具备不同的自动化级别。
[来源:GB/T41867—2022,3.1.8]
3.3
功能安全functional safety
人工智能系统完成设定任务期间,对用户、资源或环境不会造成无法接受风险的性质。
3.4
1
伦理ethics
开展人工智能技术基础研究和应用实践时遵循的道德规范或准则。
[来源:GB/T41867—2022,3.4.8]
3.5
隐私保护privacy protection
使个人或集体等实体不愿意被外人知晓的信息得到应有的保护。
注1:需要重点保护的个人信息是身份信息,防止外人通过该信息直接或间接查询追溯到个人的其它信息;
注2:需要重点保护的集体信息是团体各种行为的敏感信息,防止外人通过该信息获取团体的核心机密。
透明性transparency
人工智能系统与利益相关方关于该系统适当信息的特性。
注1:系统透明性相关的信息一般包含特性,性能,缺陷,组件,程序,度量,设计目标,设计选择和假设,数据源及标注协议。
注2:对系统某些方面不适当的暴露一般会违背安全、隐私或保密要求。
[来源:GB/T41867—2022,3.4.12]
3.6
公平性fairness
尊重既定事实、社会规范和信仰,且不受偏袒或不公正歧视影响的对待、行为或结果。
注1:对公平性的考虑是与环境高度相关的,并且因文化、代际、地理和政治观点而异。
注2:公平不等于没有偏见。偏见并不总是导致不公平,不公平可能是由偏见以外的因素引起的。。
[来源:GB/T41867—2022,3.4.1]
可靠性reliability
人工智能实施一致的期望行为并获得结果的性质。
[来源:GB/T41867—2022,3.4.4]
3.7
可问责性accountability
人工智能系统及其利益相关方对其行动、决定和行为负责任的状态。
注1:可问责与分配的责任有关。责任可能基于法规或协议,也可能通过委托的一部分进行指派。
注2:可问责涉及负责人或实体通过特定方法和依据特定条件,对其他人或实体的某些事物负责。
[来源:GB/T41867—2022,3.4.6]
3.8
可解释性explainability
人工智能系统以人能理解的方式,表达影响其(执行)结果的重要因素的能力。
注:可解释性理解为对“原因”的表达,而不是尝试以“实现必要的优势特性”做出争辩。
[来源:GB/T41867—2022,3.4.3]
3.9
鲁棒性robustness
人工智能系统在任何情况下保持其性能水平的特性。
[来源:GB/T41867—2022,3.4.9]
2
3.10
可泛化性generalization
训练后的人工智能系统应用到新数据时,能做出准确预测能力的特性。
3.11
备份backup
人工智能系统为防止出现操作失误或系统故障导致数据丢失,将全部或部分数据集合从应用主机复制到其他的存储媒体或系统的过程。
3.12
可追溯性traceability
人工智能系统能追溯特定实体的历史、应用及位置的性质。
注:实体包含人工智能系统相关的数据、操作、人员或其本身的部分或全部。
3.13
实时性real time
人工智能系统在给定时间段内处理外来请求的性质。
3.14
可控性controllability
人工智能系统被人类或其它外部智能体干预的性质。
[来源:GB/T41867—2022,3.4.5]
3.15
韧性resilience
人工智能系统在事故后在符合期望的时间段内,恢复可操作条件的特性。
[来源:GB/T41867—2022,3.4.11]
3.16
可复现性reproducibility
人工智能系统在可接受的复现性条件下,在不同运行环境中获得相同结果的特性。
偏见bias
人工智能可信赖对待特定对象、人员或体时,相较于其他实体出现系统性差别的特性。
注:对待指任何一种行动,包括感知、观察、表征、预测或决定。
[来源:GB/T41867—2022,3.4.10]
3.17
信息安全information security
对信息的机密性、完整性和可用性的保持。
[来源:GB/T25069—2022,3.673]
3.18
3
4service level agreemen 服务级别协议t
指提供服务的企业与客户之间就服务的品质、水准、性能等方面所达成的双方共同认可的协议或契约。
4可信赖技术架构
人工智能可信赖技术架构见图1,包含通用要求域、核心概念域和关键技术域。
图1人工智能可信赖技术架构
a)通用要求域包含人类对人工智能系统可信赖期望,即物理上不对人、资产、环境造成损害,精
神上不对人的思想、社会价值观产生负面影响。通用要求域的期望可被核心概念宏观要求详细表达,也被关键技术域中的要素决定。通用要求域包含功能安全、伦理符合性两个要素。
b)核心概念域包含人工智能可信赖技术体系中的宏观的技术概念要素。每个概念都对人工智能系
统提出一类要求。每类要求被若干基础技术要素影响或决定。人工智能系统对本域中每类要求的符合性,依赖于其在相关基础技术要素上的实现水平,也依赖于相应的管理手段。核心概念域包含隐私保护、可靠性、透明性、可问责性、公平性五个要素。
c)关键技术域包含人工智能可信赖技术体系中的基础技术要素。每一个要素都有相对独立指标体
系,且能被技术测试。关键技术域包含可解释性、鲁棒性、可泛化性、备份、可追溯性、实时性、可控性、韧性、可复现性、偏见缓解、信息安全等11个要素。
注:根据AI系统的应用场景和产品类型不同,上一层的技术要素可包含下一层的一个或多个技术要素。例如,核心概念域中的可靠性可能包含关键技术域中的鲁棒性、备份、可追溯性、实时性等要素;核心概念域中的透明性可能包含关键技术域中的可解释性、可复现性等要素。
5
可信赖技术要求5.1通用要求
5.1.1
功能安全要求功能安全要求如下:

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。