ETSI非常高兴地宣布成立了一个新的安全人工智能行业规范小组(ISG SAI)。该小组将制定技术规范,以缓解在多个ICT相关行业中部署AI所带来的威胁。 这包括传统来源和其他AI对人工智能系统的威胁。
成立ETSI安全人工智能小组的目的是希望自治的机械和计算实体可以通过设计或恶意意图对依赖方采取行动的决策。当涉及自动机器时,需要重新评估以“识别-保护-检测-响应”循环为代表的网络风险分析和对策部署的常规循环。
因此,ISG SAI的目的是解决标准领域中人工智能的三个方面:
保护AI免受攻击,例如AI是系统中需要防御的组件
缓解AI,例如AI是“问题”或用于改善和增强其他更常规的攻击媒介的地方
使用AI来增强针对来自其他事物的攻击的安全措施,例如AI是“解决方案”的一部分,或者用于改进和增强更常规的对策。
ETSI ISG SAI的目的是发展作为确保人工智能安全的基准的技术知识。受ETSI小组活动影响的利益相关者包括最终用户,制造商,运营商和政府。
在小组第一次会议期间将开展并确认三项主要活动。
人工智能威胁本体
当前,关于什么构成对AI的攻击以及如何创建,托管和传播AI尚无共识。这里要进行的工作将试图定义什么将被视为AI威胁以及它与传统系统的威胁有何不同。因此,AI威胁本体规范旨在在不同的利益相关者和多个行业中统一术语。ETSI规范将在网络和物理安全性的上下文中定义这些术语的含义,并为所有人提供易于理解的叙述。这种威胁本体将把AI视为系统,攻击者和防御者。
保护AI问题陈述
该规范将以ETSI GS NFV-SEC 001 “安全问题声明”为模型,这对指导ETSI NFV的范围以及为NFV基础架构实现“设计安全”具有很大影响。它将定义潜在的AI威胁并确定其优先级,并建议采取的措施。本规范中包含的建议将用于定义后续工作的范围和时间表。
数据供应链报告
数据是AI系统开发中的关键组成部分,包括原始数据以及循环中其他AI系统和人员的信息和反馈。但是,对合适数据的访问通常受到限制,导致需要诉诸不太合适的数据源。事实证明,损害数据完整性是对AI系统的可行攻击媒介。本报告将总结当前用于培训AI的数据来源的方法,并回顾开发数据共享协议的现有举措,并分析确保共享数据,信息和反馈的完整性以及对机密性的标准要求。这些。
新的ETSI组的创始成员包括BT,Cadzow Communications,华为技术,NCSC和Telefónica。
ISG SAI的第一次会议将于10月23日在Sophia Antipolis举行。快来加入,共同塑造安全人工智能的未来之路!