在“AI大模型的机遇与风险”主题论坛上,中国工程院院士、清华大学智能产业研究院院长张亚勤进行了详尽而深入的阐述。他强调,尽管AI大模型拥有巨大的潜力,但同时也伴随着不容忽视的多重风险:
一是现在信息智能的风险,这是安全界现在所从事的;
二是AI本身的安全风险,包括模型的参数数据,模型本身对人类的攻击性,不可解释性、黑箱等问题;
三是可控性、可信性、边界问题,这些都是AI领域特有的问题。
随着人们对数据传输、保留和隐私的认识不断提高,许多企业和消费者对人工智能的实施采取了谨慎的态度。随着技术的发展,我们越来越接近实际智能的目标,需要加强监管和合规性,以应对伴随进步而来的许多风险。 人工智能管理标准体系(ISO 42001)旨在提供这些护栏。
何为人工智能管理标准体系(ISO 42001) ?
ISO/IEC 42001 由国际标准化组织 (ISO) 和国际电工委员会 (IEC) 于 2023 年联合发布,是世界上[敏感词]个人工智能管理体系标准。它旨在确保负责任、可持续地实施人工智能技术,这些技术现在已经深深植根于我们的日常生活中,并为未来的发展铺平道路。
ISO 42001 围绕现有的组织结构构建,为有效评估和管理人工智能风险提供了实用指导,同时也确定了创新机会。它为组织提供了监管蓝图,让消费者放心,因为标准正在得到满足。
该框架遵循 2022 年至 2023 年发布的先前 ISO AI 标准。虽然这些前身为管理风险和[敏感词]化回报提供了指导,为ISO 42001奠定了基础,但它们并不要求采取相同的行动,也不适用于所有部门和业务类型,就像管理体系标准一样。以前的人工智能标准包括:
lISO/IEC 22989 – 建立术语并描述人工智能领域的概念。
lISO/IEC 23053 – 建立了一个框架,用于描述使用机器学习技术的通用人工智能系统。
lISO/IEC 23894 – 提供 AI 风险管理指南。
ISO 42001 为希望遵守全球颁布的新 AI 法律和法规的组织提供了及时的指导。欧盟正在通过《人工智能法案》引领潮流,这是[敏感词]部为使用或开发人工智能技术的组织制定明确要求的综合性法律。
《人工智能法案》根据人工智能系统带来的风险和影响水平,特别是对个人数据的风险和影响,对人工智能系统进行了某些限制。不可接受的风险包括用于情感识别、生物识别、社会评分和行为操纵的技术。这些技术要么在新的限制下被完全禁止,要么在有限的情况下保留给执法部门使用。
截至 2024 年 2 月,美国已有 16 个州颁布了某种形式的人工智能立法,另有 14 个州和哥伦比亚特区提出了新的立法。在联邦层面,拟议的《美国数据保护和隐私法案》如果获得通过,将制定人工智能技术开发和使用的规则。
通过解决重要的安全、安保、隐私、透明度、偏见和其他问题,ISO 42001有望在确保遵守法律和监管要求、建立对人工智能的信心和信任方面发挥关键作用。
本文整理自网络