欢迎访问江西安防资质网!

解锁AI监管密码:全球、区域、国别三重审视

发布于:2024-12-31

   近些年来,依托信息技术蓬勃兴起的新一轮科技变革浪潮汹涌,人工智能(AI)如同一股强劲的东风,迅速渗透至人类社会生活的各个角落,有力推动了相关产业链的蓬勃发展。然而,就像阳光背后总有阴影,AI 在带来诸多利好的同时,也催生出一连串风险与挑战。为了驯服这匹 “烈马”,全球主要国家和地区纷纷行动起来,陆续祭出人工智能监管制度这一 “利器”。总体而言,各国普遍秉持风险分级治理理念,将伦理审查、算法治理、内容治理、数据安全、竞争执法、行业监管等作为关键着力点,力求让人工智能朝着安全、可信、可控的方向稳步迈进。我国作为 AI 研发与应用的大国,理应汲取国际上人工智能监管的前沿成果,巧妙管控相关领域风险,进而提升在全球人工智能治理舞台上的话语权。

人工智能监管的全球瞭望

   当下,人工智能监管规则常常以柔性的 “软法” 面貌示人,其中《布莱切利宣言》极具标杆意义。回首 2023 年 11 月 1 日至 2 日,首届全球人工智能安全峰会在英国盛大召开,峰会上重磅发布的《布莱切利宣言》,为 AI 监管划定了三大重点方向。其一,精准识别前沿 AI 蕴含的共同安全风险,精心构建一套以科学实证为基石的风险甄别方法与机制,全方位拓宽对 AI 深远社会影响的思索与认知视野。其二,倡导不同国家依据自身面临的风险层级量身定制监管策略,在契合国情的前提下保障发展活力,同时鼓励适时开展国际协作,尊重各国因法律框架、国情差异而衍生出的不同监管路径。其三,除了敦促私人机构在前沿 AI 开发进程中提升透明度,还需设立科学合理的评估标尺,推广安全可靠的测试工具,助力公共部门锤炼相关专业能力,激发科研探索热情。

人工智能监管的区域聚焦

   2024 年 8 月正式落地生根的欧盟《人工智能法案》,堪称全球首部直击人工智能衍生风险的监管法典,为欧盟在全球 AI 治理棋局中抢占先机立下汗马功劳。这部法案依照人工智能对健康、安全以及自然人基本权利构成的潜在威胁程度,巧妙划分风险类别,并配套相应的法律义务与责任细则,要点如下:(1)针对存在不可接受风险的领域,严禁任何企业或个人贸然涉足;(2)对于高风险地带,允许相关主体在完成事前严格评估等规定动作后进入市场或投入使用,且在事中、事后要持续严密监测;(3)有限风险区域,无需特殊牌照、认证,也不必履行繁琐报告、记录义务,但务必遵循透明度准则,保障合理的可追溯性与可解释性;(4)面对低风险或最低风险区间,相关主体享有自主抉择是否入场的权利。值得留意的是,生成式人工智能因其用途广泛、场景多变,无法单纯依据常规模式评定风险等级,而需结合开发、使用意图以及具体应用场景细致区分。不过,该法案在 AI 实战落地过程中,仍受技术瓶颈等不确定因素制约。

人工智能监管的国别洞察

   美国采用行业管理标准为主轴,辅以必要部门立法的 “组合拳” 策略。自 2016 年起,美国便不断拧紧监管 AI 的 “发条”,密集出台多部相关监管法规与指南。2020 年 11 月正式推出的《人工智能应用监管指南》,明确提出联邦机构制定 AI 应用立法时应斟酌的十项基本原则,涵盖风险评估与管控、公平公正、公开透明等关键要求。在《国家人工智能倡议法案》的强力推动下,美国火速组建国家人工智能资源研究工作小组,专项调研美国 AI 研究网络、基础设施的可及性与咨询便利性,并于 2023 年 1 月重磅发布《加强和民主化美国人工智能创新生态系统:国家人工智能研究资源实施计划》,志在打造一个更为普及、系统的 AI 研究网络基础设施体系,旨在激发创新潜能、丰富人才储备多样性、提升管理效能,确保 AI 应用安全、可控、可信。同年 1 月,美国国家标准与技术研究院揭晓《人工智能风险管理框架》,为组织机构开发、部署 AI 系统时降低安全隐患、规避偏见及负面效应、提升 AI 可信度、捍卫公民公平自由权利提供精准导航。
英国精心制定人工智能政策白皮书。2023 年 3 月,英国新设立的科学创新与技术部重磅推出《创新型人工智能监管》白皮书,凭借简化创新审查流程、精准界定监管风险与威胁等务实举措,助力英国在全球 AI 治理进程中扮演建设性角色。白皮书中明确了五项监管要义:(1)坚守安全与稳健底线;(2)保障透明度与可解释性;(3)维护公平正义;(4)落实问责与治理机制;(5)营造可竞争性环境并提供补救措施。然而,AI 供应链犹如一座 “黑箱”,算法、数据库、参数设计、训练模型设计等环节透明度欠佳,使得现实中的风险监管与问责举措执行受阻。
韩国践行立法与行业监管双轨并行模式。从 2019 年的《国家人工智能战略》启航,到 2020 年的《完善人工智能法律法规监管路线图》,再到 2023 年的《数字权利法案》等一系列法规相继落地生效,韩国在完善人工智能监管体制机制的征程上一路疾驰。其中,《促进人工智能产业和建立可信人工智能框架法案》备受瞩目,该立法遵循 “先技术应用、后监管完善” 原则,为 AI 技术腾飞 “保驾护航”,同时针对高风险 AI 领域提出严苛监管要求,诸如强制要求提前告知用户、确保系统可信度与安全性等。此外,《信用信息使用和保护法》赋予信用数据主体要求数据控制者阐释自动化评估与决策的权利,涵盖提交有利信息、更正或删除基本信息等诉求。《个人信息保护法》同样规定,一旦自动化决策对数据主体权益产生重大影响,数据主体有权拒绝并要求解释;即便影响轻微,也有权要求阐释决策依据。

完善我国人工智能监管体系

   在 AI 监管的国际棋局中,妥善平衡创新、发展与安全这三者关系,已然成为各国共识。当下,我国亟需在总体国家安全观的指引下,全方位优化人工智能监管体系。
其一,精细划分风险层级,量身定制差异化监管制度。纵览全球、区域及各国 AI 监管策略,两大共性特征清晰浮现。一方面,全面系统评估人工智能风险,需深挖 AI 系统在实际使用中潜藏的各类隐患,诸如训练数据偏差、系统稳定性、信息安全防护漏洞等具体症结;另一方面,依据 AI 应用场景的千差万别,实施多维度风险评估,毕竟医疗领域 AI 应用相较于普通消费者推荐系统 AI 应用,风险层级更高,理应匹配更为严格、缜密的风险评估体系。对此,人工智能企业应未雨绸缪,火速组建内部人工智能风险治理委员会,实时研判 AI 在数据、技术、应用等层面的潜在风险,逐步构筑行之有效的风险预警与应急管理机制,采取分类分级的简约高效监管方式,积极探索 AI 从设计、研发、投放到运维的全流程评估验证路径,持续强化 AI 风险管控与处置能力。
其二,倾力搭建资源平台,汇聚跨学科智慧共研 AI 安全应用方案。现阶段,我国应持续加大资源投入,精心搭建资源汇聚平台,吸引更多专家学者与实务精英携手共进,合力攻克 AI 研发难关,这不仅有助于我国科技实力在全球排名中稳步攀升,更能为经济社会高质量发展注入澎湃动力。《生成式人工智能服务管理暂行办法》第 5 条、第 6 条已明确我国鼓励发展生成式人工智能的坚定立场与行动指南。例如,积极扶持行业组织、企业、教育科研机构、公共文化机构以及专业团体等,在生成式人工智能技术创新、数据资源建设、成果转化应用、风险防范等关键环节协同作战。后续,还应进一步细化出台相关行业规范与实施细则,确保政策落地有声、执行有力。
其三,多管齐下优化人工智能监管体制机制。首先,构建一套科学合理、公开透明的人工智能监管体制,强化对 AI 设计问责与应用监督的双重把控;其次,实现对 AI 算法设计、产品开发、成果应用等全过程无缝监督,督促 AI 行业及企业自律自省,以保护个人信息数据及隐私为核心要务,捍卫公民个人信息与数据安全;最后,全力削减偏见因素,确保技术中立,强化 AI 治理机构间的协同联动与主观能动性,打造多元有序的规制新生态。


   声明:本站所使用的图片文字等素材均来源于互联网共享平台,并不代表本站观点及立场,如有侵权或异议请及时联系我们删除。


Copyright © 2018-2020 江西安防资质网

 网站地图