确保人工智能安全、可靠、可控

2025-05-12ASPCMS社区 - fjmyhfvclm

️【学思践悟】

作者:李国祥(山西省社会科学院〔省政府发展研究中心〕马克思主义研究所副所长)

作为新一轮科技革命和产业变革的重要驱动力量,人工智能发展在发挥多方面积极作用的同时,也面临着安全风险等一系列问题。4月25日,习近平总书记在主持中共中央政治局第二十次集体学习时强调,“完善人工智能监管体制机制,牢牢掌握人工智能发展和治理主动权”。人工智能安全是我国总体国家安全观的重要组成部分。习近平总书记高度重视统筹人工智能发展和安全,围绕发展和安全辩证统一关系、筑牢国家安全屏障等作出一系列重要论述,强调“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全”。推动人工智能健康有序发展,必须充分运用法律、技术等多种手段,构建并完善全方位、多层次的监管机制,有效应对人工智能带来的各种风险和挑战,确保人工智能安全、可靠、可控。

️建立和完善人工智能法律制度体系

通过法律手段对人工智能进行监管是世界主要国家和地区的普遍通用做法。2017年以来,美国、欧盟、日本、新加坡等陆续发布人工智能领域的法律法规准则,持续加强对人工智能的管理。近年来,我国持续加快人工智能领域立法步伐,出台网络安全法、数据安全法、个人信息保护法和《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法律法规,在加强对人工智能监管、防范人工智能风险等方面发挥了积极作用。与此同时,人工智能技术和应用发展日新月异,人工智能的监管需求日益增长,相关法律法规还存在一些短板和不足,比如,法律体系还不够完善,缺少人工智能安全监管的专门法律,在一些促发展、保安全的关键问题上还存在立法空白等。习近平总书记强调,“要坚持促进发展和依法管理相统一,既大力培育人工智能、物联网、下一代通信网络等新技术新应用,又积极利用法律法规和标准规范引导新技术应用”。我们要进一步把握人工智能发展趋势和规律,加快人工智能立法进程,推动人工智能相关立法工作列入国家立法规划,尽快制定具有前瞻性的人工智能法律法规,为相关技术的研发、应用和管理提供法律依据和保障;聚焦人工智能重点领域制定法规政策、行业规范,强化人工智能技术滥用的法律约束,逐步完善人工智能相关法律体系,为我国人工智能安全治理提供法律依据和支撑。

️建立人工智能技术风险评估与分类分级监管机制

人工智能技术的复杂性和不确定性使其可能带来多种风险,如数据泄露、算法偏见、系统被攻击等,这些风险可能对个人、企业和社会产生负面影响。人工智能技术的风险评估与分类分级监管是确保人工智能技术安全、可靠和可持续发展的关键环节。通过建立健全风险评估与分类分级监管机制,既可以有效识别和量化潜在风险,保障人工智能技术的安全应用,又能促进人工智能的创新发展。生成式人工智能是人工智能的一个分支。2023年7月,国家网信办等七部门发布《生成式人工智能服务管理暂行办法》,明确要求对生成式人工智能服务实行包容审慎和分类分级监管,对具有舆论属性或者社会动员能力的生成式人工智能服务开展安全评估。这是我国出台的全面监管生成式人工智能的规范文件。当前,人工智能技术发展方兴未艾,我们既要建立包括技术风险、数据安全风险、伦理风险、社会影响等在内的风险评估体系,对人工智能系统的潜在风险进行全面、动态的评估,以便及时发现和防范风险;也要进一步建立健全分类分级监管机制,根据人工智能应用的领域、风险等级、安全后果以及容错能力等,划分不同监管级别,实施差异化的监管措施,以确保人工智能技术健康、安全、可持续发展,更好保障社会公共利益和国家安全。

️健全规范人工智能伦理审查机制

人工智能在给经济社会发展带来巨大福利的同时,也带来难以预知的各种风险和复杂挑战。人工智能技术发展的不确定性、技术应用的数据依赖性以及算法可解释性可能导致技术失控、隐私失密、公平失衡等问题,冲击着人类社会的伦理规范。近年来,为有效应对人工智能引发的伦理问题,我国成立了国家新一代人工智能治理专业委员会,发布了《新一代人工智能伦理规范》等规范制度,持续加强人工智能伦理治理,取得明显成效。习近平总书记强调:“科技是发展的利器,也可能成为风险的源头。要前瞻研判科技发展带来的规则冲突、社会风险、伦理挑战,完善相关法律法规、伦理审查规则及监管框架。”要始终坚持“以人为本、智能向善”的人工智能发展原则,加强对人工智能发展的安全伦理风险研判,对人工智能应用可能产生的负面影响开展预见性风险评估,提前做好风险预案,确保人工智能发展安全可控;积极引导企业、科研机构等在人工智能发展中承担社会责任,要求其规范数据采集、加强数据保护、修改推送规则、监管虚假信息,防止出现数据滥用和虚假信息蔓延;深入开展人工智能伦理教育和宣传,构建良好舆论氛围,推动人工智能安全可控、健康有序发展。

️完善人工智能协同治理机制

人工智能是一个复杂的系统,对人工智能的监管与治理也是一个复杂的系统工程。对人工智能实行有效监管和治理,离不开政府、企业、行业组织、学术团体、社会公众等多元主体的共同参与。2024年,全国网络安全标准化技术委员会发布了《人工智能安全治理框架》1.0版,紧密结合人工智能技术特性,分析人工智能风险的来源和表现形式,提出一系列技术应对和综合防治措施,这对于推动社会各方积极参与、协同推进人工智能安全治理具有重要促进作用。习近平总书记指出,“人工智能带来前所未有发展机遇,也带来前所未遇风险挑战”。推动人工智能健康发展,需要多方协同,共建共治。要明确监管主体,成立人工智能专门监管机构,负责统筹协调人工智能安全监管工作;建立健全跨部门协同监管机制,加强政府内部各部门的协同合作,形成监管合力;建立社会多元共治机制,鼓励行业协会、社会组织、企业等参与人工智能安全治理,着力形成政府、企业、社会组织和公众共同参与的协同共治新局面。

️完善人工智能国际合作交流机制

当前,人工智能在带来巨大机遇的同时,也带来威胁全球稳定的风险,需要国际社会共同合作才能有效应对。在这方面,中国始终坚持在充分尊重各国政策和实践基础上,推动形成具有广泛共识的全球人工智能治理框架和标准规范,并在规则制定、合作机制建设、实践推广等方面持续贡献中国智慧和力量。2023年10月,中国提出《全球人工智能治理倡议》,推动各国协力绘就全球人工智能治理的未来蓝图;同年11月初,中国、美国、英国等28个国家和欧盟签署《布莱切利宣言》,同意通过国际合作,建立人工智能监管制度与方案;中国还积极举办世界人工智能大会、世界互联网大会,促进各国在人工智能等方面开展合作。习近平总书记指出,“要广泛开展人工智能国际合作”“早日形成具有广泛共识的全球治理框架和标准规范”。我们要继续发挥负责任大国作用,积极参与全球人工智能治理框架与标准规范的建立,通过签署国际公约、参与国际组织活动等方式,提升我国在国际人工智能治理中的话语权和影响力;积极与其他国家和地区开展跨国监管合作,共同应对人工智能带来的跨境安全挑战,推动形成统一的国际监管标准和机制。

《光明日报》(2025年05月12日 06版)

[ 责编:丁玉冰]

全部评论