疏通人工智能监管体系的堵点

发布时间:2024-06-17 作者:河南省社会科学院经济研究所副研究员 李 斌

  相比来自现实层面的监管诉求,当前的监管体系仍存在若干不足,在一定程度上阻碍了人工智能技术的创新与应用,亟需从监管理念、目标、模式、策略等层面着手,疏通人工智能监管体系存在的堵点,推动我国人工智能产业健康发展。

 

  人工智能作为引领科技革命的战略性技术,在推动产业变革的同时,也带来了诸如数据泄露、技术滥用、伦理规范等方面的风险,如何在促进人工智能技术创新发展的同时,精准高效防控其带来的系列风险,向监管机构在监管理念、机制和策略等层面提出了新的要求。近年来,我国相继出台了《生成式人工智能服务管理办法》《新一代人工智能发展规划》《新一代人工智能治理原则——发展负责任的人工智能》等政策,人工智能监管框架雏形初现,为推动人工智能领域治理能力和治理体系的现代化奠定了坚实的基础。但是相比来自现实层面的监管诉求,当前的监管体系仍存在若干不足,在一定程度上阻碍了人工智能技术的创新与应用,亟需从监管理念、目标、模式、策略等层面着手,疏通人工智能监管体系存在的堵点,推动我国人工智能产业健康发展。

 

  在监管理念层面,坚持双轮驱动 

 

  在人工智能监管理念方面,强化技术突破与监管模式创新之间的协同是确保人工智能健康、有序发展的关键。在我国人工智能治理实践中,目前已出台的系列政策侧重于通过优化治理机制推动监管模式创新,而关于如何应用人工智能技术本身来赋能该产业监管效率提升则缺乏有效的政策工具。实际上,由于人工智能所具备的强大的数据处理和逻辑推理能力,北京、上海、深圳等地纷纷利用人工智能技术在市场监督管理、金融风险治理、智慧城市管理等方面展开探索,有效提升了相关领域治理现代化水平。鉴于此,要将人工智能技术在自身行业监管领域的应用场景建设提升到与监管模式机制创新同等重要的地位,需从监管技术场景创新与模式创新双向发力。一方面,推动人工智能监管技术创新,利用AI技术优化监管流程,研发能够实时监控、识别和评估人工智能应用风险的智能监管工具,实现监管数据的自动收集、分析和预警,为监管人员提供决策支持。另一方面,实施动态分类监管,针对人工智能技术的快速发展,采取动态调整的监管策略,确保监管政策与技术进步保持同步。此外,应加强分类监管,根据人工智能应用的风险等级和特点,实施分类监管,对高风险领域加大监管力度,对低风险领域则采取更加灵活的监管方式。同时,建立技术突破与监管创新的协同机制,成立由技术专家、监管人员和政策制定者组成的专项工作组,负责研究和探索技术突破与监管创新之间的协同路径,共同讨论并制定相应的解决方案。

 

  在监管目标层面,强调平衡治理 

 

  在实践中,我国现有治理框架在“科技向善”原则下,更倾向于从监管视角出发强调人工智能风险的可控性,但是监管的根本目的是促进发展,如果忽视这个前提,则有可能遏制技术创新。因此,如何平衡人工智能领域技术创新与风险防控是监管体系建设的关键。相比之下,英国人工智能监管侧重于构建“支持创新的监管体系”,例如,2023年发布了《促进创新的人工智能监管方法》白皮书,旨在寻求建立社会共识,加深公众对尖端技术的信任,并为企业创造更好的创新和发展环境。鉴于此,应突出平衡治理理念,更好协调发展与治理的关系,推动人工智能领域“防风险、促创新”之间的平衡,进而推动人工智能在安全可靠可控的前提下,更好服务社会经济发展。一方面,按照“既能鼓励技术创新,又能限制潜在的风险”的原则,进一步建立健全法律法规体系,明确人工智能技术的研发、应用、数据收集和处理等方面的规范和标准。另一方面,技术创新上,进一步优化人工智能技术创新和应用生态体系,鼓励和支持企业、高校和研究机构加大研发投入,优化应用场景,加强知识产权保护,激发创新活力,为技术创新提供有力保障,推动人工智能技术的创新和产业化发展。同时,强化人工智能风险防控,建立风险评估机制,对人工智能技术的潜在风险进行定期评估和分析,针对可能存在的安全风险、数据泄露风险等问题,制定相应的防控措施和应急预案。

 

  在监管模式层面,强化多元参与 

 

  当前,我国人工智能监管主体部门涉及国家市场监督管理总局、国家互联网信息办公室、工业和信息化部、科技部等,呈现出以政府行政监管为主的鲜明特征。从提升监管治理效能角度看,由于龙头企业作为人工智能技术创新引领者,掌握了该产业相关基础信息,将其纳入治理过程会极大地提高治理的效率。同时,公开的法院裁决等司法机制可以让公众更好地知晓某种行为的不法性,有利于更好地重塑人工智能治理的价值目标。因此,司法审查、企业自治在监管体系中的作用也相当重要。鉴于此,针对目前人工智能领域监管主体单一的问题,应突出治理主体多元化,在明确监管目标和原则、建立多层次的监管体系、推动监管技术创新与应用的基础上,构建政府、司法、企业、科研机构、社会组织等多元主体共同参与的治理机制,形成“行政监管-司法审查-企业自治-社会监督”四位一体的治理框架,发挥不同主体的优势和特长,政府应发挥主导作用,制定监管规则和标准,司法部门应加大执法力度,企业应注重自我约束,行业组织应推动制定行业自律规范,科研机构应注重技术创新和标准制定,公众和媒体应积极参与监督,各主体之间应建立有效的沟通与合作机制,共同制定监管策略、分享监管信息、协同开展监管活动,通过各主体之间的协同合作,营造全社会共同参与的监管氛围,形成多元化、全方位的监管格局,促进人工智能健康发展。  

 

  在监管策略层面,突出治理透明 

 

  人工智能领域监管规则的透明度与可追溯性对于确保技术的合规性、安全性和公众的信任至关重要。当前,我国在治理规范设置方面,存在相关规范规定过于笼统的问题,例如《生成式人工智能服务管理暂行办法》第4条规定:“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。”但是由于大模型本身具有“黑盒”特点,而且用于大模型训练的数据可能并不总是完整的,通过何种方法实现何种水平的透明度和可靠性,很难进行界定,在给具体监管实践带来困惑的同时,也会导致企业获取相关数据需遵循的知情同意原则与人工智能创新效率之间矛盾凸显。鉴于此,应突出透明治理的原则,一方面,建立公开透明的监管机制,政策制定过程应公开,内容应明确具体,政策发布应及时,方便公众获取相关信息,提高监管规则的透明度。另一方面,实施可追溯的监管流程,构建监管日志系统,记录监管过程中的重要事件和决策,包括监管检查、风险评估、处罚措施等,并可供公众查询。同时,推行责任追究制度,明确监管责任主体和职责范围,对监管不力或失职行为进行追责。

 

  在监管范围层面,加强国际合作 

 

  应对人工智能监管挑战,是全球面对的共同问题。但目前,欧美在全球人工智能全球治理领域仍拥有绝对主导权,鉴于此,我国应充分发挥人工智能技术及市场规模优势,从维护国家在人工智能领域主权与安全出发,积极融入国际监管合作,在建立全球人工智能技术标准、监管准则、治理机制中提供“中国方案”,贡献“中国智慧”。同时,坚决抵制少数国家对人工智能领域的强权霸道逻辑,创新多边监管协调机制,突出强调与全球所有国家的协同治理合作,推动全球人工智能共治共享。

 

              《社会科学报》总第1907期3版

    如需转载,请注明出处!否则保留追究的权利