今年以来,多个国家和地区纷纷致力于人工智能治理框架的构建与迭代。其中,3月14日,欧盟在法国斯特拉斯堡正式通过了全球首个全面的人工智能法律框架——《人工智能法案》,这一举措标志着人工智能领域法规制定的里程碑。面对大模型应用的迅猛增长,欧盟理事会连续三次对通用型人工智能模型提出了多项更新的合规要求。5月7日,中法两国基于《中法联合声明》进一步发布了《中法关于人工智能和全球治理的联合声明》,这份声明涵盖了“智能向善”的宗旨、加强国际合作、缩小数字鸿沟以及提升发展中国家的人工智能能力等十点共识。这些共识不仅体现了两国在人工智能领域的共同愿景,也为全球人工智能治理提供了重要参考。自ChatGPT等生成式人工智能技术出现以来,新兴技术在算力设施、算法模型以及功能应用等方面均取得了显著进步。然而,这一进步也凸显了传统人工智能治理框架的局限性。面对这些挑战,全球各治理主体积极寻求治理理念的革新和治理路径的创新,为新时期新兴数字技术的治理提供了宝贵经验。
生成式人工智能发展之“快”
纵观ChatGPT问世至今的一年半时间,生成式人工智能技术已取得了质的飞跃。这一“快”不仅体现在技术进步的速度上,更体现在其广泛而深远的影响上,为各行各业带来了前所未有的变革。
在算力基础方面,今年6月2日,英伟达展示的最新量产芯片Blackwell引人注目,其集成了高达2080亿颗晶体管,并采用了统一内存架构与双芯配置。这一创新使得训练算力飙升至惊人的20000TFLOPS,相较于第一代AI芯片的19TFLOPS,实现了高达1000倍的显著提升。市场分析预测,2024年AI芯片的市场规模将超过650亿美元,并且会有更多定制化芯片部署需求。我国亦在算力基础设施方面积极布局,根据《算力基础设施高质量发展行动计划》,预计到2025年,智能算力将占据35%的比重,而重点行业核心数据、重要数据的灾备覆盖率将达到100%,展现了我国在算力发展上的坚定决心和前瞻布局。 在模型算法方面,OpenAI于5月14日推出的全新旗舰模型GPT-4o备受瞩目。这里的“o”寓意着“omni”,即全能,它不仅能够处理传统的文本或语音模式,还擅长多任务处理,接受多模态任意组合输入,并能实时输出图文、音像等多种形式的内容。国内学界与业界在模型技术方面同样取得了实质性突破。商汤科技发布的“日日新SenseNova5.0”、阿里云推出的“通义千问2.5”,以及字节跳动发布的“豆包大模型”,都在语言、知识、推理、代码等方面有显著提升,标志着我国在大模型技术研发方面正迈向国际先进行列。 在功能表现上,生成式人工智能在图文、代码生成、音视频创作、科学研究等方面均获得了重大的能力提升。例如,OpenAI今年2月发布的Sora能够生成长达一分钟的高清视频,不仅远超先前的生成模型,而且生成的视频细节丰富且可编辑,为行业树立了新的标杆。此外,基于国产大模型打造的“Kimi智能助手”在迭代升级后,成为全球首个支持输入200万汉字的大模型应用,展现了国产技术的强大实力。 在行业应用上,生成式人工智能的应用逐步扩散至不同行业,在生物医药、法律、金融、制造、教育和娱乐等行业,真正实现了针对用户诉求的定制解决方案。例如,美国初创公司哈维为英国安理律师事务所提供的生成式人工智能服务,不仅协助实现法律文件的起草和客户案例研究自动化,并针对不同律师事务所和不同案例开发定制分析系统,极大地提高了工作效率。当前,越来越多的企业正积极运用生成式人工智能模型,以助力组织提高生产效率、优化工作流程,进而实现改进用户体验的目标。
传统人工智能治理模式之“难”
生成式人工智能蕴含的通用性、动态性、涌现性等技术特性,势必会对传统治理模式带来相应挑战。
一是硬性监管难。一方面,传统硬性监管主要以风险事前规避为技术进路,通过制定法律法规为监管部门提供执法依据。虽然硬性监管为人工智能的设计、开发、部署和使用明确划定了“发展红线”与“合规底线”,但却无法平衡安全与效率。硬性监管的机械性和片面性,在一定程度上限制了生成式人工智能的创新和应用,这使得关注新兴技术发展与变革为初衷的科技初创企业在产品开发和业务运营之初往往较难承担繁重的监管合规义务,以事前治理为导向的硬性监管措施或一定程度上阻碍人工智能初创公司的技术创新能力和市场竞争力。另一方面,硬性监管政策难以应对生成式人工智能快速迭代的技术创新,依照摩尔定律判断,科技更新换代速度平均为1.5年,而GPT1到GPT4.5共用时5年,已完成六次迭代,但生成式人工智能迭代更快而且仍在加速,硬性法律法规出台速度与技术发展很难实现同步。 二是分散治理难。面向多元治理主体,分散治理的特点强调独立自主、各司其职;面向单一治理主体,分散治理主张针对独立对象和场景专门化地制定措施。对前者而言,传统人工智能模式聚焦实现特定功能,有着数据需求小、通用能力差、相应治理未完全突破部门和地区边界等特点,运用分散治理有利于权责溯源。对后者而言,分散治理面向生成式人工智能,一方面难以回应模型治理需求,另一方面无法处理整体性风险和发展失衡。由于生成式人工智能汇聚算法、数据和信息,同时其预训练、指令微调、对齐和专门化的模型炼制路线环环相扣,场景拓展能力也持续增强,因此分散治理将无法避免地踏入“注意力失焦”的困境。一年以来,生成式人工智能已跨越式地将全球利益相关方拉入同一个治理框架,在应对算法歧视、人权保护、发展失衡、制度非中性等整体性风险和问题上,早已超越了分散治理的单边行动。
生成式人工智能治理路径之“新”
近一年来,全球主要经济体和国际组织在传统治理手段的基础上,对生成式人工智能的治理策略进行了积极创新。
首先,从硬性监管逐步过渡至包容审慎,不同于命令型控制型的硬性监管,包容审慎监管旨在追求效率与安全的动态平衡,要求治理主体给予数字经济新业态必要的发展时间与试错空间,并根据公共风险大小进行适时适度干预。在我国,这一趋势尤为明显。我国的《生成式人工智能服务管理暂行办法》明确提出对生成式人工智能服务实行包容审慎监管,旨在激发创新活力与确保行业健康发展的平衡。欧盟的《人工智能法案》同样强调以人为本的理念,在促进人工智能发展与创新的同时构建监管体系。英国不希望繁重的合规义务打击企业的创新意愿,没有专门针对人工智能立法,而主要通过发布指南等非监管措施为企业提供指导,主张建立“支持创新”“合比例”的监管框架,以期为投资者、企业和公众提供信心。除此之外,英国还采用了创新性政策工具“监管沙盒”来最大限度降低监管对创新的阻碍,通过划定适用范围、明确豁免规则、限定适用时间等措施使企业无需担心创新与监管规则发生矛盾时可能遭遇的监管障碍或承担不必要的监管负担。 其次,治理策略从分散治理向整体治理转变。整体性治理旨在解决治理碎片化和分散化造成的复杂和效率低下的问题,主张用整合、协同和网络化的理念回应,以提高治理的效率和效果。一方面,生成式人工智能治理本质为模型治理,需要依据模型类别和产业结构构建分层级的治理体系。以欧盟《人工智能法案》为例,该法案采取了基于风险将生成式人工智能以系统为单位纳入监管范围,包括了四个风险级别:不可接受的风险、高风险、有限风险和极低风险,每个风险级别都有相应的应用场景和监管措施,同时法案允许监管机构不断将新的应用领域纳入现有的风险级别,兼具了确定性与灵活性。另一方面,随着生成式人工智能在全球社会生活中的渗透,参与治理的主体更为多元,生成式人工智能治理成为全球治理的重要议题。比如,针对技术霸权和发展失衡问题,《全球人工智能治理倡议》中提到,面向他国提供人工智能产品和服务时,应尊重他国主权,严格遵守他国法律;《布莱切利宣言》指出,应帮助发展中国家加强人工智能能力建设,发挥人工智能的有利作用,支持可持续增长和缩小发展差距。
|