微信号
15618884964
与传统的分析型人工智能相比,生成式人工智能实现了人工智能从感知世界到生成创造世界的跃迁,推动人工智能迎来新时代。正如我国科技部高新技术司司长陈家昌所表示的,ChatGPT是一种现象级的应用,其表现出了很高的人机交互水平,展现出自然语言大模型已经具备了面向通用人工智能的一些特征。与OpenAI相比,我国科技企业在芯片、算力等硬件方面受限,工程师人才红利逐步递减,融资频次与体量也与国外企业存在一定差距。但在全球人工智能竞争激烈的格局之下,我国仍应全力开发自研类的大型自然语言处理模型。原因在于ChatGPT中文基准的模型性能不佳,可能在应用层面出现不良价值观引导和干扰社会舆论和社会秩序的风险。同时,当ChatGPT实现大规模商业化落地之时,如果与国外的大模型代差过大且不得不用之时,若基础底座模型若受制于人,势必在产业智能化升级和现代化进程上受到不利影响。因此,当国内科技企业投身于生成式人工智能开发浪潮,积极布局并投入大量资源之时,应秉持创新与治理双轮驱动的理念,积极探索与之适配的治理框架具有重要的理论与实践意义。
就此次《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》),对外经贸大学法学院副教授张欣,对其中有关主体责任和内容真实义务进行评析。
《征求意见稿》第五条规定:“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务”。对外经贸大学法学院副教授张欣认为,此条规定可能未完全反映AIGC产业链的运行特性,值得进一步商榷。生成式人工智能依托大模型研发而成,具有能力泛化、技术融合、应用支撑三大属性。能力上,大模型通过预训练方式摆脱了传统人工智能研发“作坊式”的束缚;技术融合方面,大模型可以通过“端对端”的联合训练调优集成多项技术;应用层面,大模型成为了人工智能产业链的基础设施和底座,有效支持中下游产品的落地。这一运行模式打破了人工智能1.0时代研发、部署、运营主体清晰界分的格局。在生成式人工智能的产业链上,将出现开发者、部署者、专业用户、个体用户、接受者以及第三方服务提供商等多个主体。由于该产业链具有云上协同部署、终端微调对接的特性,可能出现真正研发模型、对于模型安全具有终局影响力的主体可能并未与应用层的用户发生交互。而在每一个具体场景中与用户紧密互动的服务提供者对上游大模型却不具有终局的技术影响力。鉴此,可以看到近期英国信息专员办公室提出,使用个人数据开发生成式人工智能的主体应履行数据控制者的数据保护义务,如果是正在使用或者微调他人开发模型并部署于特定领域的主体则可能同样具有“数据控制者、联合控制者(co-controller)或者处理者”地位。也因AIGC的产业链特性,欧盟《人工智能法案》近期的折衷草案(compromise)中区分了提供商、使用者、经营者、分销商、进口商、部署者以及其他第三方等多类主体。因此,建议结合生成式人工智能的生命周期、技术研发特性和产业链特点,制定更为公平精准的主体责任矩阵,不宜笼统地界定提供者的范围并要求其承担产品生成内容的生产者责任。
此外,《生成式人工智能服务管理办法(征求意见稿)》第四条第四款规定“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息”。第十五条规定,“对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。” 对外经贸大学法学院副教授张欣认为,此条规定可能超出了目前生成式人工智能的技术水平。首先,生成式人工智能基于大量文本训练而成,这些文本多来源于网络和书籍,虽包含丰富的信息但并非全部真实和准确,因此模型可能学习了错误的知识和观点,导致其生成不具有可靠性的内容。其次,由于深度神经网络模型仍然未能解决“灾难性遗忘”的问题,目前无法对训练数据开展大规模的实时更新。这意味着在某一训练节点后的所有信息和新知识不在模型训练范围内,其内容生成的可靠性存在内生性的技术局限。再次,以ChatGPT为代表的生成式人工智能是基于概率生成的模型,因而其生成输出的内容具有随机性。虽然目前存在一些技术改进这一问题,例如优化训练数据、用户反馈错误内容、结合专家知识以及接入搜索引擎进行生成时的事实核查等方式,但是仍然无法在生成阶段有效阻止其生成不真实或者不准确的内容。因此,建议此条改为引导鼓励性条款,将“防止生成虚假信息”的要求调整为积极采取措施对生成的信息进行真实性审核。
微信号
15618884964