2024 大模型新“四化”加速 迎接政策助力生成式AI创新

《办法》的出台,在释放出促进生成式AI技术发展明确信号的同时,还明晰了生成式AI技术发展路径和方向,引导企业在划定的范围加速开展技术创新和应用。

2024 大模型新“四化”加速 迎接政策助力生成式AI创新
出处:德勤

随着人工智能的快速发展,大模型正快速的扩展到各种应用场景。在自然语言处理、计算机视觉等领域,大模型已经取得了重大突破,为各行各业的智能转型提供了强有力的支持;然而,大模型也面临一些挑战,尤其是数据安全和隐私问题。

为了应对生成式AI产业的发展与变化,我国也迅速出台相关监管规定,如《互联网信息服务深度合成管理规定》、《生成式AI服务管理暂行办法》等,加强精细化治理与监管,逐步建立健全监督体系。在2023年7月,我国网信办联合有关部门发布了《生成式AI服务管理暂行办法》(办法),自8月15日起施行。《办法》将“促进生成式AI健康发展和规范应用”作为治理的第一视角。

放眼海外,各国都在基于既有的人工治理框架、制度与规范,设计针对生成式AI的治理方案。欧盟基于2018年起的适用的《通用数据保护条例》(GDPR)和即将出台的《欧盟人工智能法案》(AIA)助力生成式AI产业有序发展。与《欧盟人工智能法案》(AIA)以风险预防和责任追究为重心的立法不同,《办法》将生成式AI的创新与发展置于重要地位,鼓励探索生成式AI的应用与发展。

图:《欧盟人工智能法案》与《生成式AI服务管理暂行办法》区别

维度 欧盟 中国
监管思路 风险分级 包容审慎和分级分类
适用范围 包括属人、属地和实质多个管辖标准(域外适用) 中国境内
数据管理和隐私保护 与《通用数据保护条例》(GDPR)保持一致,强调个人信息合法性说明 基于网络安全法、数据安全法、个人信息保护法对生成式AI进行针对性设计,强调个人信息合法性及知识产权
责任主体 AI价值链上的多个参与主体 GAI服务提供者

最新出台的《办法》内容主要体现在以下几个方面:

  • 第一,监管范围主要针对利用AIGC向中国境内公众提供生成文本、图片、音频等内容(生成式AI服务)的服务商。
  • 第二,立足于生成式AI基础技术创新(如算法、芯片及配套软件平台)、多方行业参与者(如企业、教育和科研机构)协作、以及国际交流与合作(如参与生成式AI国际规则制定)等维度,促进技术发展。
  • 第三,生成式AI服务治理主要聚焦使用具有合法来源的数据和基础模型,尤其是涉及知识产权,个人信息的数据。持续关注《网络安全法》、《数据安全法》、《个人信息保护法》等法律、行政法规和有关主管部门的相关监管要求。
  • 第四,生成式AI提供者、服务者需遵守服务规范,其中提供者应依法承担网络信息内容生产者责任,涉及个人信息的,还需承担个人信息处理者责任。
  • 第五,明确国家网信办、发改委、教育部、科技部、工业和信息化部、公安部、国家广电总局等部门参与生成式AI服务监管。

当前《办法》尚未对分类分级监管形成具体实施方案,但随着中国式人工智能相关技术和应用逐渐成熟,将逐步形成分行业、分场景、分应用的差异化监管模式。

《办法》的出台,充分协调了发展与安全之间的关系,在释放出促进生成式AI技术发展明确信号的同时,还明晰了生成式AI技术发展路径和方向,引导企业在划定的范围加速开展技术创新和应用。展望2024年,我们预计生成式AI行业呈现以下四个发展趋势:

  1. 政策更倾向于发展一侧,行业企业迎来更为包容的创新环境。《办法》中重点突出了AIGC服务应用层的信息内容安全,对模型及其相关技术作为基础设施的功能研发活动保留了一定试错空间,行业企业可联合各科研机构,继续投入开发生成式大模型,探索生成式AI在多领域的应用。
  2. 行业企业重心逐步向基础技术自主创新、多领域应用场景等转移。行业企业应着重对生成式AI算法、框架、芯片及配套软件平台等基础技术实现自主创新模式。同时围绕自身优势构建行业大模型能力,满足差异化大模型服务需求,可重点从ToB端切入行业大模型领域,助力政企行业客户提质增效。
  3. 生成式AI产业生态体系正在进一步完善。在生态领域,《办法》特别提到支持构建产学研相结合的大模型生态,使各方参与主体积极参与到大模型领域国家标准、行业标准制定,协同参与制定相关国际标准。
  4. 公共训练数据适度开放,引导行业企业开展更多相关数据训练活动。《办法》中涉及扩大训练数据范围,以及推动生成式AI公共训练数据资源平台建设等内容,打消了提供者对使用训练数据的顾虑,将进一步赋能算力基础设施等领域,提供大规模智算和大模型开发平台服务,进而提升算力资源利用效能。

生成式AI技术尚在发展中,目前仍处于起步阶段。由于其技术模型在研发、使用、优化等过程中涉及数据提供方、开发者、服务提供者、使用者等不同主体,因此生成式AI的健康发展需要多方参与建设。

当前我国已逐步对生成式AI应用划定发展“红线”,企业在未来应聚焦《办法》中的重要事项,并采取措施开展有效风险管理。

  • 建立全面的生成式AI管理体系。在大模型研发、生产和应用过程中,对生成式内容主动进行合理标记并在模型训练、提供服务等环节进行合规管理。
  • 强化模型训练和数据安全。企业在进行模型训练和应用时,确保训练数据的合规性和安全性,保障数据来源合法性,尤其需要强化对外部数据提供方的审查和管控。对数据流转情况,按规定履行评估申报、合同备案义务;同时提升训练数据多样性,避免从单一范围训练数据。
  • 建立算法安全监测、漏洞报告制度。通过一系列工具链对AIGC算法建立持续的安全监控和漏洞报告,提高对异常数据或行为的识别能力,及时响应用户反馈,并配合监管机构的合规监督检查,防止人工智能算法产生歧视、侵权、不正当竞争等行为。

对企业来说,私有数据具有极高价值,因此,采用私有化AI部署的需求潜力巨大。企业倾向于采用私有化方式部署大模型,以解决数据安全和隐私问题。通过私有化部署,企业可以将其数据用于大模型训练,从而确保数据的安全和隐私。未来中国大模型私有化市场将呈现以下主要趋势:

1. 私有云成AI大模型算力主流。

在进行大规模、连续的AI训练时,私有云比公有云具有更高的效率和更低的成本等优势;因此,现在有越来越多的企业开始倾向于使用私有云。此外,由于Al训练需要处理大量高度敏感的内部数据,私有云具有高度安全性,使其成为更适合的解决方案。

2. 私有化AI部署将更广泛的在各行业中铺开。

大模型的企业用户行业分布比较广泛,目前来看,能源以及金融行业私有化大模型部署的占比较高。一方面,这些行业的的数据基础设施较为完备;此外,业内大型企业数量较多,能够支撑私有化部署资金。随着AI应用普及,预计未来私有化AI会在更多行业中展开, 包括零售、医疗保健、制造业、公共服务领域等。

3. 新型数据技术(如:向量数据库)以契合私有大模型数据量大而多样的需求。

过去AI模型训练的数据量较小、数据类型较单一的场景下;而如今训练数据量已经发生量级变化,且行业、企业所拥有数据各有不同;在此背景下,向量数据库等新技术的应用将变的更广泛,未来将成为智能化数据调度平台的中枢。例如,腾讯云已经全面升级向量数据库多项核心性能,最高支持千亿级向量规模和500万QPS峰值能力。

4. 国内私有大模型技术的发展使得未来选择更为丰富。

不同于国外大部分企业可能会直接选择OpenAI, 国内大模型的选择会更为多样。虽然国内大模型虽起步较晚,但随着国内大模型技术的加速发展,以及训练量的累积,国内头部大模型厂家已经缩小与国外大模型的差距。2023年,国内已有11家大模型通过了《生成式AI服务管理暂行办法》备案,首批国产大模型将获批上线,这将进一步推动大模型私有化部署的商业模式发展。

5. 行业经验将成为大模型私有化解决方案厂商的核心能力。

除了通用大模型开发以外,国内企业也开始在其通用大模型的基础上,基于各行业的行业特征,帮助行业客户定制、训练私有大模型。由于各行业的数据体量、数据类型、业务模式各有不同,未来AI大模型厂家将更专注行业专业数据和行业经验的积累,未来大模式的竞争主要聚焦在场景应用,而私有化、垂直化、企业化、个人化的专有大模型、深度定制的解决方案将成为企业的发展重点。

本文摘编自德勤发布的《2024科技、传媒和电信行业预测》,原文作者:钟昀泰。