2023年3月18日下午4点,斯坦福上海校友会举办了新一期的斯坦福上海创业讲座,聚焦生成式人工智能领域。讲座在威海路696号WeWork举行,吸引了近200名校友、投资者及创业者的积极参与。WeWork、上海市欧美同学会AI分会和清华大学上海校友会自动化专委会为本次活动的合作单位。
本次讲座中,李俊杰作为主持人与邝子平、俞凯、范凌、范向伟和陈刚五位嘉宾围绕生成式人工智能及其带来的创业投资机会进行了精彩的讨论和分享,并回答了现场观众的提问。
(从左向右,依次为李俊杰、邝子平、俞凯、范凌、范向伟、陈刚)
李俊杰是斯坦福大学的经济学博士和法学博士,现为致维网络副董事长、丽瓦信息执行董事;致维网络连接厂家、经销商和近万家零售门店,旨在打造中国最大的全数字化线下零售网络,在零售产业链的各环节上为产业各方提供信息交流、交易促成和C端营销的服务,推动线下零售产业的数字化转型升级。李博士曾多年在美国和中国一流律师事务所担任合伙人,拥有中国和美国纽约州两地律师执业资格,现为斯坦福上海校友会的副会长,“斯坦福上海创业讲座”系列活动的主办人。
邝子平拥有美国加州大学旧金山分校计算机科学学士、斯坦福大学计算机科学硕士及加州大学伯克利分校MBA,是启明创投的创始主管合伙人;启明创投目前旗下管理11只美元基金和7只人民币基金,已募管理资产总额达94亿美元,已投资超过480家高速成长的创新企业,其中有超过180家分别在美国纽交所、纳斯达克、香港交易所、上交所及深交所等交易所上市或合并退出,有70多家企业成为行业公认的独角兽和超级独角兽。
俞凯是上海交通大学计算机系教授,上海交大苏州人工智能研究院执行院长,思必驰创始人、首席科学家;思必驰是行业领先的对话式人工智能平台型公司,围绕“云+芯”进行布局,面向汽车、家电、消费电子等智能硬件终端和数字政企领域提供软硬件结合的语音及语言交互解决方案。
范凌获哈佛大学博士和普林斯顿大学硕士,是特赞的创始人及CEO,同济大学特聘研究员和博士生导师;特赞致力于构建企业级内容体验数字新基建,为全球品牌提供内容体验的生产、管理、分发、分析的解决方案,服务了200多个领先企业和全球超过5万个内容创作者;特赞的投资方包括淡⻢锡、红杉资本、软银中国、赫斯特、线性资本等国际知名投资机构,是估值超10亿美金的独角兽企业。
范向伟获上海交通大学统计学硕士,是和鲸科技的创始人及CEO,“板哥在写”公众号作者。和鲸社区是国内领先的AI开发者社区(50万数据科学家用户),和鲸科技自主研发的ModelWhale数据科学平台为AI与数据团队提供统一的工作环境与管理环境,服务于国内头部政企(中国气象局、自然资源部)、大学(清华大学、上海交通大学)与科研机构(中科院、国家信息中心)。
陈刚拥有清华大学自动化系学士及硕士学位和斯坦福大学工商管理学硕士,是元钛长青基金的合伙人,主要关注高端制造、人工智能、互联网及企业服务等领域;元钛基金过往投资项目包括舜宇光学、地平线机器人、舜宇智领、光珀智能、瑞声科技、马蜂窝、轻松集团、水滴筹、天臣医疗等。本次活动的通知里有关于嘉宾们更详细的个人介绍。
以下是本次讲座的内容摘要。
李俊杰博士首先指出,近期生成式人工智能和大语言模型引起广泛关注和热议。美国OpenAI公司推出的ChatGPT表现惊艳,短短两个月就达到1亿月活跃用户,三天前还进一步发布了GPT-4。微软宣布旗下产品将全线整合AI工具,而且还是更新的GPT-4;谷歌宣布将推出对话机器人Bard;Facebook母公司Meta发布了大语言模型LLaMA,并宣布向科研界开源。在中国,百度推出了大语言模型“文心一言。比尔盖茨认为ChatGPT这样的AI技术的意义不亚于PC 和互联网,而英伟达创始人黄仁勋则将ChatGPT比作人工智能的iPhone时刻。生成式人工智能的发展有望为创业和投资带来新的方向和机会,我们今天将围绕几位嘉宾所熟悉和深耕的领域进行讨论和分享。
(李俊杰)
技术背景和原理
俞凯:ChatGPT是生成式人工智能,与之相对的是判决式/鉴别式/决策式人工智能,鉴别式AI关注绝对的对错,而生成式AI主要看好坏,因此鉴别式AI对准确率、安全性要求更高。从技术落地的角度看,鉴别式AI更看重特定方向的技术指标,需要针对特定环境问题进行调优,生成式AI的性质决定其更具通用性。
在解决通用性问题上,ChatGPT的技术路径分为以下三步:
1)首先要完成人类进化,构建一个类似人类大脑的、具有强大学习能力的基础模型,通过大量数据进行预训练(pre-training)。预训练模型庞大而复杂,多达1750多亿个参数。不同于之前的人工智能训练需要大量标注数据,预训练使用的方法是自监督。完成预训练之后,模型就具备了像人类一样进化的能力。
2)第二步好比是孩子上学,在一段时间内用几十万条数据对模型进行指示微调(instruction tuning),指示的任务非常繁杂,模型的通用性很大一部分也来源于此。模型在训练过的任务上都能达到比较理想的效果。
3)最后一步是在实践中学习。相比于第二步,这一步最大的特点就是减少了人工,直接通过计算一个函数来判别输出结果是好是坏,这个函数一开始需要人工标注,但是标注数量很小,随后模型可以通过自己对自己的学习,形成一个类似人类价值观的判定函数。
ChatGPT备受追捧主要还是因为它的通用性,在OpenAI列出的基准测试(benchmark tests)任务上,ChatGPT在很多项上同时都有出色的表现。它的通用性决定了它广泛的接受度,但是在决策式AI的专用场景上,ChatGPT这类通用式AI的表现不一定更好,需要结合具体的场景进行判断。
(俞凯)
使用体验
范向伟:ChatGPT的表现令人深感意外。我们所讨论的智力有两种,分别是晶体智力和流体智力。晶体智力是确定性的智力,是指通过掌握社会文化经验而获得的智力,如词汇概念、言语理解、常识等记忆储存信息的能力,一直保持相对稳定;过去计算机提供的智力就是这一种。还有一种智力是流体智力,是一个人生来就能进行智力活动的能力,即学习和解决问题的能力,它依赖于先天的禀赋,随神经系统的成熟而提高。ChatGPT展现出来的智力,更加类似于后者。ChatGPT这样的通用智能在未来将会对劳动力市场的供需关系产生巨大的冲击。GPT-4目前已经达到年薪10万美金的本科毕业生的水平,可以展望在不远的未来,GPT-5将会达到研究生的水平,甚至更高。通用人工智能技术的落地将相当于拥有无限供应的大学毕业生资源,智力原本在劳动力市场上是昂贵的稀缺资源,未来将逐渐变得无限趋近于免费。在此基础上,社会结构和人类世界观都会发生深刻的变革。
(范向伟)
邝子平:我尝试着让ChatGPT自己回答,它自身和之前的AI有什么不同。ChatGPT总结了以下两点:一是ChatGPT比之前的AI模型都更大,有多达1750亿个参数;二是ChatGPT采用了预训练技术,因此无需对模型进行重大修改,它也能适应各种任务。我又问ChatGPT,如果要微调(fine tune)GPT,使其能针对个股做出投资推荐,需要多少数据?GPT回答,最少需要1万个数据,最好有10万个数据。我们可以看到,即使微调需要人工标注数据,所需要的数据量也不是很大。
一些计算机科学业内人士说ChatGPT和先前的统计模型没有什么太大区别,这个观点我不同意。我当年上学的时候也有基于统计学、逻辑学的AI课程,但是从当年的rule based AI, 到后来基于机器学习的AI就是一个巨大的演变,然后到今天的大模型又是一个演变,虽然从最底层的技术原理上看,最新研究成果是过去学术积累的延续,但是科技进步的量变会引起质变。之前我们用的都是几百万参数的模型,现在的大模型拥有1750亿参数,当模型大到如此程度,确实带来本质的提升,这种范式的转变,会带来根本性的变革。
(邝子平)
俞凯:技术层面的量变到质变,是有可以测量的明确阈值(threshold)的。模型在达到十亿到百亿参数规模的时候,会涌现出两种能力:思维链能力(chain of thoughts)和情境学习(in-context learning)能力。思维链能力可以理解为逻辑推理能力,而情境学习是模型具有通用性的核心。之前的人工智能模型后期微调都需要使用监督学习,输入新的数据之后,用梯度反传来更新模型参数,而情境学习不需要参数更新,可以直接用预先训练好的语言模型进行预测。这些新能力都是几十亿参数以上的大模型中才涌现出来的,虽然目前其可解释性有待商榷。
从技术层面来看,多模态的核心是语言,因为语言是所有人类进行沟通的协议。从语言学的角度上来看,我们的分子式、代码、公式也都是特殊形态的语言,但是目前所有的沟通还是以自然语言为核心,ChatGPT与人的沟通也是以自然语言为接口。但未来可能会出现机器和机器之间的沟通语言。很大程度上,人工智能体之间的交流,会成为实践中进化的最主要的途径。参与其中的每个智能体像人类一样,也有自己的价值观,这个过程会形成一个怎样的新机器世界,也是我们很快将会面临的课题。
技术是迟早要飞出笼子的,这并不可怕。可怕的是我们没有准备好和AI共生、共同进化、协同工作。我们应该改变人类使用AI、人类控制AI的旧逻辑,进化到与AI共生的逻辑。我们不应该担心自己被ChatGPT替代,这件事情也不以我们的意志为转移,但是如果我们能进化出和AI共生的能力,事情就有了转机。
范凌:我想从感受体验的角度分享一些我自己的体会。我先问ChatGPT是否知道法国浪漫主义,GPT给了我一个说明文式的标准答案。然后我又让GPT完成了用法国浪漫主义的风格讲解一个德国喜剧、去解读德国二战前后希特勒风格的建立等一系列任务。在这个过程中,GPT完全学会了用浪漫主义的风格取代之前说明文风格进行写作。在我看来这种能力可以取代99%的法国文学博士和纽约时报的大部分艺术评论家。我的一位投资人问GPT,假设你是茨威格,你如此具有生命力,你为什么还要自杀?GPT回答的那一刻,让他真的觉得他是在跟茨威格对话。我想将这种最直观的主观感受描绘给大家,也建议大家去亲自尝试,体会1000亿参数模型的情景学习能力所带来的震撼。
(范凌)
陈刚:在GPT出来之前很长一段时间人们觉得通用人工智能的到来非常遥远,甚至能否到来是一个问号。在使用过ChatGPT之后,感觉像科幻照进了现实。OpenAI为大家证明了一条发展路径及可行性。这就有点像《三体》里,过去只是人类不断向宇宙发射信号,而ChatGPT的出现就好比终于收到了回复。可以预见在不远的未来,大家都会在这个赛道上堆砌资源并实现快速进步。
(陈刚)
创业和投资机会
范凌:这是一个50年一遇的机会。类似于50年前计算机图形学(Computer Graphics)技术带来的机遇,诞生了Adobe、Atari、Pixar这样的伟大的公司。现在创业的机会也是50年一遇,除了开发底层的大模型,还可以从以下三个角度看待通用人工智能的创业机遇:
1)把所有工具都重新开发一遍,类比Adobe利用图形学技术,开发了新一代多媒体制作工具;
2)基于新的技术和工具,把所有内容再重新创作一遍,类比Atari将图形学技术落地,重新定义了电子游戏;
3)从中诞生新的产业,类比计算机图形学中诞生的新的游戏产业和影视产业。
邝子平:从投资机会上看,OpenAI指明了一个大方向。中国的AI水平在国际上来说还不错,但是在这一波创新浪潮中,中国企业的参与度比较低。中国AI企业本来应该有参与的机会,全世界具有相当的AI产业规模和人才储备的的只有美国和中国,中国与现在的OpenAI的差距也许本来是可以更小一些的,但很不幸这没有发生。我相信在未来一段时间里,开发大模型必定是一个非常吸金的投资方向。在大模型的基础上,将会有更多类似移动互联网的基础设施被建设出来,随之也会有很多应用出现。目前市面上已经可以看到一些“短平快”路线的应用,都是基于OpenAI的接口直接嵌套开发的,但是这些应用积累的厚度不太够。还有些公司已经在开发针对某个行业的垂直型大模型AI。我最近关注的方向是在大模型的基础上做垂直领域的AI应用,很多中国企业在某些垂直领域已经积累了不少先发优势,未来可以用大模型替代已有的底层技术,不少AI企业其实已经在往这个方向转型。
范凌:我想和大家讨论一个关于终局的问题:最终会有一个大模型还是多个大模型?终局是开源还是闭源?另外我再讲述一个观点,现在人人都想再做一个OpenAI,那么会不会出现第二个OpenAI呢?类比浏览器市场,网景推出第一款浏览器之后,浏览器市场就不存在了,因为第二个浏览器(IE)是免费的。最令我兴奋的不是大模型,而是像Notion AI,Jasper这样的公司,因为他们有机会代替HubSpot,重新定义下一代的集客营销(inbound marketing),有望创造500亿市值。
俞凯:是不是模型只要大就够了?这是一个误解。万亿级参数的模型之前也有,但是能力远不如ChatGPT。从应用的角度来说,需要的不仅是更大的模型,还要有在各种垂直场景落地的技术。ChatGPT的本质是通用基础语言大模型,而技术路线本身对创业而言,并不是决定性因素,创业必须从商业逻辑出发,去看待技术的商业价值,第一层是大模型作为工具的价值,第二层是解决用户痛点的商业价值。我们现在的痛点是什么?比如有些痛点是因为我们生成效率不够高,而AIGC(人工智能创造的内容)相比于UGC(用户创造的内容)、PGC(专家创造的内容)的生成效率要高到百倍千倍以上,这就给我们创业的带来了可能性。无论这个时代出现什么样的技术,终究要回归到商业逻辑,商业逻辑都要回归到最终的用户体验和用户需求,或者是某种层面的社会需求。
从工具价值的角度思考,因为安全问题,这个世界上一定会有多个大模型。大模型类似芯片和操作系统,开发周期长、通用性强、产业带动力强,从国家安全角度、甚至全人类安全角度,必须要关注大模型的安全性。事实上,没有任何一款通用基础模型能够保证自己是100%安全的。而安全、伦理、隐私的问题都需要在大模型的技术底层打通解决,不可能完全在应用层面解决。大模型的国产化一定会实现。
范向伟:目前还有很多重要的需求远远没有被满足,比如子女的教育、老年人的医疗居家养老等等,所以这是一个适合创业的时代。我曾经向一位知名硅谷投资人寻求创业建议,他说即使我们在硅谷有那么多资源,我们实际上还是在看着后视镜开车。过去所有的创业机会都受制于一个条件,就是找不到人才。很多产品的用户满意度都在50%以下,很多需求没有被满足。在未来,大模型在对话流中可以精准地掌握客户有哪些需求没有被满足,人人都可以成为产品经理。还有很多社会层面的需求,例如有7%的人患有抑郁症,但没有足够的资源去疏导,孩子的教育规划没有专业的人来做,我希望未来能有一个基于语言模型的服务来满足这些重要的需求。
陈刚:从投资机会角度看,我比较关心有新的AI时代(AI2.0)到来之后之后,国内人工智能竞争极度内卷的情况在未来会不会有所缓解?大模型AI如何创造竞争壁垒?举个例子,现在很多公司的员工会花很多时间在会议的PPT制作及美化上,未来这些任务Microsoft Office Copilot都可以完成,甚至可以自动开发网站,这样能产生巨大的价值,而类似这样未来AIGC技术独立创造的价值,可否让国内B端客户花重金买单,还是只是作为Office的一个插件存在,这点还有待观察。
邝子平:未来肯定会出现若干个大模型。出于地缘政治的原因,中国肯定会有自己的大模型。美国目前已经有了几个大模型,比如更注重于安全的大模型。同理,中国有了一个大模型之后,最终也会出现多个大模型。我也非常看好在垂直领域解决实实在在问题的公司,如果他们能拥有新的通用AI的能力,能够与时俱进地去演变,用自建大模型的AI去解决垂直领域的问题,也很有价值。创业公司一个必须回答的问题是你的长期竞争优势在哪里。在这一点上,创业者千万不要听VC的,VC讲不能干的事情反而可能是一个好的方向,因为既然有VC在探讨能不能干,说明这个问题有一定普遍性、值得关注,但是形成优势不容易,因此VC觉得不好投,而如果你有办法做成VC 认为人家做不了的事情,就可能成为你的竞争优势。
对AIGC和SaaS软件服务行业的影响
范凌:之前提到上一波AI企业很多都不盈利,还有很多造车新势力造一辆亏一辆,中国商业生态在 To C方向非常卷,而在To B方向则不仅仅卷,而且客户付费的意愿还很低。如果创业公司调用OpenAI开放API开发产品以服务B端客户,客户会愿意为这样的服务付多少钱?
俞凯:思必驰的经验是把标准化和个性化融合到一起。B端客户的付费意愿很低,AI靠纯SaaS模式盈利比较难,所以我们产品采用了软硬件一体化的方式,此时标准化以及面向个性化的规模化就变得特别重要。AI通用模型的一大优势是其天生的标准化程度,因为内容生成主要看好坏,不是区分严格的对错,因此客户体验上容忍度会更高,通用模型走纯SaaS路线存在天然的优势。另一方面,如果我们分析完整的用户需求,用户不单有生成的需求,也有决策的需求,还有响应速度、安全性、硬件成本等方面的需求。创业公司在这些需求中做出适当的取舍和折衷,才能提高产品的核心竞争力。
范凌:作为SaaS从业者,我发现中国P/S最高几家SaaS公司的人效只有30万~40万人民币一年,而数字化咨询行业(例如 BCG、麦肯锡、埃森哲)的人效能到达100万~300万人民币一年。他们服务的是同样的客户,客户有同样的数字化的需求,SaaS公司还有AI技术赋能的优势,为什么人效差距这么大?
俞凯:我从技术性的角度来回答一下这个问题,项目制的收入和产品制的收入的可规模化能力是不一样的。项目制的收入的扩展性不是那么强,如果SaaS公司的产品部署不是全自动化的,过程中还需要很多人力,某种意义上这也是一种项目制的模式,而不是产品制模式。只有产品制模式才有实现高毛利的可能。这是个必要条件,但也不是充分条件。目前AI商业化面临的问题,也在于通用的人工智能技术如何与客户的个性化需求相匹配,如果这个问题得不到解决,那么毛利就难以提高。
范凌:刚刚提到咨询公司的人效数据是想说明,其实国内企业的付费意愿并不低,只是目前还不愿意为科技公司的产品和服务付费。通用AI工具会不会成为下一个企业愿意为之付费的产品,由此带来一波巨大的To B创业机会?
邝子平:我补充一些数据来说明一下。国内软件的付费方70%是国企央企,30%是民企。目前绝大部分初具规模的SaaS企业都必须为那70%提供服务,其中都必然涉及大量的个性化定制和人力成本去实施现场部署。接下来就看谁能用标准化的服务或产品,满足另外30%客户的需求,这很难,但也不是绝对不可能。
范凌:其实在过去10年内,国内To C能赚钱的互联网公司也不多,电商、游戏、短视频很赚钱,但是很多行业也不赚钱,比如社群运营、长视频等赛道。AIGC和大模型的出现会不会改变这些不赚钱的赛道?
范向伟:过去10年不赚钱的赛道很可能是未来最赚钱的赛道。在过去三年,数字化技术便宜了将近70%。同时,国内的企业也面临着降本增效的巨大压力,企业数字化成为刚需。数字治理程度已经写入国企央企的领导考核手册中,领导层必须要学习和拥抱数字化智能化。中国SaaS之前发展受阻很大的原因是客户不懂,现在已经有了更多的客户可以看懂哪个产品更好,而且给企业数字化的预算在成倍地提高。这些改变都是我们近期才看到的,这些创业机会已经在我们眼前了。
现场观众Q&A
此外,嘉宾们还回答了现场观众所提出的“生成式AI的知识抽象能力和生成能力的边界”和“生成式AI的审核和合规”等问题。
(观众提问环节)
关于生成式AI能力边界的问题,俞凯指出可以从两个方面来分析:
1) 知识抽象能力:
现在的大模型参数多是因为它是一个巨大的黑箱,可以把所有的知识吃到自己的肚子里,然后再高效地把知识总结出来,以及在已有知识上进行逻辑推理。在这方面,国内和国际上都有学者在做知识外化的研究,我们知道人脑的存储是有限的,而书本和网页我都可以看成是外化的资源,当需要的时候再让AI去查,AI查的时候还能确切地告知文献的来源。未来在这样的分解式“外挂”应用层面,也许会出现大一统的模型。
2) 知识生成能力:
首先从技术上探讨一下,知识是否可以被创造出来。什么叫知识?数据、信息、知识某种意义上都可以叫数据,也都可以叫知识,但这几个概念之间其实是有结构化的区别的,具体判定要看是否抽象到了一定的共同结构。在基础通用模型出现之前,科学研究是给出一个问题,然后去寻求最好的答案,或者几个不错的答案。但是通用的人工智能出现之后,我们要探索的可能不再是答案空间,因为AI已经学会了探索答案,我们要探索的是问题空间,思考如何才能提出更好的问题。在技术上,问题空间的探索是要比答案空间大好几个量级的。从知识生成的角度上讲,AI目前还主要是在已有知识结构下去生成答案,本质上是现有知识结构的大规模扩展,目前还没有办法突破现有的结构。
如何才能实现突破?新知识的诞生都来自于和未知的新环境的交互,只有AI物理化之后,才能和未知的环境(包括宇宙、物理世界、信息世界)进行交互,AI就有可能探索原来人类根本没有想过的知识结构,提出全新的知识描述,而这个过程现在也正在变成现实。
目前的通用AI还是基于已知内容的总结和再创作。只有形成系统,才能产生更大的价值,软硬件一体才能拥有探索物理世界的能力。
从创业的角度看,纯软件的产品很难形成100%的系统,而只有形成系统,商业价值才会更大。如果能实现软硬件一体化,比如在大模型下面生成代码,用代码去控制机器,用机器在物理世界进行操作得到反馈,反过来再去训练这个模型,来做出更好的规划,这样AI就具备了探索物理世界的能力了,让我们拭目以待这个方向上的突破吧。
下一期预告
5月27日 | 斯坦福上海创业讲座:智能汽车领域(自动驾驶篇)
经过十多年的发展,我国目前已拥有世界一流的智能汽车产业,也成为了世界最大的智能汽车市场。与此同时,随着人工智能技术的进步,自动驾驶技术在性能和安全性上也在不断提升,得到了越来越广泛的认同和应用。另一方面,对于完全的自动驾驶能否实现、真正实现需要多长时间,即使时至今日、即使在智能汽车产业内也还存在不同的声音。斯坦福大学上海校友会邀请您参加创业讲座,由斯坦福大学校友和业内资深创业者和投资人探讨和分享自动驾驶领域的最新进展、前景和创业投资机会,以及相关创业心得。
本活动不限于斯坦福校友。招商银行上海分行淮海支行是本次活动的场地合作方。
时间:2023年5月27日(星期六)16:00 – 18:00
15:30:签到、自由交流
16:00:讲座开始
嘉宾:Momenta CEO 曹旭东先生,博世中国总裁 陈玉东博士,元钛长青基金合伙人 陈刚先生,嬴彻科技创始人、首席执行官 马喆人先生,蔚来资本管理合伙人 朱岩先生
主持人:致维网络副董事长、丽瓦信息执行董事 李俊杰博士
地点:上海市陆家嘴环路1088号招商银行大厦北塔1楼101大会议厅(近地铁2号线和14号线陆家嘴站)
报名:如有意出席,敬请提前报名。本次活动收费100元。请长按识别二维码通过友付报名支付。
相关内容推荐和下载:
一篇报告读懂ChatGPT的来龙去脉及带来的AIGC变革趋势(附下载)
我们有必要重新梳理人工智能技术的发展演进历程,并从技术演进中寻找人工智能技术的宏观趋势有哪些?ChatGPT的出现将会对人工智能技术带来哪些变革?
腾讯发布 AIGC 发展趋势报告:迎接人工智能的下一个时代(附下载)
AIGC代表着AI技术从感知、理解世界到生成、创造世界的跃迁,报告从技术发展和产业生态、应用趋势、治理挑战等维度,对AIGC的发展趋势进行了深入思考。
传媒、电商、文娱等全面开花 AIGC多元化的未来应用场景知多少
AIGC 已经在多个领域得到广泛应用,如金融、传媒、文娱、电商等,未来应用场景会进一步多元化,场景与场景的融合交互也是未来的发展趋势之一。
一条评论