郑海清:今年将是大模型应用爆发年腾讯大模型会坚持“长期主义”

2024-02-01 00:00:00 证券时报 

证券时报记者 王小伟

“百模大战”中,腾讯大模型颇具独特性。它的技术底座是一系列的行业大模型,客户只要加入自己的场景数据,就可以生成契合自身业务需要的专属模型。产品能力方面,它依托腾讯云TI平台构建行业精调解决方案;产品应用方面,在腾讯会议多款头部SaaS产品中应用;落地方面,智能客服、OCR、跨模态检索等都有实践。

腾讯云工业AI解决方案总经理郑海清认为,能够对企业产生长期价值的,应该是行业化的、专有的模型。“2024年一定是大模型应用爆发的一年,我们的方向是更清晰的,腾讯将坚持长期主义,一定要去进行规模化的复制。”

证券时报记者:腾讯云服务是一个很多年的业务,2023年是大模型落地的第一年,这给云服务业务带来哪些新的发展机遇?

郑海清:ChatGPT问世之后,搜索量出乎很多人的意料,对腾讯云来讲,这是一个百年不遇的机会。

第一,从大型跨国企业、央国企,到一些初创企业、中小规模企业,都非常急迫地想知道,大模型能够为他们带来什么样的变化,对大模型都有非常大的期待。他们更希望能够从云计算公司、从腾讯这样的互联网公司知道,该怎么样利用大模型、怎么样利用AI,能够更快速地跟他的业务产生关联,这对我们这些做平台公司而言,相当于打开了一扇门。

第二,我们有一系列的应用,比如腾讯会议,实现了用大模型去赋能。这表明,对云计算公司而言,可以把我们原来规划的一些AI的能力、大模型能力,跟这些企业的应用做更多的结合。

第三,大模型背后有算力、有存储,有对于高速网络的需求。这也为云计算在传统行业内的普及和推广起到了加速作用。

证券时报记者:腾讯在2023年6月发布了大模型,它的特点、优势是什么?

郑海清:去年发布行业大模型时,很多客户问:腾讯的通用大模型还没有发布,为什么会先发布行业大模型?这背后是我们在做大模型或者做人工智能的时候的一贯思路。

我们认为,能够对企业产生长期价值的,应该是行业化的、专有的模型。相对于万金油、门门通那种“通才”,大部分的企业是依赖于领域内的专家、专业人士这一类的“专才”来帮他们提供推动产品的创新、研发的创新。行业大模型就是我们认为的这一类的“专才”。所以我们在一开始就坚持行业大模型加MaaS(模型即服务)服务,去做差异化。我们看中的,是怎么样结合企业内部的数据,结合企业行业领域知识,把一个模型能够跟某一个行业、某一个企业自身的业务形态、业务流程,做到紧密地耦合,帮助企业构建他们专属的模型应用,实现提质增效。

第二,现在大部分企业在做AI、做大模型的时候,有着严重的“算力焦虑”,或者围绕大模型的整个一套AI架构,看作是一整套的方案去进行优化的。所以我们有几块核心的技术。我们对于在大模型当中所应用到的高速网络,推出了星脉网络产品,它能够把整个的带宽做到3.25 TB,把整个GPU的使用效率提升40%左右,而对于未来运营大模型,也能够把整个的网络成本降到30%—60%。

第三,我们行业化大模型产品,除了帮助企业构建基于混合云的一套大模型技术架构,最重要的是怎么样把大模型的服务的能力提供给客户,客户要能够把它用起来。所以我们推出了基于TI平台的一整套全新的大模型工具链,企业数据提取、标注,模型的精调,都能够做到接近于零代码。

证券时报记者:发布至今,腾讯大模型产品取得哪些进展?在推广中有哪些比较典型的案例?

郑海清:我们做了一些比较有意思的尝试。第一个是电气行业的客户,电气柜柜体设计时,原来有大量的线下图纸,需要很多的设计工程师,把电路图、电路板,包括里面的铜板、开关,都要重新做一些设计。我们基于大模型,对此做了抽象化,帮助这些设计师能够更快地完成设计,整个设计的效率提升了大概30%—40%。

第二个场景是国内的一家头部的航空航天企业,利用大模型解决在飞机研发过程中结构仿真的问题。原来的结构仿真利用软件、利用算子去做一些数学或者是物理的模型把结果算出来,需要非常多的算力去计算;现在把计算过程省略掉,用大模型把这个结果给预测出来。我们现在做了一些小规模的测试,至少有一到两个量级的提升。

第三是腾讯云AI的团队比较擅长的工业质检领域。一类项目在冷启动的时候,传统上可能需要上千张的图片来做样本去训练,需要告诉AI,有哪些种类的不良。现在通过大模型,它有很强的学习能力和泛化能力,可以把上千张不良样本的需求,能够降到大概十几、几十张,这使我们整个AI项目冷启动大大提速。

第四类,在汽车、出行等行业,常用的传统的客服机器人场景。提供一个AI大模型,帮助企业内部人事服务、售后工程师,面向客户的一些问题的查询去赋能。

证券时报记者:腾讯大模型落地了非常多的场景。项目落地的过程中,您感受到客户最关心什么?

郑海清:第一是安全。我们大模型在企业应用的时候,需要投喂很多企业自己的一些数据和语料,有一些他们自己的核心竞争力的数据。我们在这个过程中,一方面能够帮助企业把一些敏感词汇过滤掉,另一方面在整个架构上允许数据在本地,模型在公有云、也可以在线下,来解决企业在数据安全上的顾虑。

第二,企业不需要一个“胡说八道”的大模型,而是要有一个精准性的答案。我们通过基于TI平台的工具链,确保企业可以在我们提供给他的模型基础之上,以一个低门槛的方式,去进行模型的再训练和精调。我们还会在一开始的时候,有一个陪跑的过程。

第三,关注成本。我们聚焦架构优化,帮助企业以更少的算力去帮助企业能够跑出一个基本的模型,使大模型的算力需求跟目前市面上通用大模型相比,能够降到30%左右。同时,还通过像QGPU的方式,通过腾讯的星脉网络,能够让已有的资源的使用效率达到最大的提升。以星脉网络为例,可以使整个通信的成本下降40%—60%。

证券时报记者:很多人认为今年是大模型落地应用的元年,腾讯云是怎么研判大模型的市场演进的?

郑海清:2024年大概率是大模型应用爆发的一年。我们还在做一些准备工作,包括一些基础模型的迭代,包括模型本身的调整和适配,也涉及一些场景的探索。我们2024年的方向是更清晰的。

首先,围绕服务机器人,结合不同的企业的数据做优化,做到企业拥有自己的AI机器人,让企业每一个研发人员、营销人员,都有自己的AI助手。

第二,腾讯把AI的能力、把大模型能力,以API的方式输出,现在有很多的合作伙伴,会把腾讯大模型的API植入到它的应用里去,围绕一些营销的SaaS应用、巡检的SaaS应用等。这会带来一些SaaS软件的重构。我觉得这一定是未来非常关键的应用场景。包括我们周围的生态,也会在这里头作为重点发展的方向。

证券时报记者:腾讯2024年对大模型的发展目标是什么?

郑海清: 腾讯坚持长期主义,即我们一定要去进行规模化的应用。这是首要目标。

第二,我们的核心目标是怎么样让企业能够用得好、用得便宜,所以我们还会围绕GPU的调度、能力的优化、大模型轻量化等,做得更好。

第三,把周围大模型生态构建好。

(责任编辑:刘畅 )
看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读