首页 > 金融

AI大模型“开闭源”论战再起,商业价值决定路线选择丨GAI进化论

2024-04-29 04:23 作者:苏小糖 来源:证券之星   阅读量:8920   

近日,Meta发布了其最新版本的开源大模型Llama 3,引起开源AI社区“地震”。众多业内人士将其称之为“迄今为止功能最强的开源LLM”。

但与技术变革相伴而生的,是又一轮“开源闭源”的争议浪潮。

4月27日,在人工智能行业从业六年,美国最为知名的AI创业者之一的Arsenii Shatokhin在一场采访中直言,企业自己运行开源大模型效率低于闭源,在他公司的客户中只有一两个有足够资源,来精调或运行700亿参数的Llama开源模型。

而与其持有同样观点的还有百度创始人李彦宏,日前他在Create 2024百度AI开发者大会上直言:“开源模型会越来越落后,Llama 3比之前发布的任何开源模型都大得多,对他的客户而言,使用这款开源大模型,反而不如闭源的商业大模型效率高。”

此言一出立刻引起了AI业界的争辩浪潮,“开源忠实信徒”周鸿祎便在公开场合发表观点称,“我是一直相信开源的,至于说网上有些名人胡说八道,你们别被忽悠了,他说开源不如闭源好?连说这话的公司自己都是借助了开源的力量才成长到今天。”

对此,衔远科技COO、创始合伙人王晓波在接受21世纪经济报道记者采访时表示,选择走通用人工智能之路的基座大模型路线核心特点是“赢者通吃”。

“这个行业可能会有很多玩家入局、但最后活下来的可能只有几家。而使用开源大模型路线的公司在业务开展速度方面有着明显优势,但缺点是较易被替代。”王晓波说道。

开源闭源之争

自OpenAI横空出世以来,开源和闭源的选择一直是大模型领域的热点话题,OpenAI的GPT-4模型就是采用闭源模式,微软则开源了WizardLM-2。国内,百川智能、智源都是开源的支持者,通义千问亦有开源,而华为盘古大模型则坚定选择不开源。

纵览众多公司的不同选择,背后的出发点仍然是商业价值的差异。

在李彦宏看来,闭源,是有真正商业模式的,是能够赚到钱的,能够赚到钱才能聚集算力、人才。闭源在成本上反而是有优势的,只要是同等能力,闭源模型的推理成本一定更低,响应速度一定更快。“闭源模型在能力上会持续领先,而不是一时领先;模型开源也不是一个众人拾柴火焰高的情况。这跟传统的软件开源——比如Linux、安卓等很不一样。”

此外,李彦宏提到,无论中美,当前最强的基础模型都是闭源的。通过基础模型降维做出来的模型也是更好的,这使得闭源在成本、效率上更有优势。对于AI创业者来说,核心竞争力本就不应该是模型本身,这太耗资源了,而且需要长时间的坚持才能跑出来。

后来周鸿祎又解释称,“自己说开源好,不是针对李厂长,只是从产业发展的角度来看开源和闭源。”

从长期的视角来看,的确有越来越多的从业者开始警惕使用开源大模型而带来的被替代性风险。

2023年5月,谷歌内部泄露的文件《我们没有护城河,OpenAI也没有》在SemiAnalysis网站上传播,其中的观点包括,比起开源社区需要谷歌,谷歌更需要开源社区等等。文章作者指出,不同开源模型所组成的生态系统永远是OpenAI的潜在竞争对手,与开源AI竞争的结果必然是失败。

创业公司的选择

无论选择哪条路线,对于当前国内AI大模型生态来说,最关键的是寻找到一个合适的落地场景以及商业化路径。

在他看来,市面上有大量模型,大的、小的、开源的、闭源的,在特定应用当中如何使用这些模型的组合是有技巧的,这是创业者可以干的事儿,是可以提供价值增益的。

清华大学电子工程系长聘教授、衔远科技创始人周伯文同样持有类似的观点。

近日,周伯文在MODI摹小仙AI营销大脑发布现场表示,要让人工智能快速落地,实现AGI,需在保持泛化性的基础上解决专业化问题。通专融合的新架构,即交互式持续学习框架。通用大模型与专业小模型协同生成框架,大模型提供高阶推理能力来指导内容框架的生成,专业化小模型进行知识填充与个性化内容生成。

“AGI的通专融合泛化能力不是一个算法,需要系统化的设计和思考,所以我和我的科研团队,我们一起提出来AGI之路多层次依赖的新的架构,这里面会包括基础模型智能,这个基础模型是大模型智能,具有通用到专业能力的迭代。在算法协同上需要完成泛化和专业性的结合,具备专业通用的系统,它通向AGI的必由之路,在场景下能够自主探索、迭代、强化学习,这三层是互相作用的,未来AGI需要具备协同,需要具备交付的一种智能。在三个模型的方法研究下是可以互相互动的,不是一个简单的线性的依存关系,每一层的提升同时也是对其他两层的帮助。”周伯文说道。

与此同时,周伯文表示,在基础模型基础上,需要更多的在通用能力上的数据飞轮,也包括专业能力上的数据增强,包括领域的深层检索,从通用能力到专业基础模型增强,还需要具备多功能专业模型的融合机制,当然也包括快模型和慢模型的展开,还需要学习和交付能力,不同模型和不同专业度上的协同,能够有效检测到一个模型在什么情况下产生幻觉。据他透露,目前,MODI已开放测试申请,预计五月下旬正式上线。

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。

猜您喜欢

图文推荐