(图片来源:钛媒体App编辑摄)
(资料图)
6月3日消息,钛媒体App近日从华为独家获悉,华为将发布一款直接对标ChatGPT的多模态千亿级大型模型产品,名为“盘古聊天”。
华为盘古聊天预计将在今年7月7日举行的华为云开发者大会(HDC.Cloud 2023)上对外发布并进行内部测试。该产品主要针对To B/G政企客户。
这意味着,在国内大规模的模型军备竞赛中,继阿里巴巴、百度之后,又一重要科技巨头入局。基于华为的技术能力,盘古聊天有望成为国内技术能力最强的ChatGPT产品,华为生态产业链企业也将从中受益。
据悉,盘古大模型项目于2020年11月在华为云内部成功立项。对于盘古大模型的定位,华为内部团队确立了最关键的三个核心设计原则:第一,模型要大,能吸纳海量数据;其次,网络结构必须强大,才能真正发挥出模型的性能;第三,必须具有优秀的泛化能力,能够真正应用于各行各业的工作场景。
2021年4月,盘古大模型正式对外发布。其中,盘古NLP大模型是中国首个预训练1亿参数的大模型,CV大模型首次达到30亿参数。 2022年4月,华为盘古升级至2.0,发布分级发展规划(LO、L1、L2),打造大型工业级盘古模型。
根据华为云高管的演讲PPT信息,目前华为“盘古系列AI大模型”的基础层主要包括NLP大模型、CV大模型、科学计算大模型等,上层是华为的行业与合作伙伴开发的大型模型。
华为云人工智能领域首席科学家田奇今年4月表示,盘古NLP大模型涵盖智能文档检索、智能ERP、小语言大模型等实现领域。 2022年,华为刚刚交付了千亿参数的阿拉伯语大模型。在应用方面,盘古大模型可应用于智能客服、机器翻译、语音识别等多个领域,提供AI技术支撑。
去年,华为在垂直行业落地了盘古模式。一个例子是,基于盘古AI大模型,华为打造了矿业领域首个“基于大模型的人工智能训练中心”,实现了AI应用的“产业化”开发,不仅降低了成本——,节省了80 %+ 与人工验证相比,还降低了每吨成本每吨降低8元(年产能260万吨),效率提高——,防撞防压节省80%+与人工验证相比,效率提升——,智能客户效率提升30%。
与其他厂商相比,华为的优势可能在于其完整的产业链和强大的算力部署能力。据浙商证券此前披露,在训练千亿参数盘古模型时,华为团队使用了2000多颗升腾910芯片,进行了2个多月的数据训练能力。华为内部表示,每年超过4000张GPU/TPU卡用于大型模型训练,三年大型模型的算力成本高达9.6亿元。
东吴证券3月27日发布的研报显示,华为盘古大模型具有人才储备和算力自主掌控的优势。有望成为国内领先大机型,生态产业链标的有望加速发展,包括拓维信息、四川长虹、麒麟软件(中国软件)、同心软件(诚迈科技)等华为生态系统企业,以及麒麟校长。国盛证券认为,华为盘古是首个多模态千亿级规模化模型,有望赋能各行业。
根据华为发表的论文数据,华为PanGu-大模型参数高达1.085万亿,基于华为自研的MindSpore框架开发。总体而言,PanGu-大模型在对话方面可能接近GPT-3.5的水平。
值得注意的是,由于盘古大模型参数极大,训练成本较高。尽管盘古大模型在处理汉语方面具有较高的准确性和质量,但在语义理解方面仍然存在一定的局限性,特别是在处理复杂的语言结构和语义推理方面。与此同时,盘古聊天大模型也将面临行业激烈的竞争压力,需要不断优化和提高模型的性能和质量,以保持其在市场中的领先地位。 (本文首发于钛媒体App,作者|林志佳)