大陆通讯科技龙头企业华为公司在全球一片人工智慧(AI)热潮中亦不落人后,即将发佈一款类似ChatGPT的多模态千亿级大模型产品,名为“盘古Chat”,这意味著继阿里、百度之后,大陆又一重要科技巨头入局AI赛场。
据大陆《钛媒体》独家报道,预计今年7月7日的华为云开发者大会上将对外发佈以及内测,产品主要面向政府与企业端客户。基于华为的技术能力,盘古Chat有望成为大陆技术能力最强的ChatGPT产品,同时华为生态产业链企业也将因此受益。
报道指出,盘古大模型于2020年11月在华为云内部立项成功,华为内部团队为盘古大模型确立了3项最关键的核心设计原则:1.模型要大,可以吸收海量资料;2.网络结构要强,能够真正发挥出模型的性能;3.要具有优秀的泛化能力,可以真正落地到各行各业的工作场景。
华为发布的信息指出,盘古NLP大模型是首个千亿参数中文预训练大模型,CV大模型则首次达到30亿参数。2022年4月,华为盘古升级到2.0,发佈层次化开发方案并打造工业级盘古大模型。
华为云人工智慧领域首席科学家田奇今年4月曾表示,盘古NLP大模型覆盖的智慧文档检索、智慧 ERP、小语种大模型等落地领域,2022年华为刚交付了一个阿拉伯语的千亿参数大模型。在应用方面,盘古大模型可以应用于智慧客服、机器翻译、语音辨识等多个领域,提供AI技术支援。
报道说,去年华为将盘古大模型在垂直产业领域落地应用。例如华为基于盘古AI大模型在矿山领域打造首个“基于大模型的人工智慧训练中心”,实现Al应用工业化开发,不仅降低成本而且增加效益。
与其他厂商相比,华为的优势或在于拥有完整的产业链和较强的算力调配能力。据浙商证券披露,在训练千亿参数的盘古大模型时,华为团队调用了超过2000块的昇腾910芯片,进行了超2个月的资料训练能力。华为内部称,每年大模型训练调用GPU/TPU卡超过4000片,3年的大模型算力成本高达9.6亿元人民币。
报道表示,由于盘古大模型拥有超大规模的参数,因此训练成本较高。同时,盘古Chat大模型也将面临著行业激烈的竞争压力,需要不断优化和提高模型的性能和品质,才能以保持在市场中的领先地位。