万维读者网 > 数码科技 > 正文  

中国科技巨头华为官宣 放出“超大卫星”

www.creaders.net | 2023-06-03 13:59:33  中时新闻网 | 0条评论 | 查看/发表评论

中国科技巨头华为官宣 放出“超大卫星”

华为公司即将正式发佈一款类似ChatGPT的多模态千亿级大模型产品,名为“盘古Chat”。(图/新华社)

大陆通讯科技龙头企业华为公司在全球一片人工智慧(AI)热潮中亦不落人后,即将发佈一款类似ChatGPT的多模态千亿级大模型产品,名为“盘古Chat”,这意味著继阿里、百度之后,大陆又一重要科技巨头入局AI赛场。

据大陆《钛媒体》独家报道,预计今年7月7日的华为云开发者大会上将对外发佈以及内测,产品主要面向政府与企业端客户。基于华为的技术能力,盘古Chat有望成为大陆技术能力最强的ChatGPT产品,同时华为生态产业链企业也将因此受益。

报道指出,盘古大模型于2020年11月在华为云内部立项成功,华为内部团队为盘古大模型确立了3项最关键的核心设计原则:1.模型要大,可以吸收海量资料;2.网络结构要强,能够真正发挥出模型的性能;3.要具有优秀的泛化能力,可以真正落地到各行各业的工作场景。

华为发布的信息指出,盘古NLP大模型是首个千亿参数中文预训练大模型,CV大模型则首次达到30亿参数。2022年4月,华为盘古升级到2.0,发佈层次化开发方案并打造工业级盘古大模型。

华为云人工智慧领域首席科学家田奇今年4月曾表示,盘古NLP大模型覆盖的智慧文档检索、智慧 ERP、小语种大模型等落地领域,2022年华为刚交付了一个阿拉伯语的千亿参数大模型。在应用方面,盘古大模型可以应用于智慧客服、机器翻译、语音辨识等多个领域,提供AI技术支援。

报道说,去年华为将盘古大模型在垂直产业领域落地应用。例如华为基于盘古AI大模型在矿山领域打造首个“基于大模型的人工智慧训练中心”,实现Al应用工业化开发,不仅降低成本而且增加效益。

与其他厂商相比,华为的优势或在于拥有完整的产业链和较强的算力调配能力。据浙商证券披露,在训练千亿参数的盘古大模型时,华为团队调用了超过2000块的昇腾910芯片,进行了超2个月的资料训练能力。华为内部称,每年大模型训练调用GPU/TPU卡超过4000片,3年的大模型算力成本高达9.6亿元人民币。

报道表示,由于盘古大模型拥有超大规模的参数,因此训练成本较高。同时,盘古Chat大模型也将面临著行业激烈的竞争压力,需要不断优化和提高模型的性能和品质,才能以保持在市场中的领先地位。

   0


当前新闻共有0条评论 分享到:
评论前需要先 登录 或者 注册
全部评论  
暂无评论 上一页 下一页  
实用资讯
24小时新闻排行榜 更多>>
1 两大失控事件 暴露中国落后程度
2 先抓他?这个大鳄比钟南山还大
3 中国新规:9月起永久冻结三类储户 更多细节
4 江西出版社竟然这样咒骂习总 老区人民怒了
5 中共093型核潜舰台海失事全员罹难?专家这

48小时新闻排行榜 更多>>
1 中国再一次掀起出国留学热潮,原因是…
2 两大失控事件 暴露中国落后程度
3 中国40年的繁荣已经结束了
4 苦日子真的来了,央企也开始发不出工资了
5 百年变局!中共崩溃的两个核心变量
6 先抓他?这个大鳄比钟南山还大
7 中国新规:9月起永久冻结三类储户 更多细节
8 江西出版社竟然这样咒骂习总 老区人民怒了
9 中国的医药反腐矛头,指向了钟南山、李兰娟
10 中共093型核潜舰台海失事全员罹难?专家这
热门专题
一周博客排行 更多>>
1 台海战争将首当其冲的火箭军61 马黑
2 加拿大 一个伟大领袖都没有, 旅泉
3 辞别再无相见日 人参花
4 1.5个恒大的中植系暴雷了毛阿 体育老师
5 别再三耍弄百姓了!要真搞医疗 鹿见不平
6 何与怀:从当今大愚为治水“指 万维网友来
7 被称行走的50万,海外华人却依 金复新
8 从领袖到人民公敌:齐奥塞斯库 赵大夫话室
9 洗岩:振兴经济,从取消企业政 万维网友来
10 更多的中国空军抗战英雄史料- 玉质
一周博文回复排行榜 更多>>
1 “系统性选举舞弊”是一场忽悠 右撇子
2 反共千万别把自己反成笑话 特有理
3 美国大选:得中间选民者得天下 随意生活
4 医疗反腐上为反而反的“治本” 特有理
5 8 月23 到10 月23有意外大事发 体育老师
6 俄乌战争:乌军兵源枯竭? 随意生活
7 体老是个实在人,网上敢说心里 特有理
8 政治腐败才是政权合法性的条件 右撇子
9 北约试探:乌克兰割地入帮? 随意生活
10 社会黑白颠倒,你不得不狠毒, 体育老师
关于本站 | 广告服务 | 联系我们 | 招聘信息 | 网站导航 | 隐私保护
Copyright (C) 1998-2023. CyberMedia Network/Creaders.NET. All Rights Reserved.