万维读者网 > 数码科技 > 正文  

马斯克开源Grok:3140亿参数巨无霸,免费可商用

www.creaders.net | 2024-03-18 12:05:24  量子位 | 0条评论 | 查看/发表评论

马斯克说到做到旗下大模型Grok现已开源!

代码和模型权重已上线GitHub。官方信息显示,此次开源的Grok-1是一个3140亿参数的混合专家模型——就是说,这是当前开源模型中参数量最大的一个。

消息一出,Grok-1的GitHub仓库已揽获4.5k标星,并且还在库库猛涨。

表情包们,第一时间被吃瓜群众们热传了起来。

而ChatGPT本Chat,也现身Grok评论区,开始了和马斯克新一天的斗嘴……

那么,话不多说,来看看马斯克这波为怼OpenAI,究竟拿出了什么真东西。

Grok-1说开源就开源

此次开源,xAI发布了Grok-1的基本模型权重和网络架构。

具体来说是2023年10月预训练阶段的原始基础模型,没有针对任何特定应用(例如对话)进行微调。

结构上,Grok-1采用了混合专家(MoE)架构,包含8个专家,总参数量为314B(3140亿),处理Token时,其中的两个专家会被激活,激活参数量为86B。

马斯克开源Grok:3140亿参数巨无霸,免费可商用

马斯克开源Grok:3140亿参数巨无霸,免费可商用

马斯克开源Grok:3140亿参数巨无霸,免费可商用

而ChatGPT本Chat,也现身Grok评论区,开始了和马斯克新一天的斗嘴……

单看这激活的参数量,就已经超过了密集模型Llama 2的70B,对于MoE架构来说,这样的参数量称之为庞然大物也毫不为过。

马斯克开源Grok:3140亿参数巨无霸,免费可商用

不过,在GitHub页面中,官方也提示,由于模型规模较大(314B参数),需要有足够GPU和内存的机器才能运行Grok。

这里MoE层的实现效率并不高,选择这种实现方式是为了避免验证模型的正确性时需要自定义内核。

模型的权重文件则是以磁力链接的形式提供,文件大小接近300GB。

马斯克开源Grok:3140亿参数巨无霸,免费可商用

而且这个“足够的GPU”,要求不是一般的高——YC上有网友推测,如果是8bit量化的话,可能需要8块H100。

马斯克开源Grok:3140亿参数巨无霸,免费可商用

除了参数量前所未有,在工程架构上,Grok也是另辟蹊径——

没有采用常见的Python、PyTorch或Tensorflow,而是选用了Rust编程语言以及深度学习框架新秀JAX。

而在官方通告之外,还有许多大佬通过扒代码等方式揭露了Grok的更多技术细节。

比如来自斯坦福大学的Andrew Kean Gao,就针对Grok的技术细节进行了详细解释。

首先,Grok采用了使用旋转的embedding方式,而不是固定位置embedding,旋转位置的embedding大小为 6144,与输入embedding相同。

马斯克开源Grok:3140亿参数巨无霸,免费可商用

当然,还有更多的参数信息:

窗口长度为8192tokens,精度为bf16

Tokenizer vocab大小为131072(2^17),与GPT-4接近;

embedding大小为6144(48×128);

Transformer层数为64,每层都有一个解码器层,包含多头注意力块和密集块;

key value大小为128;

多头注意力块中,有48 个头用于查询,8 个用于KV,KV 大小为 128;

密集块(密集前馈块)扩展因子为8,隐藏层大小为32768。

马斯克开源Grok:3140亿参数巨无霸,免费可商用

除了Gao,还有英伟达AI科学家Ethan He(何宜晖)指出,在专家系统的处理方面,Grok也与另一知名开源MoE模型Mixtral不同——

Grok对全部的8个专家都应用了softmax函数,然后从中选择top2专家,而Mixtral则是先选定专家再应用softmax函数。

马斯克开源Grok:3140亿参数巨无霸,免费可商用

而至于有没有更多细节,可能要看官方会不会发布进一步的消息了。

另外,值得一提的是,Grok-1采用的是Apache 2.0 license,也就是说,商用友好。

为怼OpenAI怒而Open

大家伙知道,马斯克因为OpenAI不Open,已经向旧金山高等法院提起诉讼,正式把OpenAI给告了。

不过当时马斯克自己搞的Grok也并没有开源,还只面向𝕏的付费用户开放,难免被质疑双标。

大概是为了堵上这个bug,马斯克在上周宣布:

本周,xAI将开源Grok。

马斯克开源Grok:3140亿参数巨无霸,免费可商用

虽然时间点上似乎又是马斯克一贯的迟到风格,但xAI的这波Open如今看来确实不是口嗨,还是给了网友们一些小小的震撼。

马斯克开源Grok:3140亿参数巨无霸,免费可商用

有xAI新晋员工感慨说:

这将是激动人心的一年,快系好安全带吧。

马斯克开源Grok:3140亿参数巨无霸,免费可商用

有人已经期待起Grok作为一个开源模型,进一步搅动大模型竞争的这一池水。

不过,也并不是每个人都买马斯克的账:

马斯克开源Grok:3140亿参数巨无霸,免费可商用

不过说归说,多线并进的马斯克,最近大事不止开源Grok这一件。

作为多公司、多业务的时间管理大师,马斯克旗下,特斯拉刚刚全线推出了端到端纯视觉的自动驾驶系统FSD V12,所有北美车主用户,都OTA更新升级,可以实现所有道路场景的任意点到点AI驾驶。

SpaceX则完成了第三次星舰发射,虽然最后功败垂成,但又史无前例地迈进了一大步。

推特则开源了推荐算法,然后迎来了一波自然流量新高峰。

别人都是 you can you up, no can no bb…马斯克不一样,bb up不选择,边喊边干,还都干成了。

   0


24小时新闻排行榜 更多>>
1 余茂春惊人预告 习近平的噩梦要来了
2 突发:全球最大光刻机巨头爆雷 股价跳水
3 火箭军又将大地震?习四个字批示
4 华尔街大鳄警告 它是一个“巨大的泡沫”
5 复旦研究生珠峰地区登山死亡 真相更令人愤

48小时新闻排行榜 更多>>
1 北京扣动扳机 人民币贬值开始了
2 撤出中国,苹果跑的也太快了
3 余茂春惊人预告 习近平的噩梦要来了
4 突发:全球最大光刻机巨头爆雷 股价跳水
5 铁拳再现!中国将禁止公布这些数据
6 不好,爆雷越来越密集了
7 重庆,又一次刷新了底线
8 中共情色档案中的薄熙来情妇有名有姓
9 火箭军又将大地震?习四个字批示
10 北京没料到 反噬这么快来了
热门专题
1
以哈战争
6
中共两会
11
秦刚失踪
2
中美冷战
7
台湾大选
12
火箭军悬案
3
乌克兰战争
8
李克强猝逝
13
台海风云
4
万维专栏
9
中国爆雷
14
战狼外交
5
美国大选
10
李尚福出事
15
普里戈津
一周博客排行 更多>>
1 习近平一盘神秘大棋成就了大日 文庙
2 周傥:美国迫在眉睫的危险 万维网友来
3 速战速决 伊朗真乃大丈夫也 体育老师
4 达唐:故宫博物院遭公开举报 万维网友来
5 康生的儿子死了/漂亮国的象征 体育老师
6 谁是中国人? 谢盛友文集
7 现代战争目的:摧毁战争意志 施化
8 日本电影《追捕》中的杜丘和真 弓长贝占郎
9 辛峰:特鲁多为什么不信加拿大 万维网友来
10 前瞻:习马再相会 花蜜蜂
一周博文回复排行榜 更多>>
1 川普就是美国的毛泽东 右撇子
2 前瞻:习马再相会 花蜜蜂
3 警惕有人把民主党与共和党的关 karkar
4 美国为何选择这个时候公布中共 山蛟龙
5 周傥:美国迫在眉睫的危险 万维网友来
6 现代战争目的:摧毁战争意志 施化
7 习近平一盘神秘大棋成就了大日 文庙
8 抖音在大选年被禁的可能性不大 随意生活
9 去......化 山蛟龙
10 康生的儿子死了/漂亮国的象征 体育老师
关于本站 | 广告服务 | 联系我们 | 招聘信息 | 网站导航 | 隐私保护
Copyright (C) 1998-2024. CyberMedia Network/Creaders.NET. All Rights Reserved.