3月18日,马斯克突然开源旗下的大模型Grok,代码和模型权重已经上线Github和HuggingFace,可以看到Grok一共有3140亿参数,马斯克方面称Grok也是采用MoE混合专家架构的大模型,为目前全球开源参数量最多的大模型!
而OpenAI方面似乎是迫于马斯克的舆论大棒,开源了Transformer Debugger,其他的开发者可以利用TDB来分析解读Transformer内部结构。
今天,马斯克按照约定,在一周后开源Grok大模型,代码和模型权重放在Github和HuggingFace上面,根据描述,Grok一共是314B(3140亿)个参数。
官网描述称Grok也是采用混合专家模型MoE架构,为目前开源模型中参数最多的大模型,Grok由xAI在去年10月基于JAX和Rust实现,而且模型没有针对任何特定方向进行微调。
但值得一提的是,马斯克并非是最早开源的人,早在23年2月份,Meta就已经开源了LLama模型,而之后的Llama2也成为最火的开源模型之一,成为各大应用的热门套皮大模型。
今年六、七月份,Llama3可能会即将推出,就目前来看,马斯克选择这个时间点开源更多是回应OpenAI,而且大家的目光很快就会被英伟达老黄的GTC大会所吸引。
马斯克:
聊天机器人——ChatGPT全网爆红,马斯克惊叹夸赞!
马斯克重磅:推出“真相GPT”,保证不会毁灭人类!
马斯克:ChatGPT成功离不开我,特斯拉擎天柱将改变未来!
奥特曼、马斯克:ChatGPT风险堪比核武器,希望全球监管!
马斯克:中国航天远比想象中要先进得多,2030年前实现登月!
马斯克约架小扎:UFC总裁策划比赛,100美元最低票价!
马斯克:降本增效,“推特崩了”冲上热搜!
#免责声明#
①本站部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责。
②若您需要商业运营或用于其他商业活动,请您购买正版授权并合法使用。
③如果本站有侵犯、不妥之处的资源,请联系我们。将会第一时间解决!
④本站部分内容均由互联网收集整理,仅供大家参考、学习,不存在任何商业目的与商业用途。
⑤本站提供的所有资源仅供参考学习使用,版权归原著所有,禁止下载本站资源参与任何商业和非法行为,请于24小时之内删除!