快科技7月24日消息,在生成式AI领域,推出了ChatGPT的OpenAI是处于领先地位的,他们的GPT-4已经是万亿参数级别,还在训练更先进的GPT-5,届时又会在技术水平上甩开国内的追赶者。
OpenAI能够领先,先进AI显卡用到的GPU是功不可没的,背靠微软这棵大树,他们在算力资源上不会受到限制,GPT-4的训练就使用了2万张NVIDIA的AI显卡训练。
但是万张显卡级别的算力还不是终点,今年也投身AI创业的前搜狗CEO王小川日前在采访中透露了OpenAI的动向,提到后者正在做更先进的训练方法,设计能够将1000万张GPU连在一起的计算模型。
1000万张GPU是什么概念?目前NVIDIA每年的产量也就是100万块GPU(应该主要是指AI方面的GPU),OpenAI的规模相当于10倍于NVIDIA年产能的水平。
王小川称OpenAI的1000万张GPU算力的目标是登月级别的计划,显然认为它很伟大。
不说这些GPU显卡能不能生产出来,购买花费多少,光是1000万张显卡互联的难度都是不可想象的,OpenAI要是做到了就真的无敌于天下了。
不过这也非常让人怀疑OpenAI是否表达错了,还是王小川听来的投行报告写错了,从几万张GPU到1000万张GPU的互联难度可不是一个级别的。
#免责声明#
①本站部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责。
②若您需要商业运营或用于其他商业活动,请您购买正版授权并合法使用。
③如果本站有侵犯、不妥之处的资源,请联系我们。将会第一时间解决!
④本站部分内容均由互联网收集整理,仅供大家参考、学习,不存在任何商业目的与商业用途。
⑤本站提供的所有资源仅供参考学习使用,版权归原著所有,禁止下载本站资源参与任何商业和非法行为,请于24小时之内删除!