(资料图片仅供参考)
让大家没想到的是,被传的神乎其神的GPT-4依旧是大力出奇迹的产物。回到ensemble的老路上去了,OpenAI一直在画的AGI的大饼感觉又离我们远了。
黑客 George Hotz 在一个播客中透露,GPT-4 是由 8 个 2200 亿参数的 MoE 模型组成的,每个模型都针对不同的数据和任务分布进行了训练,然后通过一些小技巧将它们混合起来。他还说,这样做是因为单个模型的参数规模已经达到了极限,而且训练时间越长效果越差,所以他们采用了多模型集成的方法来提高性能。他认为,OpenAI 对此保密的原因是不想让别人知道他们的模型并不是那么先进,只要花更多的钱就能复制。
这个说法得到了 PyTorch 创始人 Soumith Chintala 的认可2,他表示自己也听过类似的传闻,但只有 George Hotz 在公开场合说出来了。不过,也有人对这个说法表示怀疑或质疑134,认为这样的模型推理成本太高,而且没有充分利用 GPT-4 的潜力。目前,OpenAI 还没有对这个爆料做出任何回应或证实。
这件事情很可能是真的,理由如下:
已知的Prior:
1.多个信源认为GPT4比GPT3.5参数量大至少一个数量级,也就是1.7万亿以上。
2. OpenAI去年六月发表过技术报告说他们训练LLM用了MoE.
现在的观测:
有人说GPT4是一个1.76万亿参数的MoE
网友得知秘诀后,打算自己也要训练一个LLaMA集合体与GPT-4竞争。
关键词:
相关文章
热点图集
-
1真爱!罗马诺:京多安拒绝了曼城枪手和沙特巨额合同,选择了巴萨-天天热点评
-
2昆明西山公安办好为民小事践初心 世界即时看
-
3交通分公司开展“情系一线 夏送清凉”慰问活动
-
4今日报丨2023郎酒端午制曲大典圆满举办 揭开“庄园酱酒”极致品质序章
-
5百人混战FPS《BattleBit Remastered》特别好评 在线峰值8.7万|今热点
-
6硬核科技论丨从概念到现实 车外后视镜大变革即将到来(下)
-
7环球今热点:无障碍环境建设法草案三审:无障碍环境建设应与适老化改造相结合
-
8天天热门:严守耕地红线,端牢中国饭碗
-
9【聚焦“三个年”·看作风】洛川县林业局:飞播造林 筑起绿色生态屏障 世界速讯
-
10每日速递:「日常用品」宠物饮食的小贴士,如何让宠物健康快乐?