人工智能,或者说现在的大数据模型,原理上很多业内人士都已经知道了:搞个算法,然后投喂数据,用GPU进行训练。
但是同样的算力下,不同的核心算法做的数模模型,性能可是截然不同的。
一个好的算法,用一台服务器就能完成大量的数据模型训练。
但是一个不咋地的算法,用同样的服务器资源训练,啥都训练不出来。
其中的差距,夸张的时候甚至能够达到百倍,千倍的!
而以目前的技术条件上,人工智能比拼的就是投喂的数据量、训练效率、算力资源。
最终反馈的就是训练成本。
举个例子,假设具备同样性能的生成式AI,智云集团的A算法用一亿美元的训练成本就能训练出来一个不错的模型,但是谷狗公司的B算法就有可能使用一百亿美元的训练成本才能训练出来同样性能的模型。
这里头的差距,带来的可不仅仅是训练成本那么简单,更重要的是技术上的巨大差异……因为智云集团也会用一百亿美元,甚至更多钱来进行训练,由此带来巨大的性能提升。
更别说,智云集团在AI训练上,还拥有巨大的硬件优势。
内容未完,下一页继续阅读