第57章 孙博的能力(2/5)

“微软这边……”决心下的那么大,所有人都看出微软要做什么了,纪弘当然也不例外,这个时候,他在思考这样一个问题:

“现在他们的大模型,Transformer这类的,靠无限制的堆积算力,就能无限的提高模型能力吗?”

纪弘对此还真没有研究——先前在创界,主要利用别家平台进行接口对接开发,后来自己创业,上来就是类思考模型,对T模型属于降维打击,并不存在这样的问题。

他对此没有什么研究,但有一个人一直在关注着这方面——这个人就是孙博。

“靠无限制的堆积算力获得高性能大模型,短期内是可行的。”

孙博也是看到了微软的行动,在CSDNBlog跟一群人正在探讨相关的话题:

“长期的话,倒不是有上限,真要有魄力不计成本无限制的去堆积算力,理论上是真的能够获得无限制的性能提升的。

“但也仅仅只是理论上,这里边有一个巨大的问题,根据我的研究,它的增长不是线性的。

“我大约计算过,实际的增长曲线就不说了,很复杂,但大约可以简化为这个函数:y=c·log(e)·(X+1)。

“这里边y指的是性能,X你们就姑且理解为算力堆积的基本单位,大约趋势如下图。”

本章未完,点击下一页继续阅读。