We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
There was an error while loading. Please reload this page.
在 OpenAI 剛釋出 ChatGPT 的時候
研究人員有個疑惑
為何智慧會突然湧現呢?
但是現在
似乎證實了這是個假議題
因為我們看到 2B, 7B, 8X7B, 8X22B, 1.76T 等等模型
都可以表現出智慧
只是在目前的 Attention 模型下
參數愈多,通常表現愈好
因此、我們只能說
腦容量 (參數) 愈大,智慧通常愈高
也就是參數的量和智慧有正相關 ...