對於小語言模型是否可以跟大語言模型有一樣的效果。紀懷新認為這個假設是有可能發生的,因為從2023年開始,大家都在做最大的語言模型。當時有一個假設,叫做類神經的規模化定律 (neural scaling law),意思是說,越大的模型,它的能力會越高。但是,這個假設並不完全正確。大型語言模型的推理能力和規劃能力是越好,但是小型語言模型也有它的成本優勢。雖然它的推理能力可能沒那麼好,但是它的翻譯能力、句子完成能力、或者是辨識能力,都還相當不錯。所以,從2024年開始,我們會發現,小型語言模型也許在某些場合,已經夠我們使用了。這種情況下,Edge端的運算裝置的重要性就會提高。如果它們的運算能力夠的話,我們就不需要把所有的運算能力都放到雲端裡。我們的口袋裡,就有這種運算的能力。 |