谷歌翻墙安卓下载地址
多年來,谷歌等科技巨頭和OpenAI等初創公司,一直在不遺余力地利用海量在線數據,打造更大、更昂貴的人工智能(AI)模型。這些大型語言模型(LLM)被廣泛應用於ChatGPT等聊天機器人中,幫助用戶處理各種各樣的任務,從編寫代碼、規劃行程,到創作詩歌等。
自ChatGPT面世以來,AI模型便在變大、變強之路上“狂奔”。但喧囂過后,科技公司也越來越關注更小、更精簡的小型語言模型(SLM)。他們認為,這些小巧玲瓏的模型不僅“術業有專攻”,而且部署成本更低廉、更節能。
隨著AI技術突飛猛進,AI模型的“塊頭”與日俱增。ChatGPT的締造者OpenAI去年夸耀稱,其GPT-4模型擁有約2萬億個參數。參數表示AI模型的大小,一般參數越多,AI模型的能力越強,龐大的參數量使GPT-4成為迄今最強大的AI模型之一,能回答從天體物理學到動物學等多領域包羅萬象的問題。
但是,如果某家公司隻想借助AI模型解決特定領域(如醫學)的問題,或者一家廣告公司隻需一款AI模型來分析消費者行為,以便他們更精准地推送廣告,GPT-4這類模型就有點“大材小用”了,SLM反而更能滿足用戶們的要求。
微軟公司生成式AI副總裁塞巴斯蒂安·布貝克表示谷歌翻墙安卓下载地址,雖然SLM的參數量目前並沒有統一標准,但大約在3億到40億個之間,小巧到可以安裝在智能手機上。
法國初創公司LightOn的負責人勞倫特·都德認為,與LLM相比,SLM擁有諸多優勢:首先,這些模型的反應速度更快,能同時響應更多查詢,回復更多用戶﹔其次,SLM部署成本更低,能源消耗也更少。
都德解釋道,目前很多LLM需要大量服務器來進行訓練,然后處理查詢。這些服務器由尖端芯片組成,需要大量電力來運行,並進行冷卻。而訓練SLM所需芯片更少,運行耗費的能源也更少,這使其更便宜、更節能。
SLM還可直接安裝在設備上,在不依賴數據中心的情況下運行,這能進一步確保數據的安全性。《福布斯》表示,SLM能以最少的計算資源執行各種任務,使其成為移動設備、邊緣設備等的理想選擇。
去年12月底,微軟公司正式發布了隻有27億個參數的語言模型Phi-2。微軟研究院在其X平台官方賬號上表示,Phi-2的性能優於現有其他SLM,且能在筆記本電腦或移動設備上運行。今年4月,微軟又推出了隻有38億個參數的Phi-3系列模型。
今年8月,微軟公司再接再厲,推出了最新的Phi-3.5-mini-instruct。這款SLM為高效、先進的自然語言處理任務量身打造。9月,英偉達公司開源了Nemotron-Mini-4B-Instruct。該公司表示,這款SLM特別適合邊緣計算和設備端的應用。報道稱,這兩款SLM在計算資源使用和功能表現之間實現了良好平衡。在某些方面,其性能甚至可媲美LLM。
OpenAI也不甘示弱。今年7月,OpenAI公司發布了GPT-4o mini,稱其是該公司最智能和最實惠的SLM。
其他公司也紛紛開發更適合自身需求的SLM。例如,美國制藥巨頭默克公司正與波士頓咨詢集團(BCG)合作開發一款SLM,旨在探究某些疾病對基因的影響。這將是一款參數介於幾億到幾十億之間的AI模型。
雖然SLM在效率等方面具有獨特優勢,但LLM在解決復雜問題、提供更廣泛的數據訪問方面仍然具有極大優勢。
當遇到用戶提出的某個問題時,一款SLM會“一馬當先”,理解這個問題,再根據問題的復雜性,將相關信息發送給幾個大小不一的AI模型。這些模型“群策群力”“並肩攜手”為用戶解決難題。
人民日報社概況關於人民網報社招聘招聘英才廣告服務合作加盟供稿服務數據服務網站聲明網站律師信息保護聯系我們
人 民 網 股 份 有 限 公 司 版 權 所 有 ,未 經 書 面 授 權 禁 止 使 用