您當前的位置 :環(huán)球傳媒網(wǎng)>科技 > 正文
壓縮算法為大語言模型“瘦身”
2024-11-23 10:36:05
來源:科技日報
據(jù)美國科學促進會旗下網(wǎng)站19日報道,美國普林斯頓大學和斯坦福大學團隊開發(fā)出一種新壓縮算法CALDERA,能精簡大型語言模型(LLM)的海量數(shù)據(jù),為LLM“瘦身”。這項算法不僅有助保護數(shù)據(jù)隱私、節(jié)約能源、降低成本,還能推動LLM在手機和筆記本電腦上高效使用。
團隊舉例稱,當人們使用ChatGPT時,請求會被發(fā)送到OpenAI公司的后端服務器進行處理。這一過程不僅成本高昂、能耗巨大,通常還很慢。如果用戶想要使用消費級圖形處理單元運行LLM,就需要對這些LLM進行壓縮。
CALDERA算法通過減少LLM冗余并降低信息層的精度來發(fā)揮作用。“瘦身”后的LLM更加精簡,可在手機或筆記本電腦等設備上存儲和訪問,同時提供了與未壓縮版本幾乎一樣準確而微妙的性能。
雖然CALDERA并非首個壓縮LLM的算法,但其獨特之處在于兼具“低精度”和“低排序”兩種特性。其中,“低精度”減少了比特數(shù),加快了數(shù)據(jù)存儲和處理速度。而“低排序”則降低了LLM數(shù)據(jù)中的冗余。
團隊表示,使用CALDERA壓縮的LLM可能適用于那些對精度要求不是最高的場景。此外,用戶可在智能手機或筆記本電腦等設備上對壓縮后的LLM進行微調,這使其能根據(jù)特定需求調整模型來增強隱私,而無需與第三方共享敏感數(shù)據(jù)。
不過團隊也提醒道,在智能手機或筆記本電腦上運行LLM,可能會占用設備內存。
關鍵詞:
相關閱讀
版權和免責申明
凡注有"環(huán)球傳媒網(wǎng)"或電頭為"環(huán)球傳媒網(wǎng)"的稿件,均為環(huán)球傳媒網(wǎng)獨家版權所有,未經(jīng)許可不得轉載或鏡像;授權轉載必須注明來源為"環(huán)球傳媒網(wǎng)",并保留"環(huán)球傳媒網(wǎng)"的電頭。
資訊
焦點
- 小雪節(jié)氣后如何避免陽氣損害?中醫(yī)專家建議首先要潛藏
- 河南交通技師學院土木工程系黨支部與市營商環(huán)境和信用建設服務中心黨支部開展支部共建主題黨日活動
- 再創(chuàng)多項歷史,大谷翔平三度當選美職棒MVP
- 奧運冠軍杜麗擔任國家手槍射擊隊領隊
- 中巴合作創(chuàng)新打造巴西微電網(wǎng)示范標桿項目
- 中新健康|高速擴張暗藏隱憂 塔斯汀屢陷食品安全丑聞
- 實體經(jīng)濟如何爬坡邁坎?浙江僑界“半邊天”話發(fā)展謀對策
- 南陽市宛城區(qū)法院:作業(yè)中的特種車輛發(fā)生事故,交強險賠不賠?
- 西峽農商銀行“千企萬戶大走訪”在行動
- 秋收秋種近尾聲 全年糧食產量有望邁上新臺階