馬斯克力挺扎克伯格,OpenAI“0元”應戰(zhàn)

扎克伯格預測,Meta AI助手使用率幾個月后將超越ChatGPT。
7月24日凌晨,美國科技巨頭Meta推出迄今為止性能最強大的開源大模型——Llama 3.1 405B(4050億參數(shù)),同時發(fā)布了全新升級的Llama 3.1 70B和8B模型版本。
Llama 3.1 405B支持上下文長度為128K tokens,是全球迄今為止性能最強大、參數(shù)規(guī)模最大的開源模型,在基于15萬億個tokens、超1.6萬個H100 GPU上進行訓練,這也是Meta有史以來第一個以這種規(guī)模進行訓練的Llama模型。
因性能佳、開源、多方合作,目前所有Llama模型版本的總下載量已經(jīng)超過3億次。研究人員基于超150個基準測試集的評測結(jié)果顯示,Llama 3.1 405B可與GPT-4o、Claude 3.5 Sonnet和Gemini Ultra等業(yè)界頭部模型相媲美,包括亞馬遜AWS、英偉達、微軟Azure和谷歌云等25家頭部公司與Meta達成合作,引入Llama 3.1。
“這對于我們來說是久旱逢甘霖。”獨立分析師Jimmy告訴《中國企業(yè)家》。苦于缺乏長期高質(zhì)量的訓練數(shù)據(jù)已久,全球AI領(lǐng)域的開發(fā)人員終于迎來了開源曙光。一般來說,較小的專家模型(參數(shù)規(guī)模在10億~100億)通常利用“蒸餾技術(shù)”,也就是利用更大的模型來增強訓練數(shù)據(jù)。但由于巨頭OpenAI的閉源,此類訓練數(shù)據(jù)的缺乏是各大模型共同的難題。
開、閉源之爭一直是AI圈的中心話題。Meta創(chuàng)始人、CEO扎克伯格提到:“我相信Llama 3.1的發(fā)布將成為行業(yè)的一個轉(zhuǎn)折點”;360集團創(chuàng)始人周鴻祎也曾表示,開源社區(qū)聚集全球上千家公司、數(shù)十萬程序員和工程師,開發(fā)力量是一個閉源公司的數(shù)百倍。
扎克伯格開源Llama 3.1,逼急O(jiān)penAI
Meta公布前一天,Llama 3.1的模型和基準測試結(jié)果已經(jīng)在國外的Reddit等社區(qū)上泄露,Llama 3.1的磁力鏈接也被流傳,“強大”“開源”成為評論區(qū)的高頻詞。
Llama 3.1包含8B、70B和405B三種參數(shù)規(guī)模,其中超大杯4050億版本,該系列模型上下文窗口增加到了128K,擴大16倍;增加了8種支持語言;提升了工具使用能力,支持搜索和Wolfram Alpha的數(shù)學推理;擁有更寬松的許可,允許使用模型輸出改進其他LLMs。
事實上,開、閉源的大模型差距正在縮小。Meta在官博指出最新一代的Llama將激發(fā)新的應用程序和建模范式,包括利用合成數(shù)據(jù)生成來提升和訓練更小的模型,以及模型蒸餾——這是一種在開源領(lǐng)域從未有過的能力。在基準測試集中的表現(xiàn)幾乎可以媲美當前頂尖閉源模型GPT-4o和Claude 3.5 Sonnet,并且所有版本都可以在官網(wǎng)下載使用。
Meta對Llama 3.1的布局在今年4月就有跡可循。當時Meta就透露說,正在開發(fā)人工智能行業(yè)的第一款產(chǎn)品:一個性能與OpenAI等公司最好的私有模型相媲美的開源模型。
相比于OpenAI對技術(shù)細節(jié)的“惜字如金”,Meta此次不僅開放小助手應用在線試玩,還發(fā)布了近100頁的詳細論文,涵蓋了創(chuàng)造Llama 3.1過程中的一切,比如訓練數(shù)據(jù)、過濾、退火、合成數(shù)據(jù),并透露Llama 4已在開發(fā)中。
扎克伯格親自為開源大模型Llama 3.1站臺,在推特撰寫長文《Open Source AI Is the Path Forward》強調(diào)開源的意義,他表示:“今天我們正邁出下一步——使開源AI成為行業(yè)標準。”在特斯拉前AI總監(jiān)關(guān)于Llama 3.1大模型的帖子下面,馬斯克罕見地盛贊扎克伯格:“這令人印象深刻,扎克(伯格)的開源決定確實值得贊揚。”
來源:馬斯克回復推特截圖
Meta與OpenAI分別代表著開源與閉源的兩條技術(shù)路線。關(guān)于開源和閉源的斗爭由來已久,此前在彭博社的采訪中,扎克伯格更是公開嘲諷:“阿爾特曼的領(lǐng)導能力值得稱贊,但有點諷刺的是公司名為OpenAl卻成為構(gòu)建封閉式人工智能模型的領(lǐng)導者。”
面對Meta這次的大招,OpenAI以低價策略應戰(zhàn)。
Meta公布Llama 3.1兩個多小時后,OpenAI發(fā)布消息:公司推出了GPT-4o mini微調(diào)功能版,從現(xiàn)在到9月23日可免費使用。據(jù)了解,GPT-4o mini的輸入tokens費用比GPT-3.5 Turbo 低90%,輸出tokens 費用低80%。即使免費期結(jié)束,GPT-4o mini的價格也比GPT-3.5 Turbo低一半。
價錢打折,但產(chǎn)品能力不打折。據(jù)了解,GPT-4o mini比經(jīng)典版本GPT-3.5 Turbo能力更強,GPT-4o mini的上下文長度為65k tokens,是GPT-3.5 Turbo的四倍,推理上下文長度為128k tokens,是GPT-3.5 Turbo的八倍。
這就意味著,若使用GPT-4o mini微調(diào)版,就可以享受:以實惠的使用費用,使用更長的上下文、更聰明的頂尖大模型。阿爾特曼更是在推特發(fā)文表示,GPT-4o mini以1/20的價格在lmsys上實現(xiàn)了與GPT-4o接近的性能表現(xiàn),他還希望大家能夠多多使用GPT-4o mini 微調(diào)版本。
此次OpenAI以發(fā)布GPT-4o mini 微調(diào)版為盾,不僅是對Meta開源大模型步步緊逼的反擊,也同時將硅谷AI價格戰(zhàn)的火藥味推得更濃。
用價格“圍剿”O(jiān)penAI
即使OpenAI推出可免費使用的小模型,但比起同為大模型的產(chǎn)品,Llama 3.1 405B的價格比GPT-4o仍然要低很多。
公開數(shù)據(jù)顯示,Llama 3.1的價格在Fireworks平臺上是每1百萬tokens的輸入/輸出價格是3美元,而GPT-4o每1百萬tokens的輸入價格是5美元,輸出價格是15美元。此外,Claude 3.5 sonnet的每1百萬tokens的輸入價格是3美元,輸出價格是15美元。
這不是硅谷在AI方面的第一次“價格戰(zhàn)”。
今年5月,OpenAI發(fā)布GPT-4o并支持免費試用,調(diào)用API的價格也比GPT-4-Turbo降低一半——打響了硅谷大模型價格戰(zhàn)第一槍,同時這也是2023年起OpenAI的第4次降價。7月18日深夜,GPT-4o mini的正式亮相,與GPT-3.5相比性能更強,也更便宜,連阿爾特曼都曾建議大家不要再用GPT-3.5了。
用低價“圍剿”O(jiān)penAI已成大模型公司們的慣例。公開信息顯示,與GPT-4o相比較,各大公司的最新發(fā)布的產(chǎn)品分別是:Meta的Llama 3.1,谷歌的Gemini 1.5 pro,Claude 3 Sonnet,新近的Mistral AI,這些最新大模型價格均低于GPT-4o。
國際頭部大模型公司產(chǎn)品價格表,信息來源各大模型官網(wǎng)。制表:孫欣
而大模型的價格戰(zhàn)在國內(nèi)也已開始。5月6日,初創(chuàng)大模型公司DeepSeek深度求索將輸入價格定為1元/百萬tokens。緊接著智譜AI的GLM-3-Turbo模型、字節(jié)跳動的豆包大模型,以及阿里巴巴的通義系列模型、百度的文心一言模型紛紛跟牌。
低價,正在成為一種趨勢。
小模型或?qū)⒊蔀锳I新風口
一直以來,大模型的發(fā)展受困于成本。斯坦福HAI研究所發(fā)布的《斯坦福2024年人工智能指數(shù)報告》指出,AI模型的培訓成本已經(jīng)達到了前所未有的水平。例如,OpenAI的GPT-4估計使用了7800萬美元用于計算訓練,而谷歌的Gemini Ultra花費了1.91億美元用于計算。2017年訓練最初的Transformer模型的成本僅為約900美元。
而現(xiàn)在,小模型成了AI公司們降本增效的利器。
掀起新一輪價格戰(zhàn)前,OpenAI先手開卷小模型。7月18日,OpenAI發(fā)布小模型GPT-4o mini,并稱其為“迄今為止最具成本效益的小模型”,正是上周(北京時間7月25日凌晨)宣布免費使用的GPT-4o mini微調(diào)版的真身;蘋果公司在Hugging Face上發(fā)布了DCLM-7B開源小模型;不久后,英偉達和法國明星AI獨角獸Mistral聯(lián)合發(fā)布了名為Mistral NeMo的小模型,稱可以直接替換任何使用Mistral 7B的系統(tǒng)。
小模型,通俗來說就是比大模型處理數(shù)據(jù)能力略小的模型,可以理解為mini版的大模型。在AI領(lǐng)域,參數(shù)規(guī)模越大,大模型學習能力越強,諸如GPT-4這些模型通常擁有數(shù)十億甚至數(shù)百億的參數(shù)。然而據(jù)OpenAI介紹,小模型GPT-4o mini在MMLU上的得分為82%,甚至某些表現(xiàn)優(yōu)于大模型GPT-4。
對大部分用戶來說,小模型是大模型的“平替”,極具性價比。盡管小模型在處理復雜任務上不具優(yōu)勢,但在小任務上具備更快的推理能力。同時對計算機存儲需求也更小,耗能也更小。根據(jù)各公司的大、小模型產(chǎn)品對比來看,小模型價格較低。根據(jù)Artificial Analysis的統(tǒng)計,美國AI公司主流“小模型”中,GPT-4o mini的價格最低,在無需處理復雜任務的“普通用戶”中或許將更受歡迎。
低價來自成本的降低。阿爾特曼在推特上發(fā)文指出,2022年世界上最好的模型text-davinci-003,它比GPT-4o mini差得多,但成本要貴上100多倍。這一波OpenAI搶先布局小模型,就是想通過顯著降低AI使用成本,擴大AI使用范圍。
來源:阿爾特曼推特截圖
低成本、低性價比、更廣用戶適配度,小模型不僅能成為AI公司們to C端的有力手段,更是AI價格戰(zhàn)的應對神器,或?qū)⒊蔀橄乱粋€新風口。
今年年初,2024百度AI開發(fā)者大會上,李彥宏提出未來大型的AI原生應用都是大小模型的混用。他還表示,用戶基于百度文心4.0,可以靈活剪裁出適用于不同場景的小尺寸模型,“在一些特定場景中,經(jīng)過精調(diào)后的小模型,其使用效果甚至可以媲美大模型。”
國外GPT-4o、Llama 3.1輪番轟炸,國內(nèi)“千模大戰(zhàn)”大浪淘沙,無論開源還是閉源,高價還是低價、大模型還是小模型,這波AI浪潮最后的勝者還未顯現(xiàn)。
參考資料:
扎克伯格《Open Source AI is the Path Forward》,原文鏈接:https://www.facebook.com/zuck
Meta《Meta Large Language Model Compiler: Foundation Models of Compiler Optimization》,原文鏈接:https://ai.meta.com/research/publications/meta-large-language-model-compiler-foundation-models-of-compiler-optimization/
《硅谷AI保衛(wèi)戰(zhàn)打響!最強4050億開源模型Llama 3.1上線,OpenAI:GPT-4o mini免費用》,鈦媒體
本文鏈接:http://www.albanygandhi.com/news-23-463.html馬斯克力挺扎克伯格,OpenAI“0元”應戰(zhàn)
聲明:本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。
關(guān)于開展國家中小企業(yè)公共服務示范平臺服務情況檢查工作的通知
【申報】關(guān)于征集朝陽區(qū)數(shù)據(jù)要素生態(tài)合作伙伴的通知
新能源汽車車輛購置稅減免政策技術(shù)要求調(diào)整
【解讀】《關(guān)于施行修改后的專利法及其實施細則相關(guān)審查業(yè)務處理的過渡辦法》解讀
關(guān)于印發(fā)《科技倫理審查辦法(試行)》的通知(國科發(fā)監(jiān)〔2023〕167號)
兩部門印發(fā)《意見》 促進制造業(yè)中試創(chuàng)新發(fā)展
能解國際奧數(shù)競賽題的AI系統(tǒng)問世 接近人類破解復雜邏輯問題的最高水平
【征集】關(guān)于組織開展“無廢園區(qū)”“無廢企業(yè)”典型案例征集工作的通知(工信廳聯(lián)節(jié)函〔2024〕16號)
【解讀】《推動北京餐飲業(yè)高質(zhì)量發(fā)展加快打造國際美食之都行動方案》
北京市2024年度建設用地供應計劃
稱贊:套白條的商家聯(lián)系方法,一招教你轉(zhuǎn)到余額里
如登春臺:杭州西湖區(qū)代還信用卡可長期幫還,需要的請聯(lián)系
勤學不輟:摘抄復述:雪茄鴨嘴獸一次性哪里可以買到,推薦這十個地方看看
鍥而不舍:教你拼多多先用后付怎么套出來(2025所有方法已更新)
最新詳解:京東白條的錢怎么提現(xiàn)到微信(精彩絕倫,建議反復觀看)-知者
喜笑顏開:深圳代還信用卡墊還,找我就可以了,值得信任
態(tài)度陳懇:白條怎么套出來現(xiàn)金,親測五種教程有效
全神貫注:羊小咩享花卡怎么套出現(xiàn)金,全新四個操作步驟
指定:羊小咩享花卡最新套法(附詳解操作方法和流程
小白必看:教你拼多多先用后付怎么套出來(五大提現(xiàn)方法)