前言
最近,我們準(zhǔn)備聯(lián)合一線的人工智能從業(yè)者,面向普通用戶(hù),做一系列直播活動(dòng)。這個(gè)活動(dòng)也是從我們自身需求出發(fā),希望能夠?qū)@個(gè)領(lǐng)域有一個(gè)系統(tǒng)、全面的了解,同時(shí)跟上人工智最前沿的技術(shù)、產(chǎn)業(yè)趨勢(shì)。
本周,這個(gè)領(lǐng)域的資深從業(yè)者馬驍騰進(jìn)行了第一次直播分享
主講人馬驍騰,利物浦大學(xué)碩士,大廠資深產(chǎn)品運(yùn)營(yíng)專(zhuān)家(快手,Opera,天工AI),近兩年轉(zhuǎn)向人工智能,是國(guó)內(nèi)前5的C端AI產(chǎn)品初始團(tuán)隊(duì)成員。
以下是這次直播的主要內(nèi)容摘要。
問(wèn):AI的起源
答:以一個(gè)講故事的方式跟大家展開(kāi),竟然是跟語(yǔ)言學(xué)家有關(guān)。
語(yǔ)言學(xué)家很早就開(kāi)始對(duì)AI進(jìn)行探索,最早人們與AI的交互,可以追溯到機(jī)器翻譯領(lǐng)域。谷歌翻譯可以算是早期AI的代表。機(jī)器翻譯能夠?qū)崿F(xiàn)不同語(yǔ)言之間的相互轉(zhuǎn)換,比如英語(yǔ)和中文的互譯。從最早基于規(guī)則的方法進(jìn)行翻譯,到后期統(tǒng)計(jì)機(jī)器翻譯(SMT),再到如今神經(jīng)機(jī)器翻譯(NMT),翻譯與AI一直處于相輔相成的關(guān)系。
語(yǔ)言學(xué)為AI奠定了堅(jiān)實(shí)的理論基礎(chǔ)。句法結(jié)構(gòu)和語(yǔ)義理解是自然語(yǔ)言處理的關(guān)鍵要素,這些理論持續(xù)為模型設(shè)計(jì)提供指導(dǎo)。例如,Transformer模型中的注意力機(jī)制就是受到語(yǔ)言學(xué)的啟發(fā),模擬了人類(lèi)在處理語(yǔ)言時(shí)對(duì)關(guān)鍵信息的聚焦能力。同時(shí),語(yǔ)言學(xué)家對(duì)多義詞、歧義句等復(fù)雜語(yǔ)義現(xiàn)象的研究成果,也助力AI系統(tǒng)更好地應(yīng)對(duì)復(fù)雜的語(yǔ)言環(huán)境。
語(yǔ)言學(xué)與AI的深度融合正催生新的研究方向。神經(jīng)符號(hào)AI將符號(hào)邏輯與深度學(xué)習(xí)相結(jié)合,多模態(tài)翻譯則整合了文本、語(yǔ)音、圖像等多種信息形式。像百度智能文檔翻譯平臺(tái)支持版式還原,微軟Azure AI語(yǔ)音實(shí)現(xiàn)實(shí)時(shí)口譯,這些技術(shù)突破都是語(yǔ)言學(xué)家與工程師緊密合作的結(jié)晶。
Part 1
問(wèn):大模型的名字由來(lái)
答:大模型一般都是指大語(yǔ)言模型,英文名字LLM模型(Large Language Models,大語(yǔ)言模型)是一類(lèi)基于深度學(xué)習(xí)的人工智能模型,旨在處理和生成自然語(yǔ)言文本。
當(dāng)然除了大語(yǔ)言模型之外,還有就是像我們所說(shuō)的就是視頻模型。簡(jiǎn)單來(lái)講,大語(yǔ)言模型,然后之后衍生出來(lái)一系列模型,比如說(shuō)像文生圖,視頻就是我們還有音樂(lè)模型,但是說(shuō)這幾個(gè)模型的基礎(chǔ)都一定程度依賴(lài)于說(shuō)大語(yǔ)言模型的進(jìn)步,大語(yǔ)言模型的發(fā)展推動(dòng)了其他模型的發(fā)展。
![]()
問(wèn):大模型究竟是什么呢?
答:大模型理論基礎(chǔ)在于神經(jīng)網(wǎng)絡(luò)算法,這是一種力求讓計(jì)算機(jī)模仿人類(lèi)大腦運(yùn)作的理論,體現(xiàn)為一種算法,即一系列有條不紊的代碼序列。
更準(zhǔn)確地說(shuō),它旨在使計(jì)算機(jī)模擬人類(lèi)的思考與判斷過(guò)程。這一理論支撐下的大模型,其本質(zhì)是一種算法。語(yǔ)言學(xué)為其提供了認(rèn)知基礎(chǔ):當(dāng)我們學(xué)習(xí)語(yǔ)言,例如學(xué)習(xí)英語(yǔ),我們要學(xué)習(xí)單詞和語(yǔ)法,再到深入了解其文化,這一系列認(rèn)知步驟便構(gòu)成了一種方法論。大模型通過(guò)代碼將這一認(rèn)知過(guò)程實(shí)現(xiàn),實(shí)質(zhì)上是一系列有步驟、有方法論的代碼集合。
![]()
問(wèn):什么推動(dòng)了AI的進(jìn)展?
答:計(jì)算機(jī)學(xué)家和語(yǔ)言學(xué)家經(jīng)過(guò)深入思考,找到了一種讓機(jī)器更好地理解、處理語(yǔ)言的方法,最終形成了如今各種大模型的主流架構(gòu)算法,即Transformer。
這個(gè)架構(gòu)有些類(lèi)似于生物學(xué)上神經(jīng)網(wǎng)絡(luò)的概念。它由多層神經(jīng)網(wǎng)絡(luò)構(gòu)成,就像人腦擁有眾多神經(jīng)元一樣。這些神經(jīng)元進(jìn)行著信息的交互,每一層都有許多神經(jīng)元節(jié)點(diǎn)同時(shí)處理問(wèn)題,然后進(jìn)入下一層。這其中有著復(fù)雜的連接關(guān)系,以及靈活的架構(gòu)設(shè)計(jì)。
![]()
比如說(shuō),現(xiàn)場(chǎng)可能有學(xué)金融學(xué)的同學(xué)。如果我問(wèn)他銀行單利和復(fù)利是什么,他會(huì)在腦海中思考這個(gè)問(wèn)題。他會(huì)想起之前在哪本書(shū)上看到過(guò)相關(guān)內(nèi)容,然后從記憶深處整理出關(guān)于單利和復(fù)利的概念。這個(gè)過(guò)程包括輸入問(wèn)題、在隱層進(jìn)行思考和記憶檢索、最后輸出答案,這就是一個(gè)從輸入到輸出的過(guò)程,類(lèi)似于每個(gè)人每天思考問(wèn)題的方式。這也可以類(lèi)比為神經(jīng)元細(xì)胞的結(jié)構(gòu),它有一個(gè)輸入層,接收信息;然后是中間的隱層,代表思考過(guò)程;最后是輸出層,給出結(jié)果。
簡(jiǎn)單來(lái)說(shuō),大語(yǔ)言模型通過(guò)訓(xùn)練生成了一串有序的代碼,分步驟處理我們輸入的內(nèi)容。從輸入開(kāi)始,經(jīng)過(guò)檢索內(nèi)容、中間檢索過(guò)程,到最后輸出結(jié)果,這些內(nèi)容就是我們看到的大模型呈現(xiàn)給我們的答案。可以稱(chēng)之為一個(gè)“人造大腦”,參數(shù)構(gòu)成了這個(gè)“大腦”,參數(shù)越多,“大腦”就越大,可能也就越聰明,但同時(shí)需要的“營(yíng)養(yǎng)”也就越多,每次成長(zhǎng)都需要更多的資源。
現(xiàn)在我們會(huì)覺(jué)得Deepseek這類(lèi)大模型無(wú)所不知,基本上什么問(wèn)題都能回答。這是因?yàn)樵谟?xùn)練大模型時(shí),已經(jīng)將各個(gè)門(mén)類(lèi)、各個(gè)學(xué)科的知識(shí),包括互聯(lián)網(wǎng)上的知識(shí)、書(shū)本上的知識(shí)和專(zhuān)業(yè)領(lǐng)域的知識(shí)都喂給它。所以它就像人讀書(shū)一樣,基本上什么書(shū)都讀過(guò)并且記住了。
問(wèn):AI的終局是什么
答:終極目標(biāo)是能像人一樣自主思考、自主學(xué)習(xí)、自主解決新問(wèn)題的通用人工智能系統(tǒng)(Artificial General Intelligence,AGI)。就是說(shuō)通用人工智能夠像人一樣,就是做人能做的那些事情。比如現(xiàn)在仿生機(jī)器人能夠像人人去走,遇到石頭會(huì)躲避,遇到臺(tái)階會(huì)邁步,這就是說(shuō)現(xiàn)在的終局就是我們?cè)谕鵄GI的方向去發(fā)展。
問(wèn):算力是什么,為什么算力那么重要
答:算力可以看作是大模型的“營(yíng)養(yǎng)液”。就如同汽車(chē)需要汽油來(lái)提供動(dòng)力一樣,大腦也需要營(yíng)養(yǎng)供給才能思考。大模型要具備強(qiáng)大的學(xué)習(xí)和理解能力,首先需要構(gòu)建一個(gè)規(guī)模龐大的模型結(jié)構(gòu),使其擁有足夠的“算力”,也就是大模型的“營(yíng)養(yǎng)”。當(dāng)面對(duì)各種復(fù)雜問(wèn)題時(shí),它就能憑借這顆“聰明”且“容量極大”的“大腦”進(jìn)行處理,并返回高質(zhì)量的答案。
舉個(gè)例子,人在疲憊的時(shí)候往往就不愿意去思考了。大模型也是如此,只有擁有更巨大的算力,也就是充足的“營(yíng)養(yǎng)”,它才能持續(xù)不斷地進(jìn)行思考,并且還可以自行進(jìn)行優(yōu)化和調(diào)整。所以說(shuō),算力對(duì)于大模型而言,就如同營(yíng)養(yǎng)對(duì)于大腦一樣重要,是不可或缺的支撐。
Part 2
問(wèn):AI和Chatgpt之間是什么關(guān)系?
答:Chatgpt可以被視為AI的代表之一。打個(gè)比方,將AI看作一個(gè)類(lèi)似“智能手機(jī)”這樣的通用名詞。那么Chatgpt就像是早期版本的iPhone——比如iPhone 4,是當(dāng)時(shí)智能機(jī)領(lǐng)域的先驅(qū)之一。而DeepSeek則可能類(lèi)似于華為Mate系列等其他品牌的智能機(jī)。因此,它們都是AI大模型或所謂大語(yǔ)言模型的典型代表。
GPT全稱(chēng)Generative Pre-trained Transformer,即生成式預(yù)訓(xùn)練變換模型。這個(gè)名字聽(tīng)起來(lái)很復(fù)雜,但實(shí)際上它指的是一種能夠通過(guò)預(yù)先學(xué)習(xí)大量數(shù)據(jù)來(lái)生成新內(nèi)容的AI技術(shù)。其中,“Generative”表明這是一種具有創(chuàng)造性的AI,可以根據(jù)已有的信息創(chuàng)造出全新的內(nèi)容。
Pre-trained就是我們經(jīng)常聽(tīng)到的“預(yù)訓(xùn)練”,這意味著會(huì)先讓模型學(xué)習(xí)大量的書(shū)籍和資料,開(kāi)發(fā)人員會(huì)不斷地監(jiān)督大模型的學(xué)習(xí)過(guò)程,并通過(guò)人類(lèi)的反饋來(lái)加強(qiáng)其學(xué)習(xí)能力。具體來(lái)說(shuō),就是讓它閱讀很多書(shū),然后像考試一樣提問(wèn),答對(duì)了就給予肯定,錯(cuò)了就指出并糾正。這個(gè)過(guò)程類(lèi)似于學(xué)生從小學(xué)讀到研究生,不斷積累知識(shí)直到達(dá)到各個(gè)領(lǐng)域都有很高的準(zhǔn)確率。
Transformer這里指的特定的神經(jīng)網(wǎng)絡(luò)架構(gòu)算法,使模型能夠理解和處理各種問(wèn)題。這相當(dāng)于第一次實(shí)現(xiàn)了真正意義上的生成式AI,是一個(gè)重大的進(jìn)步。
![]()
在Chatgpt之后,許多中國(guó)公司紛紛效仿這種方法,自己開(kāi)發(fā)算法架構(gòu)并進(jìn)行訓(xùn)練,推出了如文心一言、豆包等不同的大模型。這些模型的訓(xùn)練方式基本相同,起初都是基于Chatgpt公開(kāi)的研究論文,當(dāng)然也不乏研究過(guò)程中的改進(jìn)。
在訓(xùn)練大模型的過(guò)程中,需要大量的標(biāo)注人員為模型提供準(zhǔn)確的信息,并對(duì)模型的回答進(jìn)行評(píng)分,以不斷提高其準(zhǔn)確性和質(zhì)量。最初的時(shí)候,模型的回答可能比較生硬“不說(shuō)人話(huà)”,但隨著時(shí)間的推移和持續(xù)的優(yōu)化,它們變得越來(lái)越流暢自然。
AI的一個(gè)重要能力就是能夠生成內(nèi)容,包括語(yǔ)義、語(yǔ)音以及圖像和視頻等多種形式。然而,對(duì)于單純的文本生成而言,現(xiàn)有的大語(yǔ)言模型已經(jīng)做得相當(dāng)不錯(cuò);但要生成圖像或視頻,則需要額外的架構(gòu)支持。這就是為什么發(fā)布的Sora模型引起了廣泛關(guān)注的原因——它試圖在大型語(yǔ)言模型的基礎(chǔ)上進(jìn)一步拓展到多媒體領(lǐng)域。
![]()
自然語(yǔ)言處理是指讓機(jī)器能夠理解和生成人類(lèi)的語(yǔ)言。無(wú)論是輸入中文,英文還是什么語(yǔ)言,AI都能相應(yīng)地給出回應(yīng);乃至于代碼的生成,可以理解代碼是計(jì)算機(jī)語(yǔ)言,也是仿照人類(lèi)語(yǔ)言邏輯。
在實(shí)際應(yīng)用方面,醫(yī)療領(lǐng)域是目前最熱門(mén)的方向之一。例如,百川智能正在開(kāi)展針對(duì)兒童疾病的在線問(wèn)診服務(wù)。這類(lèi)應(yīng)用專(zhuān)門(mén)針對(duì)特定領(lǐng)域進(jìn)行了深入研究和發(fā)展,為用戶(hù)提供專(zhuān)業(yè)的診斷建議和健康咨詢(xún)等服務(wù)。總之,目前我們?cè)谵k公、教育、娛樂(lè)等多個(gè)領(lǐng)域都看到了AI技術(shù)的廣泛應(yīng)用和發(fā)展。
Part 3
問(wèn):Deepseek為啥神奇,突然間全民接入Deepseek?
答:個(gè)人認(rèn)為DeepSeek可以是國(guó)產(chǎn)之光,點(diǎn)贊創(chuàng)新精神,是一款更懂中國(guó)人和國(guó)情的大模型。它有以下三個(gè)顯著特點(diǎn):
開(kāi)源:DeepSeek選擇開(kāi)源,這意味著它的代碼和技術(shù)細(xì)節(jié)對(duì)所有開(kāi)發(fā)者開(kāi)放。開(kāi)源策略不僅促進(jìn)了技術(shù)的共享和交流,也使得更多的開(kāi)發(fā)者能夠參與到模型的優(yōu)化和定制中,從而推動(dòng)了整個(gè)行業(yè)的進(jìn)步。
性能優(yōu)異:DeepSeek在性能方面表現(xiàn)出色,無(wú)論是處理速度還是準(zhǔn)確性都達(dá)到了較高水平。這使得它在各種應(yīng)用場(chǎng)景中都能展現(xiàn)出強(qiáng)大的實(shí)力,滿(mǎn)足用戶(hù)的不同需求。
成本低廉:DeepSeek的訓(xùn)練成本和使用成本都相對(duì)較低。這得益于其高效的算法和優(yōu)化的技術(shù)實(shí)現(xiàn),使得更多的企業(yè)和開(kāi)發(fā)者能夠承擔(dān)得起并應(yīng)用這款模型。同時(shí),低成本也意味著更高的性?xún)r(jià)比,為用戶(hù)帶來(lái)了更大的價(jià)值。
![]()
如下有些討論,其實(shí)是對(duì)一些誤區(qū)的澄清,
1. 說(shuō)DeepSeek比Chatgpt強(qiáng),比哪個(gè)GPT強(qiáng)?比的是什么方面?強(qiáng)在何處?
Chatgpt是大模型,是OpenAI的大家族之一,所以就是看大家族中的誰(shuí)和誰(shuí)比,跟小說(shuō)似的,大弟子對(duì)比大弟子,二弟子對(duì)比二弟子。
· 比的是推理模型,是DeepSeek-R1比OpenAI-o1,模型訓(xùn)練成本只有OpenAI的1/10,使用成本只有1/30。
· 比推理模型的原因,其實(shí)是往AGI 上更前進(jìn)了一步。
![]()
2. DeepSeek 國(guó)產(chǎn)之光,這個(gè)榮譽(yù)獎(jiǎng)勵(lì)的或者說(shuō)鼓勵(lì)的是什么?
首先回答一個(gè)問(wèn)題,DeepSeek的創(chuàng)新是從0到1的顛覆式創(chuàng)新嗎?
這個(gè)不是的。是1-n上的創(chuàng)新,原有算法基礎(chǔ)上的部分算法創(chuàng)新,系統(tǒng)性的工程創(chuàng)新。這個(gè)可以有三點(diǎn)解釋
a.模型架構(gòu)環(huán)節(jié):大為優(yōu)化的Transformer + MOE組合架構(gòu)
降低成本:這兩個(gè)技術(shù)都是谷歌率先提出并采用的,但DeepSeek用它們?cè)O(shè)計(jì)自己的模型時(shí)做了巨大優(yōu)化,并且首次在模型中引入多頭潛在注意力機(jī)制(Multi-head Latent Attention,MLA),從而大大降低了算力和存儲(chǔ)資源的消耗。
普通人能聽(tīng)懂的:激活大腦中的一部分功能來(lái)解決問(wèn)題,不需要牽一發(fā)而動(dòng)全身,這樣減少了計(jì)算量,減少了消耗。
b.模型訓(xùn)練環(huán)節(jié):FP8混合精度訓(xùn)練框架
提升速度:傳統(tǒng)上,大模型訓(xùn)練使用32位浮點(diǎn)數(shù)(FP32)格式來(lái)做計(jì)算和存儲(chǔ),這能保證精度,但計(jì)算速度慢、存儲(chǔ)空間占用大。如何在計(jì)算成本和計(jì)算精度之間求得平衡,一直是業(yè)界難題。2022年,英偉達(dá)、Arm和英特爾一起,最早提出8位浮點(diǎn)數(shù)格式(FP8),但因?yàn)槊绹?guó)公司不缺算力,該技術(shù)淺嘗輒止。DeepSeek則構(gòu)建了FP8 混合精度訓(xùn)練框架,根據(jù)不同的計(jì)算任務(wù)和數(shù)據(jù)特點(diǎn),動(dòng)態(tài)選擇FP8或 FP32 精度來(lái)進(jìn)行計(jì)算,把訓(xùn)練速度提高了50%,內(nèi)存占用降低了40%。
普通人能聽(tīng)懂的:舉個(gè)例子,算數(shù)學(xué) 11.11111111111×12.121212121212,算起來(lái)很復(fù)雜,而且結(jié)果也很長(zhǎng),簡(jiǎn)化一下,算11×12,口算基本上就能得到131,但是這個(gè)是相似值,如何又能保留更精準(zhǔn)的呢,算11.11 ×12.12 還是11.1111×12.1212,哪個(gè)能滿(mǎn)足最低精度要求即可。
c.算法環(huán)節(jié):新的強(qiáng)化學(xué)習(xí)算法GRPO
進(jìn)化速度更快,未來(lái)可期:強(qiáng)化學(xué)習(xí)的目的是讓計(jì)算機(jī)在沒(méi)有明確人類(lèi)編程指令的情況下自主學(xué)習(xí)、自主完成任務(wù),是通往通用人工智能的重要方法。強(qiáng)化學(xué)習(xí)起初由谷歌引領(lǐng),訓(xùn)練AlphaGo時(shí)就使用了強(qiáng)化學(xué)習(xí)算法,但是OpenAI后來(lái)居上,2015年和2017年接連推出兩種新算法TRPO(Trust Region Policy Optimization,信任區(qū)域策略?xún)?yōu)化)和PPO (Proximal Policy Optimization,近端策略?xún)?yōu)化),DeepSeek更上層樓,推出新的強(qiáng)化學(xué)習(xí)算法GRPO( Group Relative Policy Optimization 組相對(duì)策略?xún)?yōu)化),在顯著降低計(jì)算成本的同時(shí),還提高了模型的訓(xùn)練效率。 (GRPO算法公式。Source:DeepSeek-R1論文)
普通人能聽(tīng)懂的:算法的優(yōu)化,就是一個(gè)方法的優(yōu)化,節(jié)省步驟。原來(lái)完成一個(gè)事情需要a-b-c-d-e 5個(gè)步驟,現(xiàn)在可能是a-c-e 或 a-f-e 或 a-b-f,也可以到達(dá),甚至到達(dá)的更遠(yuǎn)。
3.中美大模型差異有多大,一開(kāi)始有多大,現(xiàn)在有多大,未來(lái)有多大?
還是很大,現(xiàn)在是中國(guó)取得階段性成果,美國(guó)暫時(shí)領(lǐng)先,還在激烈追趕中。
誰(shuí)是玩家
DeepSeek+Kimi+阿里,百度,字節(jié)等 vs OpenAI,Anthropic、谷歌、Meta、xAI 等
4.未來(lái)決定性因素
現(xiàn)在來(lái)講,人和創(chuàng)新精神是很重要的,但是芯片也是很重要的,就看誰(shuí)能夠在后續(xù)的推理模型中持續(xù)的去進(jìn)行創(chuàng)新,繼續(xù)的去發(fā)布出來(lái)更好的模型,所以Deepseek問(wèn)世之后,可以標(biāo)志著大模型的角逐由上半場(chǎng)轉(zhuǎn)到下半場(chǎng)。
這里分享一句話(huà)共勉:
迫不得已是創(chuàng)新之母
The necessity is the mother of the invention
總體來(lái)說(shuō),DeepSeek的諸多創(chuàng)新在很大程度上來(lái)自于芯片受限所帶來(lái)的挑戰(zhàn)。由于只能使用性能相對(duì)較低的H800芯片進(jìn)行訓(xùn)練,DeepSeek被迫在算法層面進(jìn)行深度優(yōu)化,以彌補(bǔ)算力的不足。這些創(chuàng)新使得模型更加輕量化,不僅減少了代碼的冗余,還提高了能耗效率,使得在計(jì)算資源有限的情況下也能高效運(yùn)行。
更重要的是,DeepSeek符合國(guó)內(nèi)的法律法規(guī)要求,并在訓(xùn)練過(guò)程中針對(duì)國(guó)內(nèi)網(wǎng)絡(luò)和互聯(lián)網(wǎng)監(jiān)管進(jìn)行了適配。這使得其輸出內(nèi)容完全符合國(guó)內(nèi)的信息監(jiān)管標(biāo)準(zhǔn),為國(guó)內(nèi)用戶(hù)提供了更加安全、合規(guī)的服務(wù)。相比之下,雖然Chatgpt等模型也表現(xiàn)出色,但在國(guó)內(nèi)可能面臨合規(guī)性問(wèn)題。而DeepSeek則通過(guò)其獨(dú)特的優(yōu)勢(shì),特別是針對(duì)中文場(chǎng)景的優(yōu)化和合規(guī)性設(shè)計(jì),使其更加貼近國(guó)內(nèi)用戶(hù)的需求,從而在國(guó)內(nèi)市場(chǎng)如驚雷般響徹東西南北。
Part 4
問(wèn):AI會(huì)給原有機(jī)器人領(lǐng)域帶來(lái)什么變化?
答:AI和機(jī)器人的結(jié)合正在逐漸加強(qiáng)。簡(jiǎn)單來(lái)說(shuō),可以把AI看成是一種軟件,AI技術(shù)如計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理是核心,它們的發(fā)展推動(dòng)了機(jī)器人技術(shù)的智能化,使機(jī)器人能夠自主決策。這就是未來(lái)五年內(nèi),甚至更長(zhǎng)時(shí)間的發(fā)展趨勢(shì)。
如今,機(jī)器狗等機(jī)器人產(chǎn)品已經(jīng)在市場(chǎng)上銷(xiāo)售,價(jià)格逐漸親民,使得更多行業(yè)能夠承擔(dān)得起并應(yīng)用這些技術(shù)。在泰山等景區(qū),機(jī)器狗已經(jīng)被用于搬運(yùn)行李等任務(wù)。這不僅展示了AI技術(shù)在推動(dòng)機(jī)器人領(lǐng)域發(fā)展方面的巨大潛力,也預(yù)示著未來(lái)機(jī)器人將在更多領(lǐng)域得到廣泛應(yīng)用。
隨著AI行業(yè)的不斷發(fā)展,對(duì)機(jī)器人等硬件行業(yè)也有積極的帶動(dòng)。未來(lái),機(jī)器人領(lǐng)域?qū)⒂瓉?lái)更多的創(chuàng)新和突破,不僅在無(wú)人機(jī)、軍事等行業(yè)發(fā)揮重要作用,還將在服務(wù)業(yè)等民用領(lǐng)域越來(lái)越普及。例如,現(xiàn)在許多酒店已經(jīng)開(kāi)始使用機(jī)器人進(jìn)行送餐服務(wù),這種趨勢(shì)未來(lái)將會(huì)更加明顯。
Part 5
問(wèn):AI行業(yè)發(fā)展到哪個(gè)階段
答:在AI行業(yè)中,分層相對(duì)清晰。頭部玩家,即大型科技公司,他們擁有雄厚的資金和資源,專(zhuān)注于開(kāi)發(fā)自己的大模型,無(wú)論是大語(yǔ)言模型還是視頻模型。而中小科技公司則扮演著產(chǎn)品經(jīng)理的角色,將這些大模型包裝成產(chǎn)品,通過(guò)APP、網(wǎng)站或插件等形式,幫助用戶(hù)解決實(shí)際問(wèn)題。
在國(guó)內(nèi),像阿里這樣的頭部廠商已經(jīng)推出了一系列的大模型,形成了一個(gè)相對(duì)完整的布局。他們不僅在大語(yǔ)言模型和視頻模型領(lǐng)域有所建樹(shù),還擁有自己的品牌和產(chǎn)品體系。然而,這種趨勢(shì)也可能導(dǎo)致國(guó)內(nèi)模型市場(chǎng)的壟斷。因此,中小科技公司通常會(huì)選擇開(kāi)發(fā)垂直領(lǐng)域的應(yīng)用,以差異化競(jìng)爭(zhēng)。
例如,百川醫(yī)療專(zhuān)注于醫(yī)療領(lǐng)域的痛點(diǎn)和需求,提供專(zhuān)業(yè)的解決方案;而微度科技則在視頻領(lǐng)域進(jìn)行深度開(kāi)發(fā)。這樣的分層和差異化發(fā)展,使得AI行業(yè)能夠更加健康、多元地發(fā)展。
Part 6
問(wèn):AI對(duì)于經(jīng)濟(jì)和社會(huì)的發(fā)展是積極的還是消極的?
答:AI時(shí)代的突然到來(lái),無(wú)疑會(huì)對(duì)各行各業(yè)產(chǎn)生深遠(yuǎn)影響。它不僅推動(dòng)了經(jīng)濟(jì)從要素驅(qū)動(dòng)向創(chuàng)新驅(qū)動(dòng)的轉(zhuǎn)變,這一轉(zhuǎn)變?cè)诮?jīng)濟(jì)學(xué)術(shù)語(yǔ)中常被稱(chēng)為“創(chuàng)新”,而且還提升了各行業(yè)的生產(chǎn)和運(yùn)營(yíng)效率,催生了新的產(chǎn)業(yè)形態(tài)和商業(yè)模式。
![]()
我經(jīng)常與同學(xué)們討論,AI時(shí)代的到來(lái)意味著什么。 如上表格是我問(wèn)AI(Chatgpt),回復(fù)說(shuō)AI將在2025年為全球經(jīng)濟(jì)GDP帶來(lái)約7%的增長(zhǎng),其中制造業(yè)受到的影響最為顯著,金融業(yè)、醫(yī)療、教育等領(lǐng)域也將經(jīng)歷深刻變革。我認(rèn)為,有時(shí)候向AI請(qǐng)教一些問(wèn)題是很好的,它能幫助我們對(duì)某些行業(yè)有更深入的了解。因此,如果未來(lái)大家想進(jìn)入AI領(lǐng)域,可以考慮這幾個(gè)方向。
AI時(shí)代也帶來(lái)了新興的就業(yè)機(jī)會(huì),但面對(duì)AI,我們可能需要掌握新的技能。然而,AI對(duì)社會(huì)而言,就像每個(gè)新技術(shù)的出現(xiàn)一樣,發(fā)展迅速并帶來(lái)社會(huì)變化。這是一個(gè)轉(zhuǎn)型期,但同時(shí)也伴隨著倫理和法律問(wèn)題。除了回答的幻覺(jué)問(wèn)題外,隱私和數(shù)據(jù)安全是大家關(guān)心的焦點(diǎn)。人們擔(dān)心AI廠家是否會(huì)全面了解個(gè)人信息,以及為什么需要進(jìn)行私有化部署,這些都與法律和倫理問(wèn)題緊密相關(guān)。
Part 7
問(wèn):AI 能幫我做什么
答:這取決于個(gè)人所處的行業(yè)。例如,你是從事自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué),還是專(zhuān)注于圖片或視頻領(lǐng)域?Midjourney 主要致力于圖片創(chuàng)作;在語(yǔ)音方面,像科大訊飛這類(lèi)公司則專(zhuān)注于語(yǔ)音對(duì)話(huà)技術(shù),或者涉及智能制造等領(lǐng)域。因此,大家首先要明確自己的行業(yè)歸屬,然后深入到相應(yīng)領(lǐng)域開(kāi)展工作。
對(duì)于個(gè)人而言,需要關(guān)注所在行業(yè)領(lǐng)域中哪些技術(shù)能夠?yàn)樽约禾峁椭1热缟虡I(yè)分析,需要搜集大量信息、進(jìn)行客戶(hù)服務(wù),以及制作相關(guān)圖表等,這些方面目前都有垂直領(lǐng)域的應(yīng)用在做,而且做得相當(dāng)不錯(cuò)。所以,互聯(lián)網(wǎng)公司在開(kāi)發(fā)應(yīng)用時(shí),也是沿著這個(gè)思路,思考自身能夠做什么,以及哪些地方存在用戶(hù)需求,進(jìn)而深入某個(gè)具體方向進(jìn)行研發(fā)。
以百川為例,它現(xiàn)在專(zhuān)門(mén)從事醫(yī)療問(wèn)診方面的業(yè)務(wù);再如商湯推出的小浣熊,主要是解決出圖表等問(wèn)題;還有一些專(zhuān)注于解決編程問(wèn)題的應(yīng)用。
Part 8
問(wèn):對(duì)于小公司或者說(shuō)工作室來(lái)講能做什么?
答:接入大模型后,我會(huì)迅速將其開(kāi)發(fā)成一個(gè)垂直領(lǐng)域的應(yīng)用,或者思考如何將其融入到我的業(yè)務(wù)中。在產(chǎn)品設(shè)計(jì)時(shí),避免堆砌過(guò)多功能,而是明確大模型在哪一方面的能力可以助我一臂之力,解決什么問(wèn)題。我沿著這個(gè)思路前行,不會(huì)盲目追求多功能,而是以智能為導(dǎo)向,不斷提升產(chǎn)品的智能化水平。這樣,我才能精準(zhǔn)地滿(mǎn)足用戶(hù)的需求,為用戶(hù)創(chuàng)造價(jià)值,進(jìn)而實(shí)現(xiàn)產(chǎn)品的定制化。
在中國(guó),由于企業(yè)眾多,大家的需求各不相同。因此,后續(xù)的定制化服務(wù)就顯得尤為重要。現(xiàn)在,有很多像我這樣的AI解決方案提供商,為不同的客戶(hù)提供多樣化的解決方案。
Part 9
從哪里可以獲得最新的AI應(yīng)用
AI 應(yīng)用,我們之前做調(diào)研是分了大概26個(gè)場(chǎng)景,有國(guó)外的,國(guó)內(nèi)的產(chǎn)品。場(chǎng)景在逐漸做細(xì)分。整體來(lái)講,國(guó)外的產(chǎn)品起步早,辦公領(lǐng)域比國(guó)內(nèi)產(chǎn)品做的完善一些,大多是需要魔法,像我用的那個(gè)Gamma,這就是一個(gè)專(zhuān)門(mén)的 PPT 生成的平臺(tái)。國(guó)內(nèi)產(chǎn)品大多簡(jiǎn)單好上手, APP 居多,以社交,視頻泛娛樂(lè)的為主。
推薦一個(gè)平臺(tái)ai-bot.cn AI 工具合集,這里就是把所有的市面上不止國(guó)內(nèi)還有海外所有的AI產(chǎn)品列出來(lái)了,這個(gè)可以直接去訪問(wèn)就可以了。對(duì)于個(gè)人來(lái)說(shuō),現(xiàn)在處于什么樣的行業(yè),或者說(shuō)你想關(guān)注什么樣的行業(yè),你就去這里邊去找對(duì)應(yīng)的AI產(chǎn)品,然后它能夠去幫助你,滿(mǎn)足你的需求。這里都有分類(lèi),分類(lèi)下選擇一個(gè)你喜歡的產(chǎn)品使用就可以了。
提問(wèn)和回答
問(wèn):
就能不能讓 AI 像個(gè)團(tuán)隊(duì)似的,多個(gè) agent搭配起來(lái)使用。問(wèn)一下像實(shí)現(xiàn)的方式,有什么推薦嗎?
答:
有的,除了直接使用現(xiàn)成產(chǎn)品的進(jìn)階版,就是剛才講就是有點(diǎn)像你剛才把各個(gè) agent串聯(lián)起來(lái),這就是工作流。可以重點(diǎn)關(guān)注一下字節(jié)的扣子平臺(tái),支持把 agent就是像一個(gè)流程一樣,一二三四這樣的去串聯(lián)起來(lái),可以自己定義。
總結(jié)與展望
今天的分享比較淺,希望大家可以知道AI行業(yè)發(fā)展的階段,然后怎么樣去找一些好的應(yīng)用。
核心是我們?cè)谟么竽P椭埃覀兿壤斫馐裁词谴竽P停缓笠怖斫饬薃I可以哪些行業(yè)結(jié)合,知道要做哪些知識(shí)儲(chǔ)備,可以更好地迎接未來(lái)變化。
然后下一次分享,會(huì)更干一些,現(xiàn)在講的什么叫蒸餾,什么是量化,基于今天的基礎(chǔ),講的更深度一些,就比如說(shuō)怎么去理解大模型的幻覺(jué),一些大模型私有化部署的產(chǎn)品方案。
下期劇透
從Ollama下載部署到本地電腦上的Deepseek大模型其實(shí)不是Deepseek-R1,其實(shí)部署的是一個(gè)蒸餾后的模型,全名是DeepSeek-R1-Distill-Qwen-7B。 Distill 是蒸餾的意思,就跟我們釀酒一樣,一大桶酒蒸餾出來(lái)小瓶酒,保留了它的原始風(fēng)味,體積更小。Qwen是阿里的大模型,然后7b 是7billion 參數(shù)(billion 十億)的一個(gè)縮寫(xiě),就相當(dāng)于Qwen-7B去學(xué)習(xí)Deepseek -R1 671b 的知識(shí),然后用到的是徒弟Qwen-7B這個(gè)模型。模型更小,還有部分能力。
下期活動(dòng)報(bào)名:
1. 活動(dòng)行報(bào)名繳費(fèi),留下正確的郵箱和手機(jī)號(hào)
2. 發(fā)送在線會(huì)議號(hào)到報(bào)名手機(jī)號(hào)
報(bào)名鏈接:
https://hdxu.cn/B7zp
二維碼和小程序碼
社群二維碼
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.