前言

最近,我們準備聯(lián)合一線的人工智能從業(yè)者,面向普通用戶,做一系列直播活動。這個活動也是從我們自身需求出發(fā),希望能夠?qū)@個領(lǐng)域有一個系統(tǒng)、全面的了解,同時跟上人工智最前沿的技術(shù)、產(chǎn)業(yè)趨勢。

本周,這個領(lǐng)域的資深從業(yè)者馬驍騰進行了第一次直播分享

主講人馬驍騰,利物浦大學(xué)碩士,大廠資深產(chǎn)品運營專家(快手,Opera,天工AI),近兩年轉(zhuǎn)向人工智能,是國內(nèi)前5的C端AI產(chǎn)品初始團隊成員。

以下是這次直播的主要內(nèi)容摘要。

問:AI的起源

答:以一個講故事的方式跟大家展開,竟然是跟語言學(xué)家有關(guān)。

語言學(xué)家很早就開始對AI進行探索,最早人們與AI的交互,可以追溯到機器翻譯領(lǐng)域。谷歌翻譯可以算是早期AI的代表。機器翻譯能夠?qū)崿F(xiàn)不同語言之間的相互轉(zhuǎn)換,比如英語和中文的互譯。從最早基于規(guī)則的方法進行翻譯,到后期統(tǒng)計機器翻譯(SMT),再到如今神經(jīng)機器翻譯(NMT),翻譯與AI一直處于相輔相成的關(guān)系。

語言學(xué)為AI奠定了堅實的理論基礎(chǔ)。句法結(jié)構(gòu)和語義理解是自然語言處理的關(guān)鍵要素,這些理論持續(xù)為模型設(shè)計提供指導(dǎo)。例如,Transformer模型中的注意力機制就是受到語言學(xué)的啟發(fā),模擬了人類在處理語言時對關(guān)鍵信息的聚焦能力。同時,語言學(xué)家對多義詞、歧義句等復(fù)雜語義現(xiàn)象的研究成果,也助力AI系統(tǒng)更好地應(yīng)對復(fù)雜的語言環(huán)境。

語言學(xué)與AI的深度融合正催生新的研究方向。神經(jīng)符號AI將符號邏輯與深度學(xué)習(xí)相結(jié)合,多模態(tài)翻譯則整合了文本、語音、圖像等多種信息形式。像百度智能文檔翻譯平臺支持版式還原,微軟Azure AI語音實現(xiàn)實時口譯,這些技術(shù)突破都是語言學(xué)家與工程師緊密合作的結(jié)晶。

Part 1

問:大模型的名字由來

答:大模型一般都是指大語言模型,英文名字LLM模型(Large Language Models,大語言模型)是一類基于深度學(xué)習(xí)的人工智能模型,旨在處理和生成自然語言文本。

當然除了大語言模型之外,還有就是像我們所說的就是視頻模型。簡單來講,大語言模型,然后之后衍生出來一系列模型,比如說像文生圖,視頻就是我們還有音樂模型,但是說這幾個模型的基礎(chǔ)都一定程度依賴于說大語言模型的進步,大語言模型的發(fā)展推動了其他模型的發(fā)展。

打開網(wǎng)易新聞 查看精彩圖片

問:大模型究竟是什么呢?

答:大模型理論基礎(chǔ)在于神經(jīng)網(wǎng)絡(luò)算法,這是一種力求讓計算機模仿人類大腦運作的理論,體現(xiàn)為一種算法,即一系列有條不紊的代碼序列。

更準確地說,它旨在使計算機模擬人類的思考與判斷過程。這一理論支撐下的大模型,其本質(zhì)是一種算法。語言學(xué)為其提供了認知基礎(chǔ):當我們學(xué)習(xí)語言,例如學(xué)習(xí)英語,我們要學(xué)習(xí)單詞和語法,再到深入了解其文化,這一系列認知步驟便構(gòu)成了一種方法論。大模型通過代碼將這一認知過程實現(xiàn),實質(zhì)上是一系列有步驟、有方法論的代碼集合。

打開網(wǎng)易新聞 查看精彩圖片

問:什么推動了AI的進展?

答:計算機學(xué)家和語言學(xué)家經(jīng)過深入思考,找到了一種讓機器更好地理解、處理語言的方法,最終形成了如今各種大模型的主流架構(gòu)算法,即Transformer。

這個架構(gòu)有些類似于生物學(xué)上神經(jīng)網(wǎng)絡(luò)的概念。它由多層神經(jīng)網(wǎng)絡(luò)構(gòu)成,就像人腦擁有眾多神經(jīng)元一樣。這些神經(jīng)元進行著信息的交互,每一層都有許多神經(jīng)元節(jié)點同時處理問題,然后進入下一層。這其中有著復(fù)雜的連接關(guān)系,以及靈活的架構(gòu)設(shè)計。

打開網(wǎng)易新聞 查看精彩圖片

比如說,現(xiàn)場可能有學(xué)金融學(xué)的同學(xué)。如果我問他銀行單利和復(fù)利是什么,他會在腦海中思考這個問題。他會想起之前在哪本書上看到過相關(guān)內(nèi)容,然后從記憶深處整理出關(guān)于單利和復(fù)利的概念。這個過程包括輸入問題、在隱層進行思考和記憶檢索、最后輸出答案,這就是一個從輸入到輸出的過程,類似于每個人每天思考問題的方式。這也可以類比為神經(jīng)元細胞的結(jié)構(gòu),它有一個輸入層,接收信息;然后是中間的隱層,代表思考過程;最后是輸出層,給出結(jié)果。

簡單來說,大語言模型通過訓(xùn)練生成了一串有序的代碼,分步驟處理我們輸入的內(nèi)容。從輸入開始,經(jīng)過檢索內(nèi)容、中間檢索過程,到最后輸出結(jié)果,這些內(nèi)容就是我們看到的大模型呈現(xiàn)給我們的答案。可以稱之為一個“人造大腦”,參數(shù)構(gòu)成了這個“大腦”,參數(shù)越多,“大腦”就越大,可能也就越聰明,但同時需要的“營養(yǎng)”也就越多,每次成長都需要更多的資源。

現(xiàn)在我們會覺得Deepseek這類大模型無所不知,基本上什么問題都能回答。這是因為在訓(xùn)練大模型時,已經(jīng)將各個門類、各個學(xué)科的知識,包括互聯(lián)網(wǎng)上的知識、書本上的知識和專業(yè)領(lǐng)域的知識都喂給它。所以它就像人讀書一樣,基本上什么書都讀過并且記住了。

問:AI的終局是什么

答:終極目標是能像人一樣自主思考、自主學(xué)習(xí)、自主解決新問題的通用人工智能系統(tǒng)(Artificial General Intelligence,AGI)。就是說通用人工智能夠像人一樣,就是做人能做的那些事情。比如現(xiàn)在仿生機器人能夠像人人去走,遇到石頭會躲避,遇到臺階會邁步,這就是說現(xiàn)在的終局就是我們在往AGI的方向去發(fā)展。

問:算力是什么,為什么算力那么重要

答:算力可以看作是大模型的“營養(yǎng)液”。就如同汽車需要汽油來提供動力一樣,大腦也需要營養(yǎng)供給才能思考。大模型要具備強大的學(xué)習(xí)和理解能力,首先需要構(gòu)建一個規(guī)模龐大的模型結(jié)構(gòu),使其擁有足夠的“算力”,也就是大模型的“營養(yǎng)”。當面對各種復(fù)雜問題時,它就能憑借這顆“聰明”且“容量極大”的“大腦”進行處理,并返回高質(zhì)量的答案。

舉個例子,人在疲憊的時候往往就不愿意去思考了。大模型也是如此,只有擁有更巨大的算力,也就是充足的“營養(yǎng)”,它才能持續(xù)不斷地進行思考,并且還可以自行進行優(yōu)化和調(diào)整。所以說,算力對于大模型而言,就如同營養(yǎng)對于大腦一樣重要,是不可或缺的支撐。

Part 2

問:AI和Chatgpt之間是什么關(guān)系?

答:Chatgpt可以被視為AI的代表之一。打個比方,將AI看作一個類似“智能手機”這樣的通用名詞。那么Chatgpt就像是早期版本的iPhone——比如iPhone 4,是當時智能機領(lǐng)域的先驅(qū)之一。而DeepSeek則可能類似于華為Mate系列等其他品牌的智能機。因此,它們都是AI大模型或所謂大語言模型的典型代表。

GPT全稱Generative Pre-trained Transformer,即生成式預(yù)訓(xùn)練變換模型。這個名字聽起來很復(fù)雜,但實際上它指的是一種能夠通過預(yù)先學(xué)習(xí)大量數(shù)據(jù)來生成新內(nèi)容的AI技術(shù)。其中,“Generative”表明這是一種具有創(chuàng)造性的AI,可以根據(jù)已有的信息創(chuàng)造出全新的內(nèi)容。

Pre-trained就是我們經(jīng)常聽到的“預(yù)訓(xùn)練”,這意味著會先讓模型學(xué)習(xí)大量的書籍和資料,開發(fā)人員會不斷地監(jiān)督大模型的學(xué)習(xí)過程,并通過人類的反饋來加強其學(xué)習(xí)能力。具體來說,就是讓它閱讀很多書,然后像考試一樣提問,答對了就給予肯定,錯了就指出并糾正。這個過程類似于學(xué)生從小學(xué)讀到研究生,不斷積累知識直到達到各個領(lǐng)域都有很高的準確率。

Transformer這里指的特定的神經(jīng)網(wǎng)絡(luò)架構(gòu)算法,使模型能夠理解和處理各種問題。這相當于第一次實現(xiàn)了真正意義上的生成式AI,是一個重大的進步。

打開網(wǎng)易新聞 查看精彩圖片

在Chatgpt之后,許多中國公司紛紛效仿這種方法,自己開發(fā)算法架構(gòu)并進行訓(xùn)練,推出了如文心一言、豆包等不同的大模型。這些模型的訓(xùn)練方式基本相同,起初都是基于Chatgpt公開的研究論文,當然也不乏研究過程中的改進。

在訓(xùn)練大模型的過程中,需要大量的標注人員為模型提供準確的信息,并對模型的回答進行評分,以不斷提高其準確性和質(zhì)量。最初的時候,模型的回答可能比較生硬“不說人話”,但隨著時間的推移和持續(xù)的優(yōu)化,它們變得越來越流暢自然。

AI的一個重要能力就是能夠生成內(nèi)容,包括語義、語音以及圖像和視頻等多種形式。然而,對于單純的文本生成而言,現(xiàn)有的大語言模型已經(jīng)做得相當不錯;但要生成圖像或視頻,則需要額外的架構(gòu)支持。這就是為什么發(fā)布的Sora模型引起了廣泛關(guān)注的原因——它試圖在大型語言模型的基礎(chǔ)上進一步拓展到多媒體領(lǐng)域。

打開網(wǎng)易新聞 查看精彩圖片

自然語言處理是指讓機器能夠理解和生成人類的語言。無論是輸入中文,英文還是什么語言,AI都能相應(yīng)地給出回應(yīng);乃至于代碼的生成,可以理解代碼是計算機語言,也是仿照人類語言邏輯。

在實際應(yīng)用方面,醫(yī)療領(lǐng)域是目前最熱門的方向之一。例如,百川智能正在開展針對兒童疾病的在線問診服務(wù)。這類應(yīng)用專門針對特定領(lǐng)域進行了深入研究和發(fā)展,為用戶提供專業(yè)的診斷建議和健康咨詢等服務(wù)??傊?,目前我們在辦公、教育、娛樂等多個領(lǐng)域都看到了AI技術(shù)的廣泛應(yīng)用和發(fā)展。

Part 3

問:Deepseek為啥神奇,突然間全民接入Deepseek?

答:個人認為DeepSeek可以是國產(chǎn)之光,點贊創(chuàng)新精神,是一款更懂中國人和國情的大模型。它有以下三個顯著特點:

開源:DeepSeek選擇開源,這意味著它的代碼和技術(shù)細節(jié)對所有開發(fā)者開放。開源策略不僅促進了技術(shù)的共享和交流,也使得更多的開發(fā)者能夠參與到模型的優(yōu)化和定制中,從而推動了整個行業(yè)的進步。

性能優(yōu)異:DeepSeek在性能方面表現(xiàn)出色,無論是處理速度還是準確性都達到了較高水平。這使得它在各種應(yīng)用場景中都能展現(xiàn)出強大的實力,滿足用戶的不同需求。

成本低廉:DeepSeek的訓(xùn)練成本和使用成本都相對較低。這得益于其高效的算法和優(yōu)化的技術(shù)實現(xiàn),使得更多的企業(yè)和開發(fā)者能夠承擔(dān)得起并應(yīng)用這款模型。同時,低成本也意味著更高的性價比,為用戶帶來了更大的價值。

打開網(wǎng)易新聞 查看精彩圖片

如下有些討論,其實是對一些誤區(qū)的澄清,

1. 說DeepSeek比Chatgpt強,比哪個GPT強?比的是什么方面?強在何處?

Chatgpt是大模型,是OpenAI的大家族之一,所以就是看大家族中的誰和誰比,跟小說似的,大弟子對比大弟子,二弟子對比二弟子。

· 比的是推理模型,是DeepSeek-R1比OpenAI-o1,模型訓(xùn)練成本只有OpenAI的1/10,使用成本只有1/30。

· 比推理模型的原因,其實是往AGI 上更前進了一步。

打開網(wǎng)易新聞 查看精彩圖片

2. DeepSeek 國產(chǎn)之光,這個榮譽獎勵的或者說鼓勵的是什么?

首先回答一個問題,DeepSeek的創(chuàng)新是從0到1的顛覆式創(chuàng)新嗎?

這個不是的。是1-n上的創(chuàng)新,原有算法基礎(chǔ)上的部分算法創(chuàng)新,系統(tǒng)性的工程創(chuàng)新。這個可以有三點解釋

a.模型架構(gòu)環(huán)節(jié):大為優(yōu)化的Transformer + MOE組合架構(gòu)

降低成本:這兩個技術(shù)都是谷歌率先提出并采用的,但DeepSeek用它們設(shè)計自己的模型時做了巨大優(yōu)化,并且首次在模型中引入多頭潛在注意力機制(Multi-head Latent Attention,MLA),從而大大降低了算力和存儲資源的消耗。

普通人能聽懂的:激活大腦中的一部分功能來解決問題,不需要牽一發(fā)而動全身,這樣減少了計算量,減少了消耗。

b.模型訓(xùn)練環(huán)節(jié):FP8混合精度訓(xùn)練框架

提升速度:傳統(tǒng)上,大模型訓(xùn)練使用32位浮點數(shù)(FP32)格式來做計算和存儲,這能保證精度,但計算速度慢、存儲空間占用大。如何在計算成本和計算精度之間求得平衡,一直是業(yè)界難題。2022年,英偉達、Arm和英特爾一起,最早提出8位浮點數(shù)格式(FP8),但因為美國公司不缺算力,該技術(shù)淺嘗輒止。DeepSeek則構(gòu)建了FP8 混合精度訓(xùn)練框架,根據(jù)不同的計算任務(wù)和數(shù)據(jù)特點,動態(tài)選擇FP8或 FP32 精度來進行計算,把訓(xùn)練速度提高了50%,內(nèi)存占用降低了40%。

普通人能聽懂的:舉個例子,算數(shù)學(xué) 11.11111111111×12.121212121212,算起來很復(fù)雜,而且結(jié)果也很長,簡化一下,算11×12,口算基本上就能得到131,但是這個是相似值,如何又能保留更精準的呢,算11.11 ×12.12 還是11.1111×12.1212,哪個能滿足最低精度要求即可。

c.算法環(huán)節(jié):新的強化學(xué)習(xí)算法GRPO

進化速度更快,未來可期:強化學(xué)習(xí)的目的是讓計算機在沒有明確人類編程指令的情況下自主學(xué)習(xí)、自主完成任務(wù),是通往通用人工智能的重要方法。強化學(xué)習(xí)起初由谷歌引領(lǐng),訓(xùn)練AlphaGo時就使用了強化學(xué)習(xí)算法,但是OpenAI后來居上,2015年和2017年接連推出兩種新算法TRPO(Trust Region Policy Optimization,信任區(qū)域策略優(yōu)化)和PPO (Proximal Policy Optimization,近端策略優(yōu)化),DeepSeek更上層樓,推出新的強化學(xué)習(xí)算法GRPO( Group Relative Policy Optimization 組相對策略優(yōu)化),在顯著降低計算成本的同時,還提高了模型的訓(xùn)練效率。 (GRPO算法公式。Source:DeepSeek-R1論文)

普通人能聽懂的:算法的優(yōu)化,就是一個方法的優(yōu)化,節(jié)省步驟。原來完成一個事情需要a-b-c-d-e 5個步驟,現(xiàn)在可能是a-c-e 或 a-f-e 或 a-b-f,也可以到達,甚至到達的更遠。

3.中美大模型差異有多大,一開始有多大,現(xiàn)在有多大,未來有多大?

還是很大,現(xiàn)在是中國取得階段性成果,美國暫時領(lǐng)先,還在激烈追趕中。

誰是玩家

DeepSeek+Kimi+阿里,百度,字節(jié)等 vs OpenAI,Anthropic、谷歌、Meta、xAI 等

4.未來決定性因素

現(xiàn)在來講,人和創(chuàng)新精神是很重要的,但是芯片也是很重要的,就看誰能夠在后續(xù)的推理模型中持續(xù)的去進行創(chuàng)新,繼續(xù)的去發(fā)布出來更好的模型,所以Deepseek問世之后,可以標志著大模型的角逐由上半場轉(zhuǎn)到下半場。

這里分享一句話共勉:

迫不得已是創(chuàng)新之母

The necessity is the mother of the invention

總體來說,DeepSeek的諸多創(chuàng)新在很大程度上來自于芯片受限所帶來的挑戰(zhàn)。由于只能使用性能相對較低的H800芯片進行訓(xùn)練,DeepSeek被迫在算法層面進行深度優(yōu)化,以彌補算力的不足。這些創(chuàng)新使得模型更加輕量化,不僅減少了代碼的冗余,還提高了能耗效率,使得在計算資源有限的情況下也能高效運行。

更重要的是,DeepSeek符合國內(nèi)的法律法規(guī)要求,并在訓(xùn)練過程中針對國內(nèi)網(wǎng)絡(luò)和互聯(lián)網(wǎng)監(jiān)管進行了適配。這使得其輸出內(nèi)容完全符合國內(nèi)的信息監(jiān)管標準,為國內(nèi)用戶提供了更加安全、合規(guī)的服務(wù)。相比之下,雖然Chatgpt等模型也表現(xiàn)出色,但在國內(nèi)可能面臨合規(guī)性問題。而DeepSeek則通過其獨特的優(yōu)勢,特別是針對中文場景的優(yōu)化和合規(guī)性設(shè)計,使其更加貼近國內(nèi)用戶的需求,從而在國內(nèi)市場如驚雷般響徹東西南北。

Part 4

問:AI會給原有機器人領(lǐng)域帶來什么變化?

答:AI和機器人的結(jié)合正在逐漸加強。簡單來說,可以把AI看成是一種軟件,AI技術(shù)如計算機視覺和自然語言處理是核心,它們的發(fā)展推動了機器人技術(shù)的智能化,使機器人能夠自主決策。這就是未來五年內(nèi),甚至更長時間的發(fā)展趨勢。

如今,機器狗等機器人產(chǎn)品已經(jīng)在市場上銷售,價格逐漸親民,使得更多行業(yè)能夠承擔(dān)得起并應(yīng)用這些技術(shù)。在泰山等景區(qū),機器狗已經(jīng)被用于搬運行李等任務(wù)。這不僅展示了AI技術(shù)在推動機器人領(lǐng)域發(fā)展方面的巨大潛力,也預(yù)示著未來機器人將在更多領(lǐng)域得到廣泛應(yīng)用。

隨著AI行業(yè)的不斷發(fā)展,對機器人等硬件行業(yè)也有積極的帶動。未來,機器人領(lǐng)域?qū)⒂瓉砀嗟膭?chuàng)新和突破,不僅在無人機、軍事等行業(yè)發(fā)揮重要作用,還將在服務(wù)業(yè)等民用領(lǐng)域越來越普及。例如,現(xiàn)在許多酒店已經(jīng)開始使用機器人進行送餐服務(wù),這種趨勢未來將會更加明顯。

Part 5

問:AI行業(yè)發(fā)展到哪個階段

答:在AI行業(yè)中,分層相對清晰。頭部玩家,即大型科技公司,他們擁有雄厚的資金和資源,專注于開發(fā)自己的大模型,無論是大語言模型還是視頻模型。而中小科技公司則扮演著產(chǎn)品經(jīng)理的角色,將這些大模型包裝成產(chǎn)品,通過APP、網(wǎng)站或插件等形式,幫助用戶解決實際問題。

在國內(nèi),像阿里這樣的頭部廠商已經(jīng)推出了一系列的大模型,形成了一個相對完整的布局。他們不僅在大語言模型和視頻模型領(lǐng)域有所建樹,還擁有自己的品牌和產(chǎn)品體系。然而,這種趨勢也可能導(dǎo)致國內(nèi)模型市場的壟斷。因此,中小科技公司通常會選擇開發(fā)垂直領(lǐng)域的應(yīng)用,以差異化競爭。

例如,百川醫(yī)療專注于醫(yī)療領(lǐng)域的痛點和需求,提供專業(yè)的解決方案;而微度科技則在視頻領(lǐng)域進行深度開發(fā)。這樣的分層和差異化發(fā)展,使得AI行業(yè)能夠更加健康、多元地發(fā)展。

Part 6

問:AI對于經(jīng)濟和社會的發(fā)展是積極的還是消極的?

答:AI時代的突然到來,無疑會對各行各業(yè)產(chǎn)生深遠影響。它不僅推動了經(jīng)濟從要素驅(qū)動向創(chuàng)新驅(qū)動的轉(zhuǎn)變,這一轉(zhuǎn)變在經(jīng)濟學(xué)術(shù)語中常被稱為“創(chuàng)新”,而且還提升了各行業(yè)的生產(chǎn)和運營效率,催生了新的產(chǎn)業(yè)形態(tài)和商業(yè)模式。

打開網(wǎng)易新聞 查看精彩圖片

我經(jīng)常與同學(xué)們討論,AI時代的到來意味著什么。 如上表格是我問AI(Chatgpt),回復(fù)說AI將在2025年為全球經(jīng)濟GDP帶來約7%的增長,其中制造業(yè)受到的影響最為顯著,金融業(yè)、醫(yī)療、教育等領(lǐng)域也將經(jīng)歷深刻變革。我認為,有時候向AI請教一些問題是很好的,它能幫助我們對某些行業(yè)有更深入的了解。因此,如果未來大家想進入AI領(lǐng)域,可以考慮這幾個方向。

AI時代也帶來了新興的就業(yè)機會,但面對AI,我們可能需要掌握新的技能。然而,AI對社會而言,就像每個新技術(shù)的出現(xiàn)一樣,發(fā)展迅速并帶來社會變化。這是一個轉(zhuǎn)型期,但同時也伴隨著倫理和法律問題。除了回答的幻覺問題外,隱私和數(shù)據(jù)安全是大家關(guān)心的焦點。人們擔(dān)心AI廠家是否會全面了解個人信息,以及為什么需要進行私有化部署,這些都與法律和倫理問題緊密相關(guān)。

Part 7

問:AI 能幫我做什么

答:這取決于個人所處的行業(yè)。例如,你是從事自然語言處理、計算機視覺,還是專注于圖片或視頻領(lǐng)域?Midjourney 主要致力于圖片創(chuàng)作;在語音方面,像科大訊飛這類公司則專注于語音對話技術(shù),或者涉及智能制造等領(lǐng)域。因此,大家首先要明確自己的行業(yè)歸屬,然后深入到相應(yīng)領(lǐng)域開展工作。

對于個人而言,需要關(guān)注所在行業(yè)領(lǐng)域中哪些技術(shù)能夠為自己提供幫助。比如商業(yè)分析,需要搜集大量信息、進行客戶服務(wù),以及制作相關(guān)圖表等,這些方面目前都有垂直領(lǐng)域的應(yīng)用在做,而且做得相當不錯。所以,互聯(lián)網(wǎng)公司在開發(fā)應(yīng)用時,也是沿著這個思路,思考自身能夠做什么,以及哪些地方存在用戶需求,進而深入某個具體方向進行研發(fā)。

以百川為例,它現(xiàn)在專門從事醫(yī)療問診方面的業(yè)務(wù);再如商湯推出的小浣熊,主要是解決出圖表等問題;還有一些專注于解決編程問題的應(yīng)用。

Part 8

問:對于小公司或者說工作室來講能做什么?

答:接入大模型后,我會迅速將其開發(fā)成一個垂直領(lǐng)域的應(yīng)用,或者思考如何將其融入到我的業(yè)務(wù)中。在產(chǎn)品設(shè)計時,避免堆砌過多功能,而是明確大模型在哪一方面的能力可以助我一臂之力,解決什么問題。我沿著這個思路前行,不會盲目追求多功能,而是以智能為導(dǎo)向,不斷提升產(chǎn)品的智能化水平。這樣,我才能精準地滿足用戶的需求,為用戶創(chuàng)造價值,進而實現(xiàn)產(chǎn)品的定制化。

在中國,由于企業(yè)眾多,大家的需求各不相同。因此,后續(xù)的定制化服務(wù)就顯得尤為重要?,F(xiàn)在,有很多像我這樣的AI解決方案提供商,為不同的客戶提供多樣化的解決方案。

Part 9

從哪里可以獲得最新的AI應(yīng)用

AI 應(yīng)用,我們之前做調(diào)研是分了大概26個場景,有國外的,國內(nèi)的產(chǎn)品。場景在逐漸做細分。整體來講,國外的產(chǎn)品起步早,辦公領(lǐng)域比國內(nèi)產(chǎn)品做的完善一些,大多是需要魔法,像我用的那個Gamma,這就是一個專門的 PPT 生成的平臺。國內(nèi)產(chǎn)品大多簡單好上手, APP 居多,以社交,視頻泛娛樂的為主。

推薦一個平臺ai-bot.cn AI 工具合集,這里就是把所有的市面上不止國內(nèi)還有海外所有的AI產(chǎn)品列出來了,這個可以直接去訪問就可以了。對于個人來說,現(xiàn)在處于什么樣的行業(yè),或者說你想關(guān)注什么樣的行業(yè),你就去這里邊去找對應(yīng)的AI產(chǎn)品,然后它能夠去幫助你,滿足你的需求。這里都有分類,分類下選擇一個你喜歡的產(chǎn)品使用就可以了。

提問和回答

問:

就能不能讓 AI 像個團隊似的,多個 agent搭配起來使用。問一下像實現(xiàn)的方式,有什么推薦嗎?

答:

有的,除了直接使用現(xiàn)成產(chǎn)品的進階版,就是剛才講就是有點像你剛才把各個 agent串聯(lián)起來,這就是工作流。可以重點關(guān)注一下字節(jié)的扣子平臺,支持把 agent就是像一個流程一樣,一二三四這樣的去串聯(lián)起來,可以自己定義。

總結(jié)與展望

今天的分享比較淺,希望大家可以知道AI行業(yè)發(fā)展的階段,然后怎么樣去找一些好的應(yīng)用。

核心是我們在用大模型之前,我們先理解什么是大模型,然后也理解了AI可以哪些行業(yè)結(jié)合,知道要做哪些知識儲備,可以更好地迎接未來變化。

然后下一次分享,會更干一些,現(xiàn)在講的什么叫蒸餾,什么是量化,基于今天的基礎(chǔ),講的更深度一些,就比如說怎么去理解大模型的幻覺,一些大模型私有化部署的產(chǎn)品方案。

下期劇透

Ollama下載部署到本地電腦上的Deepseek大模型其實不是Deepseek-R1,其實部署的是一個蒸餾后的模型,全名是DeepSeek-R1-Distill-Qwen-7B。 Distill 是蒸餾的意思,就跟我們釀酒一樣,一大桶酒蒸餾出來小瓶酒,保留了它的原始風(fēng)味,體積更小。Qwen是阿里的大模型,然后7b 是7billion 參數(shù)(billion 十億)的一個縮寫,就相當于Qwen-7B去學(xué)習(xí)Deepseek -R1 671b 的知識,然后用到的是徒弟Qwen-7B這個模型。模型更小,還有部分能力。

下期活動報名:

1. 活動行報名繳費,留下正確的郵箱和手機號

2. 發(fā)送在線會議號到報名手機號

報名鏈接:

https://hdxu.cn/B7zp

二維碼和小程序碼

社群二維碼