未經(jīng)許可不得轉載,務必保留原文出處鏈接和公眾號名片

打開網(wǎng)易新聞 查看精彩圖片

Web3天空之城·城主

【城主說】

DeepSeek R1在美國已經(jīng)徹底爆發(fā)。

正如R1剛發(fā)布那天,本城文章 所預測,經(jīng)過了幾天發(fā)酵,美國人終于徹底反應過來,R1話題在周末刷爆各大主流媒體和輪胎,美國各大AI團隊和實驗室已手持DeepSeek無私分享的寶貴論文來全情投入復刻R1推理模型實現(xiàn),并已經(jīng)有了諸多進展。DeepSeek這一次確實為AI屆帶來了足以實現(xiàn)跨越突破的火種。

在眾多報道里, CNBC所做的長達40分鐘的專題報道“中國新型AI模型DeepSeek如何威脅美國的主導地位”很值得一看,除了主流分析,還邀請了當紅AI搜索引擎Perplexity的創(chuàng)始人做了言之有物的深度訪談。

PerPlexity創(chuàng)始人Arvind對DeepSeek及中國在美國打壓之下的AI發(fā)展創(chuàng)新做了很中肯的評價,甚至比很多公知的立場都要客觀,讓城主對這位甚至還沒拿美國綠卡的小哥的印象大有加分。

很有趣的是,主持人和Arvind討論的時候,還在預測DeepSeek 推理模型什么時候會推出,他們的預測基本是到今年底。

他們一定沒想到,這個專訪才過去幾天,DeepSeek的R1就轟動了世界。

不多說,這個NBC專題的全文和視頻完整版和大家分享:

【NBC完整版: 中國新型AI模型DeepSeek如何威脅美國的主導地位 | 油管爆火長篇報道-嗶哩嗶哩】 https://b23.tv/PMOjOJd

NBC:

中國最新的AI突破領先世界,值得高度重視。這項顛覆性成果并非來自OpenAI、谷歌或Meta,而是一家名為(DeepSeek)的中國實驗室。這一發(fā)現(xiàn)令硅谷震驚,也讓許多人重新審視中國人工智能領域的真實實力。

DeepSeek聲稱,其成果的研發(fā)成本僅為不到600萬美元,耗時兩個月,而谷歌和OpenAI花費數(shù)年時間和數(shù)億美元才取得類似成果。DeepSeek的開源模型已成為許多美國開發(fā)者的基礎。

DeepSeek發(fā)布的免費開源AI模型,在多項測試中擊敗了市場上最強大的模型,包括Meta的Llama、OpenAI的GPT-40和Anthropic的Claud Sonnet 3.5。這些測試涵蓋數(shù)學、編程和代碼錯誤修復等多個領域。

DeepSeek的另一個推理模型R1,在一些第三方測試中也超越了OpenAI的尖端模型O1。在“人類的最后考試”這一新的AI模型評估基準測試中,DeepSeek的模型表現(xiàn)最佳,或與最好的美國模型不相上下。

令人矚目的是,DeepSeek取得這些成就,是在美國政府對中國實施嚴格半導體限制的情況下完成的,這實際上限制了他們的計算能力。

人工智能競賽中,美國對中國實施了嚴格的芯片出口管制,切斷中國獲取英偉達H100等高端芯片的途徑。這些芯片一度被認為是構建競爭力AI模型的必要條件,眾多企業(yè)爭相搶購。

然而,DeepSeek公司卻另辟蹊徑,利用性能較低的H800芯片構建了最新的模型,證明了芯片出口管制并非完全有效的扼喉手段。他們顯著提升了硬件利用效率。

但DeepSeek的神秘面紗背后究竟隱藏著什么?關于其實驗室和創(chuàng)始人梁文鋒的信息少之又少。據(jù)中國媒體報道,DeepSeek誕生于一家名為“幻方量化”的對沖基金,該公司管理著約80億美元資產(chǎn)。其官網(wǎng)的使命宣言簡潔明了:懷著好奇心解開AGI的奧秘,以長遠的眼光解答根本性問題。這與OpenAI和Anthropic等美國AI公司詳細的章程和組織結構形成鮮明對比。

盡管多次嘗試聯(lián)系DeepSeek,我們均未得到回應。其人才隊伍組建、硬件采購、數(shù)據(jù)獲取等過程都未公開,令人費解。但這一謎團凸顯了中美之間人工智能對抗的緊迫性和復雜性。

這不僅僅是DeepSeek一家。其他中國AI模型也憑借有限資源在競爭中占據(jù)了一席之地。李開復的初創(chuàng)公司01.AI成立八個月就成為獨角獸公司,2024年創(chuàng)造近1400萬美元收入,其模型訓練成本僅為300萬美元,遠低于GPT-4的8000萬到1億美元。阿里巴巴的QN也大幅降低了大型語言模型的成本。

這些中國的突破削弱了美國AI實驗室一度占據(jù)的領先地位。2024年初,埃里克·施密特曾預測中國在AI領域落后美國兩到三年,但如今他已經(jīng)改變了說法。

中國在過去六個月取得的進展令人矚目,多個中國程序,例如“DeepSeek”,似乎已追趕上OpenAI。這對OpenAI的技術壁壘提出了重大疑問。

2022年11月ChatGPT發(fā)布時,OpenAI占據(jù)絕對領先地位。如今,它不僅面臨來自中國的國際競爭,還面臨谷歌Gemini、Anthropic Claud和Meta的Llama模型帶來的國內競爭。

游戲規(guī)則已經(jīng)改變。功能強大的開源模型的廣泛可用性,使開發(fā)者能夠繞過高成本、高資源消耗的模型構建和訓練階段。他們可以在現(xiàn)有模型基礎上進行構建,從而更容易、更低成本地進入該領域的前沿。

近兩周,人工智能研究團隊視野更為開闊,對低成本實現(xiàn)的目標也更為雄心勃勃。過去,達到行業(yè)前沿需要數(shù)億美元甚至數(shù)十億美元的投資。而“DeepSeek”則證明,數(shù)千萬美元的投資也能取得顯著成果。

這意味著任何一家聲稱處于領先地位的公司,例如OpenAI,都可能很快失去其優(yōu)勢?!癉eepSeek”能夠快速趕超,正是因為它建立在現(xiàn)有AI技術前沿的基礎上,并專注于對現(xiàn)有技術的迭代改進,而非重新發(fā)明輪子。

他們采用優(yōu)秀的預訓練大型模型,并使用蒸餾技術,利用大型模型來提升小型模型的特定能力,這是一種非常具有成本效益的方法。通過利用現(xiàn)有數(shù)據(jù)集、應用創(chuàng)新調整以及利用現(xiàn)有模型,“DeepSeek”縮小了差距,甚至出現(xiàn)了“身份危機”,其自身模型確信自己是ChatGPT。

當被問及模型類型時,“DeepSeek”回答說是OpenAI創(chuàng)建的基于GPT-4架構的AI語言模型。這導致OpenAI首席執(zhí)行官Sam Altman發(fā)布了影射“DeepSeek”的帖子。

復制已知有效的方案相對容易,但探索未知領域則充滿挑戰(zhàn)?!癉eepSeek”并非完全復制,它利用OpenAI的輸出和架構原理模擬GPT,同時暗中加入自身增強功能,模糊了自身與ChatGPT的界限。

所有這些都給OpenAI等閉源領導者帶來了壓力,迫使他們證明其高成本模型在競爭日益激烈的情況下仍具有優(yōu)勢。在這個領域,企業(yè)間普遍存在技術借鑒現(xiàn)象。例如,谷歌率先應用Transformer架構,OpenAI隨后借鑒并將其產(chǎn)品化。因此,對單一大型語言模型的大規(guī)模投入是否仍是明智之舉值得商榷。

OpenAI面臨著巨大的風險。上一輪融資超過60億美元,但公司尚未盈利,且其核心業(yè)務依賴于模型構建,風險遠高于擁有云計算和廣告業(yè)務的谷歌和亞馬遜等公司。對OpenAI而言,推理能力至關重要,一個能夠進行分析、邏輯推理和解決復雜問題的模型,將超越簡單的模式識別。

目前,OpenAI的01推理模型仍處于領先地位,但這一優(yōu)勢能否持續(xù)?伯克利研究人員近期展示了只需450美元即可構建一個推理模型,這意味著低成本構建具備推理能力的模型已成為可能,預訓練模型的巨額投入不再是必需。游戲規(guī)則正在改變,保持領先地位可能需要更多創(chuàng)造力而非單純的資金投入。

DeepSeek的突破正值AI領域巨頭面臨諸多挑戰(zhàn)之際。OpenAI正轉向盈利模式,并面臨人才流失,如果游戲規(guī)則改變,它能否繼續(xù)以越來越高的估值融資?正如Chamath Palihapitiya所言,AI模型構建可能是一個“金錢陷阱”。

美國政府的芯片限制旨在減緩競爭速度,將美國科技優(yōu)勢維持國內。然而,這可能反而促進了中國的創(chuàng)新。限制迫使中國尋找解決方案,最終可能創(chuàng)造出更高效的技術。中國以較低的資本投入取得了顯著進展,這令人矚目。DeepSeek作為開源模型,開發(fā)者可以完全訪問并定制其權重或進行微調。

一旦開源軟件趕上或超越閉源軟件,所有開發(fā)者都會遷移到開源軟件。關鍵在于開源軟件成本低廉,成本越低,開發(fā)者采用的吸引力就越大。我們的推理成本為每百萬個token 0.1美元,僅為同類模型收費的三十分之一。這將大大降低構建應用程序的成本。

例如,構建類似Perplexity的應用程序,可以選擇向OpenAI支付每百萬個token 4.40美元,或使用我們的模型只需支付0.10美元。這可能意味著全球人工智能的主流模型將是開源的,各組織和國家將逐漸接受合作和去中心化能夠比專有封閉生態(tài)系統(tǒng)更快更高效地推動創(chuàng)新。

來自中國的更便宜、更高效、被廣泛采用的開源模型,可能會導致全球人工智能格局發(fā)生重大轉變。這尤其危險,因為這將使中國獲得市場份額和生態(tài)系統(tǒng)。大規(guī)模采用中國的開源模型可能會削弱美國的領導地位,同時使中國更深入地融入全球科技基礎設施。

開源軟件的許可證是可以更改的,因此在美國本土進行建設至關重要。這也就是元宇宙如此重要的原因。

如果開發(fā)者因為效率更高而大規(guī)模采用這些模型,可能會產(chǎn)生嚴重的連鎖反應,甚至影響面向消費者的AI應用程序及聊天機器人生成的回應的真實性。目前世界上真正能夠大規(guī)模構建這種技術的國家只有美國和中國,利害關系和后果都極其重大,美國的領先地位正懸于一線。

為此,我們采訪了Perplexity的聯(lián)合創(chuàng)始人兼首席執(zhí)行官Arvind Srinivas,他與我們深入探討了DeepSeek及其影響,以及Perplexity的路線圖。這段完整的對話值得一聽,現(xiàn)在開始播放。

主持人:

首先,我想了解中美之間AI競賽的利害關系。

Arvind:

中國在與美國競爭方面有很多劣勢。

首先,他們無法獲得我們這里可以獲得的所有硬件,使用的GPU比我們低端,幾乎相當于勉強使用上一代GPU。更大的模型通常更智能,這自然使他們處于劣勢。

但另一方面,需求是發(fā)明之母。由于資源受限,他們不得不尋找解決方法,最終構建了一些更高效的東西。這就像是被迫在有限資源下,想方設法做出頂級模型。除非數(shù)學上證明不可能,否則總能嘗試找到更有效的方法。這很可能會讓他們想出比美國更有效的解決方案,而且他們已經(jīng)開源了成果,我們也能借鑒。但他們培養(yǎng)的人才,最終將成為他們長期的優(yōu)勢。

美國領先的開源模型是Meta的Llama系列,表現(xiàn)優(yōu)秀,可以在電腦上運行。但即使在發(fā)布時,質量最接近GPT-4的,也是巨大的405B參數(shù)模型,而不是可以在電腦上運行的70B參數(shù)模型。所以仍然沒有小型、廉價、快速、高效的開源模型能夠與OpenAI和Anthropic最強大的模型相抗衡。美國沒有,Mistral AI也沒有。

然后這些人卻搞出一個令人震驚的模型,API定價比GPT-4便宜10倍,比Sonnet便宜15倍,速度很快,每秒60個token。在一些基準測試中表現(xiàn)相同或更好,在另一些則稍差,但大致處于GPT-4的質量水平。他們只使用了大約2048個H800 GPU,相當于大約1500個H100 GPU,這比GPT-4通常使用的GPU數(shù)量低了20到30倍??傆嬎泐A算大約為500萬美元。他們用這么少的錢就做出了如此驚人的模型,還免費提供,并撰寫了技術論文。這讓我們質疑,如果我們有類似的模型訓練方法,就能取得同樣成果。

關鍵在于效率,成本和時間都大幅降低,GPU也簡化了。理解了他們的方法后,確實令人驚訝。閱讀技術論文后,發(fā)現(xiàn)他們想出了許多巧妙的解決方案,首先是訓練了一個混合專家模型(MOE)。這并不容易,許多人難以追趕OpenAI,尤其是在MOE架構方面,主要是因為存在很多不規(guī)則的損失峰值和數(shù)值不穩(wěn)定,經(jīng)常需要重新開始訓練檢查點,這需要強大的基礎設施。

他們想出了非常巧妙的解決方案來平衡這一點,而無需添加額外的hack。他們還找到了浮點8,8位訓練的方法,至少對于某些數(shù)值計算來說是如此。他們巧妙地確定了哪些需要更高的精度,哪些需要更低的精度。

據(jù)我所知,我認為浮點8訓練還沒有得到很好的理解。美國大部分的訓練仍然在FP16上運行,也許OpenAI也是。有些人正在嘗試探索這一點,但這很難做到正確。由于提到了必要性,因為他們沒有那么多內存,那么多GPU,他們找到很多數(shù)值穩(wěn)定性方面的東西,使他們的訓練能夠工作。

他們在論文中聲稱大部分訓練都是穩(wěn)定的,這意味著他們可以隨時在更多數(shù)據(jù)或更好的數(shù)據(jù)上重新運行這些訓練。然后它只訓練了60天。所以這非常令人驚嘆。

主持人:

可以肯定地說,你很驚訝。

Arvind:

所以我很驚訝。

通常的觀點,或者說我不會稱之為觀點,而是個神話,認為中國人只會抄襲。所以如果我們停止在美國撰寫研究論文,如果我們停止描述我們基礎設施和建筑的細節(jié),停止開源,他們將無法趕上。但現(xiàn)實情況是,DeepSeek v3中的一些細節(jié)非常出色,如果Meta研究了它并將其中一些內容整合到Llama 4中,我也不會感到驚訝。試圖抄寫下來。對吧?我不會說抄襲。這就像,你知道的,分享科學。工程。但是重點是,它正在變化。中國并非僅僅在模仿。他們也在創(chuàng)新。

主持人:

我們不知道它究竟是用什么數(shù)據(jù)訓練的,對吧?即使它是開源的。我們知道它部分的訓練方式和數(shù)據(jù),但并非全部。有一種說法認為它是在公共ChatGPT輸出上進行訓練的,這意味著它只是被復制了。但你認為它超越了這一點。存在真正的創(chuàng)新。

Arvind:

是的,你看,我的意思是,他們用14.8萬億個詞元訓練它?;ヂ?lián)網(wǎng)上充斥著大量的ChatGPT內容。

如果你現(xiàn)在去看任何LinkedIn帖子或X帖子,大多數(shù)評論都是AI寫的。你一眼就能看出來。人們只是試圖寫作。事實上,即使在X上,也存在類似Grok推文增強器這樣的工具?;蛘咴贚inkedIn上,也有AI增強器。又或者在Google Docs和Word里,也有一些AI工具可以改寫你的內容。所以,如果你在那里做了一些事情,然后把它復制粘貼到互聯(lián)網(wǎng)上的某個地方,它自然會包含一些類似ChatGPT訓練的元素,對吧?而且很多人甚至懶得去除“我是一個語言模型”的部分。于是他們就把它粘貼到某個地方。這很難控制。我想可解釋AI(XAI)也談到了這個問題。

我不會因為“你是誰?”或“你是哪個模型?”這類提示而忽略他們的技術成就,我認為這并不重要。

主持人:

長期以來,我們認為——我不知道你是否認同——中國在人工智能領域落后。這對于這場競爭意味著什么?我們可以說中國正在趕超,甚至已經(jīng)趕超了嗎?

Arvind:

如果說中國正在趕超OpenAI和Anthropic,那么同樣也可以說中國正在趕超美國。許多來自中國的論文試圖復現(xiàn)O1,事實上,我看到O1發(fā)布后試圖復現(xiàn)它的中國論文比美國的還多。DeepSeek能夠訪問的計算資源與美國博士生大致相同。

這并非為了批評任何人,例如,即使是我們自己,在PerPlexity方面,我們也決定不訓練模型,因為我們認為這成本過高,無法趕上其他研究。

主持人:

但你們會將DeepSeek整合到PerPlexity計算中嗎?

Arvind:

我們已經(jīng)開始使用了。他們有API,也開源了,所以我們也可以自己部署。這很好,因為它讓我們能夠以更低的成本做很多事情。更深層次的考慮是,如果他們真的能和我們一起訓練出這么好的模型,那么美國公司,包括我們自己,就再也沒有理由不去嘗試類似的事情了。

主持人:

你會聽到很多公眾人物、思想領袖和生成式AI領域的專家,包括研究人員和企業(yè)家,例如埃隆·馬斯克等人公開表示中國無法趕上。他們認為人工智能的主導地位關系到經(jīng)濟和世界的主導權,這件事已經(jīng)被用如此宏大的術語討論過了。你擔心中國證明自己能夠做到的事情嗎?

Arvind:

首先,我不知道埃隆是否說過中國無法趕上,他只是指出了中國構成的威脅。薩姆·奧特曼也說過類似的話,我們不能讓中國贏得人工智能競賽。我認為,你必須將像薩姆這樣的人所說的話,與他的自身利益分開來看。

我認為,無論你做了什么來阻止他們趕上,都毫無意義,他們最終還是趕上了。需要是發(fā)明之母。事實上,比試圖阻止他們趕上更危險的是,他們擁有最好的開源模型,所有美國開發(fā)者都在此基礎上進行開發(fā)。這更危險,因為這樣他們就能掌握思想市場份額,掌握整個美國的AI生態(tài)系統(tǒng)。

一般來說,開源軟件一旦趕超閉源軟件,開發(fā)者就會遷移。這是歷史規(guī)律。但Llama的出現(xiàn)帶來一個問題:我們應該信任扎克伯格嗎?更進一步,我們應該信任中國嗎?答案是相信開源。 開源軟件的優(yōu)勢在于,無論開發(fā)者是誰,無論來自哪個國家,你都擁有完全的控制權,你可以在自己的電腦上運行它,設置權重,你負責模型。

然而,依賴他人構建的軟件,即使是開源軟件,也并非沒有風險。開源軟件的許可證可能隨時更改。因此,在美國擁有強大的AI研發(fā)力量至關重要,這也是Meta的重要意義所在。我們不必阻止Meta,而應努力超越它。

美國公司應該專注于做得更好。目前,我們聽到更多關于中國公司效率高、成本低的消息。這是因為資金雄厚,能投入更多資源。 這不是需要責備的問題,而是資源差異帶來的結果。

關于開源的定義也有多種解讀。有人批評Meta沒有完全公開所有內容,DeepSeek 也并非完全透明。 但并非所有人都具備完全復制其訓練過程的資源。而Meta已經(jīng)通過技術報告分享了大量細節(jié),遠超其他公司。DeepSeek的研發(fā)成本不到600萬美元,而OpenAI的GPT模型成本遠超此數(shù)。

這說明閉源模型的生態(tài)系統(tǒng)軌跡和發(fā)展勢頭與開源模型截然不同。

主持人:這對OpenAI意味著什么?

Arvind:

很明顯,今年我們將會有一個開源的4.0版本,甚至更好、更便宜。但這可能是OpenAI以外的其他人做到的。他們可能并不在乎是不是自己完成的。我認為他們已經(jīng)轉向了O1系列模型這種新的范式,預訓練時代已經(jīng)結束。但這并不意味著擴展遇到了瓶頸,我認為我們現(xiàn)在在不同的維度上進行擴展。模型在測試時思考的時間量、強化學習、模型構建方式都在發(fā)生變化:如果它不知道如何處理新的提示,它會推理、收集數(shù)據(jù)、與世界互動,并使用各種工具。我認為OpenAI現(xiàn)在更專注于此,而不是僅僅追求更大、更好的推理能力模型。

主持人:

DeepSeek可能會將注意力轉向推理嗎?

Arvind:

我認為會的,這讓我對他們的未來作品感到非常興奮。那么,OpenAI目前的護城河是什么?我認為還沒有其他人創(chuàng)造出類似O1的系統(tǒng)。雖然關于O1是否真正值得有爭議,它在某些提示上表現(xiàn)更好,但在大多數(shù)情況下,它與SONET并無不同。但至少他們在O3中展示了具有競爭力的編碼能力,幾乎達到了AI軟件工程師的水平。

主持人:然而,內網(wǎng)充斥著推理數(shù)據(jù),這只是時間問題嗎?

Arvind:這有可能,但現(xiàn)在還不確定。所以,在它完成之前,仍存在不確定性,這或許就是他們的護城河,因為前還沒有其他人擁有相同的推理能力。

主持人:但是到今年年底,即使在推理領域,也會出現(xiàn)多個參與者嗎?

Arvind:我絕對這么認為。

主持人:

我們是否正在見證大型語言模型的商品化?

Arvind:

我認為我們會看到類似于預訓練和后訓練的軌跡,這些系統(tǒng)會被商品化,今年會有更多商品化出現(xiàn)。我認為這種推理模型會經(jīng)歷類似的軌跡,一開始只有一兩個參與者真正知道怎么做,但隨著時間的推移……誰知道呢?因為OpenAI可以專注于另一個進步。但現(xiàn)在,推理是他們的護城河。但如果進步一次又一次地發(fā)生,“進步”這個詞的意義也會失去一些價值。

即使現(xiàn)在,也很困難,因為有預訓練的進步,然后我們進入了一個不同的階段。

可以肯定的是,現(xiàn)有模型的推理水平和多模態(tài)能力,很快就會以五到十倍更低的成本出現(xiàn),而且是開源的。這只是時間問題。

然而,尚不清楚這種測試推理模型是否足夠廉價,能夠在手機上運行。這一點我仍不明確。

DeepSeek 的成果改變了太多格局,堪稱中國的“ChatGPT 時刻”也未可知。這無疑增強了他們的信心,也讓我們感到并未真正落后。無論如何限制算力,我們總能找到解決方法。團隊對結果非常興奮,這是肯定的。

主持人:

這將如何改變投資格局?那些每年在資本支出上花費數(shù)十億美元的超大型云服務提供商,剛剛大幅增加了支出,而 OpenAI 和 Anthropic 則在籌集數(shù)十億美元購買 GPU。DeepSeek 告訴我們,你并不需要這些。

Arvind:

他們會更加努力地進行推理,因為他們明白,過去兩年構建的東西變得非常便宜,繼續(xù)為籌集那么多資金找理由已無意義。支出方案會改變嗎?他們還需要相同數(shù)量的高端 GPU 嗎?或者可以使用 DeepSeek 擁有這種低端 GPU 進行推理?在證明不可行之前,很難說。但本著快速行動的精神,你會想要使用高端芯片,并比競爭對手更快行動。

我認為最好的天才仍然想在最先促成他們成功的團隊工作。那些真正做到的人,擁有先驅的光環(huán),而快速跟進者則不然。

主持人:

薩姆·阿爾特曼的推文,是對 DeepSeek 成就的一種含蓄回應,暗示他們只是復制。

Arvind:

任何人都可以復制。但在這個領域,每個人都在復制其他人。谷歌首先發(fā)明了 Transformer,OpenAI 只是復制了它;谷歌構建了第一個大型語言模型,但 OpenAI 優(yōu)先進行了這項工作。所以,這件事有很多種說法。

主持人:

我曾問過你為什么不想構建模型,那是一種榮耀。一年后,你會因為沒有參與那場激烈而昂貴的競爭而顯得非常聰明,并且你在生成式 AI 的實際應用,殺手級應用上占據(jù)了領先地位。

談談這個決定,以及它如何引導你以及你對 Perplexity 未來展望。

Arvind:

一年前,我們甚至無法想象如今的成就?,F(xiàn)在是2024年初,我們還未達到3.5的水平。雖然擁有GPT-4,并領先其他競爭對手,但多模態(tài)能力依然欠缺。鑒于資源和人才優(yōu)勢仍無法超越,我們決定另辟蹊徑。

人們渴望使用這些模型,其中一個主要用例是:提出問題并獲得準確、包含來源和實時信息的答案。模型之外,還有大量工作要做,例如確保產(chǎn)品可靠運行、擴展使用規(guī)模以及構建自定義UI。我們將專注于此,并充分利用模型改進帶來的優(yōu)勢。

Sonnet 3.5的產(chǎn)品表現(xiàn)出色,它顯著降低了幻覺的發(fā)生率,有效解決了問答、事實核查和信息檢索等問題。這帶來了使用量10倍的增長,用戶數(shù)量也大幅增加,并獲得了眾多大型投資者的認可,黃仁勛便是其中一例。

一年前,我們甚至沒有考慮貨幣化,那時我們專注于產(chǎn)品推廣和規(guī)模建設。如今,我們開始探索商業(yè)模式,越來越多地關注廣告模式。

我們理解一些人對于廣告的質疑,即在有廣告的情況下能否保證答案引擎的真實性。我們對此進行了充分考慮,只要答案準確、公正,不受任何廣告預算影響,即使是贊助問題,其答案也不會被操縱,用戶也可以選擇忽略。廣告商希望展現(xiàn)品牌最佳形象,這與人際交往中希望展現(xiàn)最佳一面類似。目前我們僅向廣告商收取CPM費用,因此我們自身并無動力促使用戶點擊廣告。

我們致力于長期正確地解決問題,而不是像谷歌那樣強迫用戶點擊鏈接。

一年前,模型商品化還備受爭議,但現(xiàn)在已不再如此。 密切關注這一趨勢非常明智。我們從模型商品化中獲益良多,同時也需要為付費用戶提供更高級的功能,例如更復雜的搜索代理,能夠進行多步推理,并提供分析性答案。所有這些功能都將保留在產(chǎn)品中。

然而,免費用戶每天都會提出許多需要快速解答的問題,因此免費服務必須保持快速響應。 這將是免費的,這是用戶習慣,這意味著我們需要找到一種方法讓免費流量也能獲利。 我們并非試圖改變用戶習慣,而是引導廣告商適應新的習慣。他們無法再依賴谷歌的十個藍色鏈接搜索模式。

目前,廣告商的反應積極。許多品牌,例如Intuit、戴爾等,都在與我們合作進行測試,并對未來充滿期待。 他們都明白,未來五年到十年內,大多數(shù)人都會轉向AI尋求答案,而非傳統(tǒng)的搜索引擎。 他們都想成為新平臺和新用戶體驗的早期采用者,并參與其中。 他們沒有采取觀望態(tài)度,而是積極參與。

主持人:

這正好印證了你一開始提出的觀點:需求是所有發(fā)明之母。廣告商們認識到行業(yè)正在變化,他們必須適應。

非常感謝你抽出時間。