| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

個人提效10倍 公司顆粒無收:AI時代的"電力悖論"


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
編者按:個人效率提升10倍,公司價值為何紋絲不動?AI時代不缺好工具,缺的是一套像“流水線”一樣的機構化藍圖。文章來自編譯。


AI 剛剛讓每個個體的生產力提升了 10 倍。可是,沒有任何一家公司因此而增值 10 倍。那這些生產力究竟流到哪裡去了呢?

這種情況並非首次發生。19 世紀 90 年代,電力曾許下大幅提升生產力的諾言。當時,新英格蘭地區的紡織廠原本是為利用蒸汽機的轉動力而建的,它們迅速在原位換上了速度更快的電動機。


但在長達三十年的時間裡,這些電氣化工廠的產出幾乎沒有任何增長。技術確實突飛猛進,但組織架構卻止步不前。

直到 20 世紀 20 年代,當工廠再次徹底重新設計——引入了流水線,為每台設備安裝了獨立電機,並讓工人和機器各司其職、執行截然不同的任務時,電氣化才產生了實質性的回報。



圖 1:洛厄爾紡織廠(Lowell Textile Mills)的三次演變。從左至右依次為:1890 年的蒸汽動力工廠、1900 年的電力發動機工廠,以及 1920 年作為電氣化流水線徹底重建的“單元驅動”工廠。

這些回報並非源於技術本身,也不是因為讓單個工人或機器紡紗的速度變快了。只有當我們最終將機構組織與技術同步重新設計時,這種增長收益才真正顯現。

這是科技史上代價最為高昂的一課,而我們現在正重新經歷這一過程。

到 2026 年,AI 正驅動著那些懂得運用它的人實現 10 倍的生產力增長。但這還遠遠不夠。我們只是更換了發動機,卻還沒有重新設計工廠。

原因在於一個簡單的核心事實:個人高產並不等同於企業高產。

絕大多數 AI 產品只是給人一種“我很高效”的錯覺,但在驅動實際價值方面卻收效甚微。目前大多數公開的 AI 應用案例,不過是個人在 Twitter 或公司 Slack 頻道裡自我陶醉式地進行“生產力極限榨取”,對現實業務幾乎沒有任何實質性影響。



這個世界總有那麼一個人:他用 Notion 記筆記、Superhuman 發郵件、Mac Mini 跑 OpenClaw,還配著 Raycast 快捷啟動、400 刀的機械鍵盤和 Wispr Flow 語音輸入——結果每天啥正事都沒幹成。

這一年來被反復提及的“服務即軟件”(services as software)主題雖然方向正確,但並未給出具體藍圖。而且它忽略了一個更大的圖景:真正的轉變不在於從工具轉向服務,而在於將技術與機構(無論是傳統機構還是新興機構)融為一體。一個真正高效的未來需要一類全新的產品——即明天的“流水線”。



高效的組織需要的是“機構化智能”(Institutional Intelligence)。

本文將深入探討區分“機構化 AI”與“個人化 AI”的七大要素。未來十年的整個 B2B AI 領域都將建立在這些差異之上:



機構AI的七大支柱

1. 協同

個人化 AI 制造混亂。機構化 AI 創造協同。

讓我們先做一個思想實驗。假設明天你將公司的員工數量翻倍,而新增的全部是你最優秀員工的克隆體。

這些員工每個人都有細微的差別、偏好、怪癖和視角(如果你最優秀的員工,情況更是如此)。如果他們沒有得到充分的管理,如果沒有充分的溝通,如果他們的業務邊界、OKR、角色和職責沒有明確定義……那麼你制造的就是一場混亂。

從個體層面衡量,組織或許變得更高效了,但成千上萬個智能體(或人類)向相反的方向劃槳,往好裡說會導致停滯不前,往壞裡說會徹底破壞組織的和諧。

這並不是假設。目前在每一個引入 AI 但缺乏協同層的組織裡,這種情況都在發生。每個員工都有自己的 ChatGPT 使用習慣、自己的提示詞風格,以及完全不與其他人的產出接軌的獨立成果。組織架構圖或許還在,但 AI 生成工作的實際流向卻呈現出另一番景象。



圖 2:高產的個體(或智能體)各自向不同方向劃槳。如果缺乏協同,必然導致混亂。

無論對於人類還是智能體,協同都是絕對的剛需。

機構化智能將演變成一個完整的“智能體管理”(Agentic Management)產業,專注於智能體的角色與職責、智能體與智能體以及智能體與人類之間的溝通,並衡量智能體創造的價值(單純按量計費已不足以滿足需求)。

2. 信號

個人化 AI 制造噪音。機構化 AI 尋找信號。

今天的人類能夠創造,或者說生成,任何能想象到的東西:AI 文章、PPT、表格、照片、視頻、歌曲、網站乃至軟件。這簡直是天賦神技。

問題在於,AI 生成的絕大部分內容都是徹頭徹尾的廢話垃圾。這些 AI 垃圾的泛濫已經嚴重到讓一些組織反應過度,甚至全面禁止 AI 產出。我對此深有感觸……我自己經營著一家 AI 公司,但我要求我們的高管團隊不要在任何最終書面成果中使用 AI。我實在受不了那些空洞的廢話。

想象一下私募股權(PE)領域正在發生的變化。去年,可能有 10 個項目擺在你的桌上。而今年,你下個季度就會收到 50 個機會,每一個都經過 AI 潤色得盡善盡美,而你尋找那個真正有價值項目的可用時間卻一點沒變。



“生成”已經不再是問題。對於當今任何嚴肅的組織來說,問題在於如何生成並篩選出“正確”的東西。在 AI 驅動的世界裡,在噪音中尋找那一個優秀的成果、那一個優質的項目、那一個關鍵的信號,變得愈發重要。未來十年的核心經濟驅動力,將是在呈指數級增長的垃圾信息大山中挖掘出有價值的信號。



圖 3:來自個人生產力工具的 AI 廢話正以指數級速度擴散。單靠人類無法梳理這些噪音,因此需要機構級別的全新 AI 產品。

機構級智能必須能夠發現信號,必須能夠將噪音結構化以剔除廢話,並且其工作必須是可定義的、確定性的且可審計的。

個人化 AI 可能強調像 Claude 機器人那樣“永不停歇”的生產力,以不可預測的方式滿足各種全天候需求(即非確定性智能體);而機構化 AI 則依賴於確定性智能體那如同承重牆般的預測性。擁有可預測的檢查點、執行步驟和流程的智能體才能實現規模化,才能發現信號,並通過這些信號為組織驅動收入回報。



圖4:Matrix這個工具可利用生成技術排除噪音,從而打開了確定性智能體的世界大門

3. 偏見

個人化 AI 助長偏見。機構化 AI 創造客觀。

多年來,關於社會政治偏見的擔憂在AI 相關討論中一直占主流位置。基礎模型實驗室最終通過大量的 RLHF(基於人類反饋的強化學習)繞過了這個問題,實際上把所有模型都變成了“馬屁精”。如今,ChatGPT、Claude 等模型由於(過度)對齊,會在“奧弗頓窗口”(社會可接受的言論范圍)內的任何話題上附和你的觀點。雖然社會政治偏見的爭論平息了,但一個新問題隨之而來。

這種在所有事情上都保持一致、過度對齊的程度已經到了滑稽的地步,甚至演變成了一個梗……無論你是否真的正確,Claude 都會條件反射式地回答:“您說得完全正確!”

這聽起來無傷大雅,實則不然。

在許多組織內部,那些叫得最響的 AI 擁護者,可能很快就會成為有史以來表現最差的那批員工。想想這是為什麼。

公司裡表現最差的員工每天幾乎得不到任何正面激勵,但很快他們就會擁有一個對他們百依百順的超級智能(ASI)。他們會喃喃自語:“全世界最聰明的智慧都認同我,那肯定是我的經理錯了。”

這讓人陶醉,但對組織來說卻是劇毒。





圖 5:個人化 AI 信息繭房加劇了分歧,將人們彼此拉開。這種動態在大規模擴展時,會在原本統一的組織內制造派系。

這揭示了一個重要問題:這些個人生產力工具在強化“用戶”的觀點。而在現實中,最需要被強化的應該是“真相”。

數千年來,組織進化的過程就是建立一套系統來抵消這一問題:比如投資委員會會議、第三方盡調、董事會……



圖6:客觀性甚至可以緩解協調問題——它能平抑微小的分歧,而非將其放大。

組織極少因為人們缺乏信心而失敗。它們的失敗往往是因為沒有人願意、或沒有能力說“不”。


機構化 AI 必須扮演這個角色。它不應通過 RLHF 被訓練成只會討好用戶或復讀其信念的工具,而應去挑戰用戶的偏見。它要在行為高效時給予強化,並在出現低效傾向時劃清界限進行糾偏。

因此,組織內部最重要的智能體不應是“唯唯諾諾者”,而應是訓練有素的“唱反調者”,負責質詢推論、揭示風險並執行標准。未來一些最有影響力的 AI 應用將圍繞機構約束而構建:AI 董事會成員、AI 審計師、AI 第三方測試、AI 合規官等等。

4. 優勢

個人化 AI 優化使用率。機構化 AI 優化競爭優勢(Edge)。

AI 的終點線每周、甚至每天都在移動。基礎模型公司為了爭奪每一個用戶和每一家企業,正在飛速迭代各項功能。

但在經典的創新者窘境下,針對特定應用,深度每次都能戰勝廣度:Midjourney 的職責是在設計圖像上保持領先;ElevenLabs 的職責是在語音模型上稍勝一籌;而 Decagon AI 的職責則是永遠在全棧客戶服務體驗上領跑……

雖然基礎模型會不斷逼近,但對於領域專家來說,真正的“微弱優勢”至關重要。只要專業定制的方案也在同步進化,那麼對於商業產出有決定性意義的能力,永遠會掌握在這些專業產品手中。

這一點在金融領域體現得淋漓盡致——這是目前大模型開發最炙手可熱的領域。一旦某項能力變得普及,從定義上講它就無法幫你跑贏市場。但如果前沿技術能帶來哪怕只有 1% 的短暫細分優勢呢?這 1% 的優勢就可以通過杠杆放大成數十億美元的回報。



圖 7:對於任何足夠具體的任務,其競爭優勢(Edge)取決於你在前沿技術(Frontier technology)之上構建的機構化解決方案。

我們的用戶始終在突破前沿技術的極限。在短短四年內,大語言模型(LLM)的上下文窗口已從 4K 增長到了 100 萬 token。目前,我們已有一些用戶在單次任務中處理高達 300 億 token 的數據。今年,我們預計將看到 1000 億 token 級別的任務。每當基礎模型的能力有所提升時,我們往往早已更進一步。





圖 8:上下文窗口與其它模型能力一樣,是一場‘移動球門’的博弈。這是過去三年中,前沿實驗室(Frontier labs)與 Hebbia 在上下文窗口演進上的對比。

讓大眾普及使用 AI 本身就是一個重要且值得追求的目標,特別是在引導員工入門 AI 階段。但未來並非‘人們使用 ChatGPT/Claude 或 領域特定解決方案’的二選一,而是‘ChatGPT/Claude 與 領域特定解決方案’的協同並進。

機構智能(Institutional Intelligence)必須利用特定領域、甚至特定任務的智能體(Agents)。

我們問了自己一個聽起來荒謬但實則不然的問題:‘通用人工智能(AGI)會選擇使用哪些智能體作為捷徑?即便是超級智能,也會希望針對特定領域使用定制化的工具。

在 AI 領域,‘球門’(衡量標准)總是在不斷移動,而那些能夠利用真正能力優勢(True Edge)的組織,才是最後的贏家。除此之外的其他人,只是在為一種極其昂貴的‘大宗商品’買單。

5. 產出


個人化 AI 節省時間。機構化 AI 擴大營收。

Ma Volpi 曾對我說過一句話,重塑了我對向企業銷售 AI 的認知:“如果你問任何一位 CEO,他們的首要任務是削減成本還是擴大營收,幾乎所有人都會說是營收。”

然而,目前市面上幾乎所有的 AI 產品都在推銷“削減成本”,承諾幫我們節省時間、以少勝多或取代人力。

機構化 AI 必須帶來業務增量。相對於“節省時間”,業務增量想要被商品化則困難得多。

以智能體軟件開發(Agentic Software Development)為例:編程 IDE 是有史以來最出色的‘個人 AI 生產力工具’之一,但它們已經面臨來自 Claude Code(另一種個人 AI 工具)的巨大沖擊。而 Cognition 公司則在玩一場完全不同的游戲——他們增長最穩健的業務是構建‘技術轉型服務’,而非僅僅銷售‘工具’。我更看好這種持久的競爭力。



“純軟件正‘迅速變得失去投資價值’。而純服務則無法實現規模化。真正的持久價值,積聚在將技術與成果相結合的‘解決方案層’(Solution layer)。

以並購(M&A)為例。個人化 AI 幫助分析師更快地建立模型;而機構化 AI 則能從一百個候選者中識別出那一個值得追求的交易對手,並將潛在目標范圍擴大到一千個。前者省了時間,後者創造了真金白銀。





圖 9:基礎模型公司正在向垂直應用層延伸;而垂直應用層公司則正在向解決方案層攀升。

向“上游”移動是目前市場的自然引力。基礎模型正在進入應用層,而應用層公司正在進入方案層。機構化智能就是方案層。在方案層這個直接決定產出的地方,將積累長久的價值並捕獲最大的增長紅利。

6.賦能

個人化 AI 給你工具。機構化 AI 教你如何使用工具。

人類雖然充滿智慧,但本質上是拒絕改變的。信不信由你,紐約(专题)現在依然有一些不收信用卡卻經營得風生水起的生意。他們知道自己在虧錢,但依然在慣性中不為所動。同樣,在可預見的未來,某些組織的某些員工仍會拒絕使用 AI。

從純人工組織向 AI 優先的混合型組織轉型,將是未來十年持久且具有定義意義的挑戰。而在很多情況下,組織中級別最高、最重要的那幫人往往采納新技術最慢。



圖 10:組織中的最高層——那些離具體的‘生產力工具活動’最遠的人,往往是對新技術落地最慢、卻也最重要的決策者。

在過去兩個月科技股數萬億美元規模的拋售潮中,Palantir 是唯一一家估值倍數依然高得驚人的‘軟件’公司,這絕非偶然。Palantir 是首批真正的‘流程工程(Process Engineering)’公司之一。無論你稱之為‘流程工程’還是‘編寫 Claude 技能文件’,未來的機構級 AI 都會誕生一個專門的行業,致力於將企業流程編碼進智能體中,並實現將這些智能體投入運行所需的變革管理。



圖 11:要實現全組織的全面采用,需要跨越重重鴻溝,每一道鴻溝都伴隨著各自的挑戰。將全組織的各項流程上線並接入 AI,將成為核心驅動力。

我敢斷言,流程工程在短期內將成為可以說最重要的‘技術’。而在流程工程中,商業和行業專長——而非軟件技術專長——才是最重要的。領域特定的解決方案,其核心價值源於那些負責前線工程、部署以及變革管理的專業人員所具備的深厚經驗。

一家選擇了 Hebbia 進行全面部署的前三強全球性投行(Bulge Bracket Bank)對此總結得最為精辟:他們之所以拒絕與某家大模型實驗室合作,是因為他們竟然‘還得向對方的團隊解釋什麼是 CIM(機密信息備忘錄)’。雖然 Claude 或 GPT 模型本身肯定知道這個領域的知識,但負責架構部署方案的實驗室團隊卻一竅不通……

而這,便是成敗的關鍵所在。

7. 主動性

個人化 AI 響應人類指令。機構化 AI 自動采取行動。



現在關於智能體之間通信,以及未來的商業、軟件和機構是否還需要人類的討論很多。

然而,一個更好的問題是:未來的 AI 智能體是否還需要“提示詞”(prompting)?

給通用人工智能(AGI)發指令,就像把電動機掛在舊式動力織布機上一樣。它從根本上、無可挽回地受限於組織供應鏈中最薄弱的一環——也就是我們。人類很難知道該問什麼正確的問題,更不用說知道什麼時候該問了。

AI 能做的最有價值的工作,是那些沒人想到去要求它做的工作。AI 應該發現沒人標記的風險、沒人想到的交易對手,以及沒人察覺的銷售渠道。

當你消除了人類向 AI 發指令的需求時,全新的交互界面和工作方式就會應運而生。

結語

以上這些都並不是要否定聊天機器人、智能體以及整個個人化 AI 的必要性。個人化 AI 是這個世界上大多數企業首次體驗 AI 變革魔力的媒介。

但與此同時,對於機構化智能的需求也顯而易見,是很迫切且很巨大的。未來每個組織都會擁有來自大型實驗室的聊天機器人,同時也都會擁有專為特定領域問題設計的機構化 AI。

機構化 AI 與個人化 AI “雙劍合璧”的故事是必然趨勢。

但請記住 19 世紀 90 年代紡織廠的教訓:那些只是率先通電的工廠,最終輸給了那些重新設計了整個生產車間的工廠。

我們已經擁有了“電力”,現在是時候重新設計我們的“工廠”了。

譯者:boxi。
不錯的新聞,我要點贊     還沒人說話啊,我想來說幾句
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0317 秒 and 5 DB Queries in 0.0025 秒