福利在线小视频_成人日韩在线视频_91免费视频污_最新视频 - x88av_一级全黄肉体裸体全过程_亚洲欧美日韩网站_久久99爱视频_成人黄色一级大片_亚洲综合在线一区二区_老司机午夜av_97在线免费视频观看_一区二区三区 欧美

登錄甲子光年
其他登錄方式
登錄即表示你已閱讀并同意
《甲子光年用戶注冊協(xié)議隱私政策
找回密碼
獲取驗證碼
注冊甲子光年
獲取驗證碼
注冊即表示你已閱讀并同意
《甲子光年用戶注冊協(xié)議隱私政策
綁定手機號
獲取驗證碼
登錄即表示你已閱讀并同意
《甲子光年用戶注冊協(xié)議隱私政策
完善資料
登錄即表示你已閱讀并同意
《甲子光年用戶注冊協(xié)議隱私政策
微信登錄
掃描二維碼 | 授權登錄甲子光年
被輕視的巨大市場,大廠做不好的Local Agent為何難?| 甲子光年
作者:王藝 編輯:栗子 2025-11-12


AI的未來不是云端取代本地,而是云端與本地的深度協(xié)同。

作者|王藝

編輯|栗子

今年下半年以來,AI圈流傳著一個半開玩笑的段子:“DeepSeek R2為什么還不發(fā)布?因為Scaling Law不靈了。”

笑聲背后,是整個行業(yè)正在面對的殘酷現(xiàn)實:大模型的邊際收益正在遞減,AI競賽的上半場規(guī)則正在失效。

首先是訓練模型需要巨量的花費:訓練一個GPT-4級別的模型,費用已經(jīng)突破1億美元大關,而知名科技投資機構BOND于2025年5月底發(fā)布了最新的《AI 行業(yè)趨勢研究報告》顯示,目前訓練最尖端AI模型的成本已接近10億美元規(guī)模,這一成本規(guī)模遠超歷史上任何一個技術開發(fā)項目,標志著AI模型訓練進入了只有資本雄厚巨頭企業(yè)才能主導的時代。

其次是模型能力遇到了增長瓶頸:從GPT-3.5到GPT-4再到GPT-5,大模型智能水平的躍升令人驚嘆;但從GPT-4到GPT-4.5再到GPT-5,即便參數(shù)量翻倍,能力提升卻越來越不明顯。Scaling Law開始“撞墻”——簡單地堆砌參數(shù),不再是通往AGI的捷徑。

然而,就在巨頭們陷入困境時,一個“小模型”逆襲的故事正在上演:

今年5月,DeepSeek R1-0528將原來671B參數(shù)的大模型蒸餾到僅有8B,不僅保持了原有能力,在AIME 2024測試中甚至反超原模型10%。

DeepSeek并不是孤例。Qwen最新推出的Qwen3-VL 4B/8B(Instruct / Thinking)模型在保持256K-1M超長上下文和完整多模態(tài)能力的同時,還能在低顯存設備上穩(wěn)定運行,并提供了FP8量化權重,真正讓多模態(tài)AI走向“可落地”。

英偉達2025年6月發(fā)表的論文也表示,小于100億參數(shù)的“小語言模型”(SLM)在多數(shù)Agent任務中,不僅能媲美甚至超越龐大的LLM,且運營成本僅為后者的1/10到1/30。

圖源:《Small Language Models are the Future of Agentic AI》(小語言模型是Agent AI的未來)。

這些案例震撼了整個AI界——“站在巨人肩膀上”的小模型,居然可以超越巨人本身。

當OpenAI、Anthropic們還在爭論下一代模型需要多少萬億參數(shù)時,產業(yè)界已經(jīng)悄然從“參數(shù)競賽”轉向了“效率革命”,而AI也開始走下云端,走向端側,走到每個人日常的設備和物品里。

1.從Cloud First到Local First,AI進入下半場

1965年,戈登·摩爾提出了著名的預言:集成電路上可容納的晶體管數(shù)量大約每18-24個月翻一番。這個預言在隨后的半個世紀里成為了半導體行業(yè)的“黃金定律”,驅動著計算性能的指數(shù)級增長,也推動了移動互聯(lián)網(wǎng)和云計算革命的到來。

然而到了2015年以后,這條黃金法則開始失靈。晶體管已經(jīng)小到接近原子尺度,繼續(xù)往下壓會遇到量子效應、漏電、散熱等物理極限;制造成本也水漲船高,一座新晶圓廠動輒花掉兩三百億美元。換句話說,“算力的免費午餐”吃完了。

摩爾定律放緩后,各家科技巨頭不得不尋找新路。

蘋果的思路是“垂直整合”:不再依賴英特爾,而是自研芯片,從底層重寫硬件與軟件的協(xié)作方式。2020年推出的M1,是第一款為Mac量身定制的SoC(系統(tǒng)級芯片)——CPU、GPU和AI神經(jīng)引擎共用一套內存池,減少了數(shù)據(jù)搬運,能效比提升三倍。到M4、M5時代,蘋果又把封裝技術玩到了極致:用Chiplet(小芯片)+3D堆疊,把不同功能模塊像積木一樣拼在一起。這讓性能、成本、功耗三者之間找到了新的平衡。正如那篇《A19與M4:雙線戰(zhàn)略》里寫的,蘋果一條線繼續(xù)在 iPhone 上追求極致制程(N3P、N2),另一條線在Mac上深挖封裝創(chuàng)新(CoWoS、3DIC),兩個方向共同構成“后摩爾時代”的雙引擎。

英偉達則走上了另一條路。黃仁勛敏銳地意識到:單核性能不再重要,未來是“萬核并行”的時代。于是從2006年起,他推動GPU通用計算化,用CUDA軟件生態(tài)把千萬開發(fā)者綁在自家陣營。2017年Volta架構的Tensor Core首次出現(xiàn),把AI訓練常用的矩陣乘法加速百倍;此后Ampere、Hopper、Blackwell一代比一代瘋狂,如今H100、B200已成為AI大模型訓練的標配。黃仁勛甚至提出“摩爾定律已死,黃氏定律接班”——GPU性能每年翻一番,靠的不是更小的晶體管,而是更聰明的并行架構、稀疏計算和超節(jié)點互聯(lián)。

正如當年芯片產業(yè)所經(jīng)歷的那樣,當摩爾定律放緩,產業(yè)也開始從“制程競賽”轉向“架構創(chuàng)新”——蘋果的M系列芯片、英偉達的Tensor Core,都是在物理極限下尋找新出路的產物。

而AI產業(yè),也正在經(jīng)歷和芯片產業(yè)同樣的范式變遷。

過去三年,生成式AI經(jīng)歷了爆發(fā)式增長。從ChatGPT到Claude,從GPT-4到DeepSeek,云端大模型以無限算力和持續(xù)迭代能力,重新定義了人機交互的邊界。但繁榮之下,三大痛點日益凸顯:

首先是生產力上體驗不閉環(huán)。除Coding IDE等少數(shù)模型直接產出生產力Token的場景外,AI模型在大多數(shù)辦公、傳統(tǒng)嚴肅研發(fā)場景中仍然停留在對話-咨詢的單點提效階段,生產力場景核心數(shù)據(jù)、工作流等因為隱私焦慮,無法“一鍵全鏈路上云”。BBC在今年8月的一則報道顯示,數(shù)十萬條用戶與埃隆·馬斯克的Grok上的對話記錄在搜索引擎結果中曝光,而用戶對此毫不知情;此外,律師處理敏感案卷、投資經(jīng)理分析內幕材料、企業(yè)管理商業(yè)機密……在所有這些場景下,數(shù)據(jù)上傳云端就意味著失去控制權,無法實現(xiàn)提效+安全雙保險。

其次是Token成本成為應用瓶頸。Anthropic的數(shù)據(jù)顯示,Multi-Agent系統(tǒng)的Token消耗達到普通聊天的15倍。據(jù)外媒報道,使用Manus、Devin等Agent產品單次任務可消耗百萬Token,費用從2美元起步,復雜任務甚至高達50美元。這種成本結構讓高頻、深度的AI應用難以規(guī)模化。

第三是網(wǎng)絡依賴限制使用場景。飛機上、地鐵里、網(wǎng)絡受限的會議室——云端AI在這些日常場景下集體失效。當AI被宣稱為"新時代的水電煤",卻無法像手機本地應用一樣隨時可用,這種矛盾正在變得難以忍受。

然而,在這三個痛點之外,也有三股新生力量也正在匯聚:

小模型能力正在發(fā)生質變:DeepSeek R1-0528推理模型通過將671B參數(shù)模型的思維鏈蒸餾到Qwen3 8B,在AIME 2024測試中超越原模型10%,性能匹配需要30倍參數(shù)量的Qwen3-235B-thinking。這意味著,智能水平不再與模型規(guī)模簡單正相關,知識蒸餾、推理增強等技術正在讓小模型“站在巨人肩膀上”。

端側芯片正在打開市場:英偉達推出DGX Spark,把原本只存在于數(shù)據(jù)中心的AI訓練與推理能力,縮小到可部署在桌面端的規(guī)模級。這意味著高性能推理和小型模型訓練開始走向“端側可及”;Apple M5芯片單位功耗的AI計算效率相比M4提升數(shù)倍,使得筆記本與平板在離線狀態(tài)下即可完成復雜生成任務。這標志著消費級設備的智能上限被大幅拉高,而成本曲線卻在迅速下降;華為也在鴻蒙生態(tài)中押注端側大模型。硬件廠商的集體行動,正在為本地AI鋪設基礎設施。

用戶需求正在覺醒:AI提效、數(shù)據(jù)主權、模型主權不再是極客的偏執(zhí),而是專業(yè)用戶的剛需。就像家庭從集中供電轉向分布式光伏,AI能力的“電力化”也在走向分布式部署。

在這些痛點和趨勢之下,一個清晰的共識正在形成:AI的未來不是云端取代本地,而是云端與本地的深度協(xié)同,而本地智能將承載50-80%的日常任務。

2.從“小模型”到“Local Agent”,為何AI產品本地體驗總是差強人意?

然而,理想很豐滿,現(xiàn)實卻很骨感。在AI Agent爆發(fā)的當下,絕大多數(shù)現(xiàn)有產品的本地體驗依然“差強人意”。

以Ollama、LM Studio為代表的本地AI產品為例,其核心問題并非模型性能不足,而是發(fā)展模式和用戶需求間存在根本性差異。

首先是定位偏差。這類產品本質上是為開發(fā)者設計的“本地版ChatGPT”體驗工具,用于快速測試Hugging Face上的開源模型。這對普通用戶造成了三大體驗問題:

遠離非技術用戶:普通用戶如律師、投資經(jīng)理,既不了解Hugging Face,也不懂GGUF模型格式,難以直接使用。

缺乏垂直整合:產品僅提供基礎聊天或API接口,無法滿足文檔深度研究等復雜生產力場景的需要。

放大模型缺陷:“什么都能聊”的寬泛定位,讓用戶習慣性地將其與GPT-4等頂級模型對比,用戶并不需要一個離線聊天機器人。

其次是技術棧問題。大多數(shù)本地產品在錯誤的技術路線上進行優(yōu)化。盡管Ollama、LM Studio試圖圍繞開發(fā)者需求打造CLI等周邊工具集,但圍繞GGUF開源模型的容器管理平臺設計成為其歷史包袱,整套Local Infra的地基并不牢靠:

推理技術瓶頸:產品生態(tài)嚴重依賴GGUF這類訓練后量化(PTQ)方案。其致命缺陷在于低比特量化(如3-bit及以下)會導致模型精度嚴重下降,“智能密度”存在上限,陷入模型能力和用戶硬件資源的蹺蹺板場景,難以勝任Agent等多步推理的復雜任務。

方案缺乏整合: “海量”開源GGUF模型體驗看似量大管飽,實則都是初代預制菜。它們只提供僅加熱的“調料包”(本地模型+API),而非為用戶細心打造的“本地模型+Agent基礎架構+產品交互”的一體化解決方案。普通用戶需要的是可以直接使用的“成品車”,而不是一堆需要自行組裝的“汽車零件”。

應用生態(tài)局限: 開發(fā)者圍繞GGUF這類第三方UGC量化模型生態(tài)無法打造數(shù)據(jù)飛輪。當前預訓練模型本身的黑盒特性已經(jīng)給業(yè)務評估和迭代帶來障礙,第三方 GGUF模型的不可逆量化給大模型引入全新量化噪聲,讓AI能力維護與迭代成為瓶頸。

綜上所述,本地Agent的真正價值不在于“泛泛而談”,而應利用身位更近、快云端一步的優(yōu)勢,深度整合于特定垂直場景工具,實現(xiàn)工具嵌入推理服務(Tool-Integrated Reasoning),帶來更好的智能服務體驗,成為“能干臟活、不怕累”的高效生產力工具。而當前主流Local AI產品的方向,更像是在用螺絲刀敲釘子,用錯了地方。

3.從“1-bit 模型”到“Local AgentInfra”:GreenBitAI的十年 “Local” 長征

當云端AI競賽因成本與物理極限而趨于瓶頸時,一個堅守與深耕低比特模型近十年的德國的技術團隊,正以一款專業(yè)級的 Local Agent 產品,撬動著 Local Agent Infra 這個萬億級的增量市場。

GreenBitAI的故事,正是一個從“做模型”到“做基礎設施”的戰(zhàn)略進化史。

故事要從2016年說起。彼時深度學習剛剛崛起,業(yè)界主流還在追求更深、更大的網(wǎng)絡。與此同時,一條將模型壓縮到極致的“反向路徑”——1-bit神經(jīng)網(wǎng)絡(BNN)——也開始出現(xiàn)。以XNOR-Net為代表的開山之作,因其對效率提升的巨大想象空間(甚至宣稱未來能用CPU取代GPU),在2016到2018年間引發(fā)了一場短暫的學術“淘金熱”。當時正在德國 HPI 實驗室的楊浩進,正是全球最早投身于這條賽道的少數(shù)幾位核心開創(chuàng)者之一。

然而,這場熱潮來得快,去得也快。當研究者們發(fā)現(xiàn)BNN的精度始終在“不可用”的水平徘徊,難以突破瓶頸后,曾經(jīng)的“金礦”迅速變成了“貧瘠的荒地”。對于追求“短平快”和新概念的學術圈而言,這意味著是時候轉向下一個熱點了。于是,淘金者們迅速退潮,BNN方向迅速由熱轉冷,成了一條少人問津的“斷頭路”。

但楊浩進和他的團隊選擇了堅守。正是在這段外界看來最冷清、最沒有希望的時期,他們取得了決定性的突破。這個過程漫長而充滿荊棘,頂破天花板的每一步都充滿煎熬。

這份堅守最終換來了突破性的成果,GreenBitAI團隊用一個個堅實的里程碑,證明了這條路的正確性:

  • 2018年-2020年:團隊研發(fā)出首個在ImageNet上精度超過60%、70%的1-bit CNN模型,達到同期谷歌端側SOTA模型MobileNet的精度水平,突破了手機端測部署B(yǎng)NN的基準線;

  • 2022年底: 團隊推出的BNext-L模型在ImageNet上達到了80.4%的Top-1準確率,比谷歌同期的模型高出3個百分點。這不僅僅是一個數(shù)字的突破,它意味著,極致壓縮的1-bit模型,在精度上首次達到了當時端側和云端主流部署的ResNet基準線,證明了其在視覺任務上具備了商業(yè)落地的可行性。


GreenBitAI團隊開發(fā)的BinaryDenseNet、MeliusNet和BNext系列模型分別在ImageNet數(shù)據(jù)集上實現(xiàn)60%、70%和 80%的分類精度,其中BNext-L模型以1-bit量化達到80.4%精度。 圖源:GreenBitAI

此外,GreenBitAI團隊也持續(xù)在開源框架和優(yōu)化1-bit模型的算法,并提出了全新的蒸餾訓練范式低比特模型優(yōu)化器算法。

這些成果不僅是論文數(shù)字,更是證明了:模型壓縮不是線性的損失過程,而是非線性的優(yōu)化空間。在某些設計下,壓縮甚至能帶來正向收益(如減少過擬合)。

這長達六年的“煉鋼”過程,讓GreenBitAI對模型壓縮的理解遠超同行,為日后向大語言模型遷移奠定了最堅實的技術地基。

2023年,ChatGPT引爆大語言模型熱潮。楊浩進和團隊意識到:技術窗口來了。大模型的參數(shù)量動輒千億級,部署成本高昂,恰好是低比特壓縮與推理技術的用武之地。

但在實踐中,他們很快發(fā)現(xiàn):僅僅做模型壓縮是不夠的。

“最開始我們確實是做模型壓縮、低比特量化,也就是把模型在端側做小,讓更高精度、更高水平的智能放入消費級終端硬件。”楊浩進回憶道,“但隨著我們在本地化Agent方向上不斷演進,我們發(fā)現(xiàn),如果自己不做一個Agent應用,你很難真正把整個Agent Infra層面所有的坑趟過來。”

于是,Libra(Beta版)誕生了。它雖然是一個偏垂直的文檔處理Agent應用,但實際上是GreenBitAI打磨Local Agent Infra的重要抓手——通過構建Libra,團隊可以聯(lián)動優(yōu)化本地低比特模型,可以發(fā)現(xiàn)推理、上下文、性能優(yōu)化中的真實痛點,還可以驗證技術方案在專業(yè)場景下的可行性。

Libra主界面 圖源:GreenBitAI

“只有躬身入局做產品,方知其中技術上的難與妙。”楊浩進說,“只有從開始就瞄準‘專業(yè)級體驗’,以最終用戶體驗為唯一標準,給自己上高難度,才能倒逼技術的提高。”

而在這個過程中,團隊的使命也發(fā)生了根本性轉變:從打造最好的“端側模型”,蛻變?yōu)榇蛟熳詈玫摹癓ocal Agent Infra”。

在Libra的打磨過程中,GreenBitAI構建出完善的Local Agent Infra技術棧。該技術棧包含多個核心模塊,我們將重點介紹其中三個代表性的部分:

模塊一:模型層優(yōu)化——不只是壓縮,更是“解碼偏好的重新對齊”。

GreenBitAI推出的GBAQ(GreenBit-Aware Quantization)算法框架,不是又一個孤立的壓縮算法,而是一套為Local AI打造的“量化與推理平臺”。

傳統(tǒng)認知認為:量化=精度損失。但GreenBitAI證明:量化不是簡單的“壓縮”,而是模型解碼偏好的“重新對齊”——識別出真正關鍵的權重并加以保護,對非關鍵部分進行激進壓縮,確保模型在預訓練階段學會的核心推理軌跡不被破壞。

更關鍵的創(chuàng)新在于Test-time Scaling(測試時擴展)技術。

“模型在預訓練時學到的知識和能力,在推理時是不是就能完全發(fā)揮出來?”楊浩進表示,“我們近期的研究發(fā)現(xiàn):有方法可以在推理時進一步對齊,把預訓練時學到的能力盡可能深入地挖掘發(fā)揮出來。”

這是一個顛覆性的思路:不需要訓練,也不需要后訓練,只在推理時(Test-time)進行優(yōu)化和擴展,就可以直接帶來本地小模型推理性能的顯著提升。

模型層優(yōu)化之后的實測效果驚人:

GreenBitAI的3-bit模型在Thinking模式下,用30-40%的Token消耗就能達成FP16級別的推理質量;


GBAQ算法下的4bit模型與其他量化技術路線在自然語言理解任務上的表現(xiàn)差異 制圖:甲子光年

在 Multi-Agent 任務中,3-bit 模型完成率達到 100%,而競品 4-bit 方案全線失敗;


GreenBitAI 3-bit模型完美執(zhí)行泡泡瑪特公司深度調研測試結果 視頻來源:GreenBitAI

Apple M3芯片上,預填速度1351.7 tokens/s,解碼速度105.6 tokens/s——這意味著加載一個百頁文檔只需幾秒,生成回答的延遲感知接近云端API。

模塊二:性能層優(yōu)化——讓模型在本地跑得更快、更省。

除了模型本身的智能優(yōu)化,還需要在工程和數(shù)據(jù)層面做優(yōu)化,讓模型的運行效率更高。

GreenBitAI的方案包括:

  • 混合精度策略:關鍵層4-bit或8-bit,非關鍵層2-bit甚至1-bit,整體平均3-4 bit;

  • QAC(量化感知校準):僅需單張消費級GPU即可對千億級大模型完成近乎無損的2-4 bit壓縮;

  • 跨硬件部署優(yōu)化:一套模型,適配 Apple、英偉達、華為等多生態(tài)。

圖源:GreenBitAI

在經(jīng)典編程挑戰(zhàn)測試中,GreenBitAI的GBA-Q4模型無論是代碼運行成功率還是指令遵循準確性都遠超競品壓縮模型。

“模型壓縮本質上也是性能提升的一種手段。”楊浩進說,“但我們做的不只是壓縮,而是在極限約束下重新設計推理流程——讓每個比特都發(fā)揮最大價值。”

模塊三:上下文工程——降低難度,而不只是塞進去。

上下文是圍繞大模型非常重要的優(yōu)化方向,但GreenBitAI的思路與行業(yè)主流不同。

“因為模型小,智能水平相對低,所以對上下文的優(yōu)化不僅僅只是把它做得足夠小,可以塞進多輪對話的context場景里。”楊浩進解釋,“更重要的是要降低上下文的難度——讓模型看到的內容更易理解、更聚焦關鍵。”

也就是說,不是讓小模型“看得更多”,而是讓它“看得更準”。

具體做法包括:

  • 動態(tài)Context Engineering:根據(jù)任務需求,動態(tài)加載關鍵上下文,非關鍵部分壓縮或丟棄;

  • 信息降維與結構化:把長文檔、多輪對話轉化為結構化的知識圖譜(TOON格式),降低模型理解難度;

  • Test-time校準引擎:在推理過程中動態(tài)調整注意力權重,確保模型聚焦最相關的上下文片段。

我們16GB內存的設備可以處理百頁文檔,秘密就在于Context Engineering。”楊浩進透露。

GreenBitAI的Local Agent Infra最大優(yōu)勢在于打通了從模型優(yōu)化層-硬件Infra層-應用Context層的垂直工具整合,充分發(fā)揮了創(chuàng)業(yè)團隊在生態(tài)身位的優(yōu)勢。

但團隊的愿景不止于此。

“我們做的Local Agent Infra,專門針對消費級硬件生態(tài),”楊浩進說,“只要是想要在本地設備上落地的AI應用,我們都希望能成為他們的支撐。”

換句話說:GreenBitAI不只想做一個應用,而是想打造Local AI的平臺和生態(tài)——就像iOS和Android定義了移動互聯(lián)網(wǎng),GreenBitAI希望定義Local AI的技術標準和生態(tài)規(guī)則。

4.一款專業(yè)級Local Agent,撬開萬億美元增量市場

2025年9月30日,GreenBitAI正式發(fā)布了Libra beta release——全球首個支持完全本地化、可在斷網(wǎng)環(huán)境下運行,達到專業(yè)級AI性能需求的Agent產品。

在Libra發(fā)布之前,職業(yè)用戶對專業(yè)級AI性能的需求,只能通過云端調用頭部大模型廠商的旗艦版模型來滿足。也就是說,除非企業(yè)做了內網(wǎng)部署,要想使用專業(yè)級AI來處理數(shù)據(jù)和文檔,這些文件就必須上傳到云端。

這對律師、投資經(jīng)理、企業(yè)高管等專業(yè)用戶來說,是一個無法接受的隱私妥協(xié)。

Libra的出現(xiàn),證明了一件事:專業(yè)級Agent應用是可以在消費級硬件上流暢運行的

Libra有三大核心亮點:

一是專業(yè)級文檔處理與生成。 Libra專注于專業(yè)文檔處理,支持從邏輯結構、內容撰寫到排版美化的全流程優(yōu)化,輸出質量媲美人工專家。它證明了通過創(chuàng)新的模型壓縮與推理校準技術(GBAQ),極限壓縮后的模型依然能保持極高的精度和穩(wěn)定性,廣泛適用于金融分析報告的處理與生成、學術論文理解等高標準場景。

二是完全本地化運行。 基于GreenBitAI領先的低比特大模型技術,Libra可在普通筆記本和桌面設備上完全離線運行。數(shù)據(jù)全程留存于本地,這為金融、醫(yī)療、法律等對信息安全要求最嚴苛的行業(yè)提供了理想的解決方案。

三是輕量化與高性能。 基于高效的Local Agent Infra框架, Libra 真正實現(xiàn)了AI Agent在消費級設備上的流暢體驗,解決了端側應用的核心性能瓶頸。

X網(wǎng)友對Libra的評論 圖源:X

此外,Libra還內置多領域專家協(xié)同模式,可通過智能工作流配置,綜合瀏覽器使用、本地Python代碼運行實現(xiàn)復雜文檔任務的分工協(xié)作處理,讓AI不再只是助手,而是可與用戶并肩工作的專業(yè)智能團隊

Libra本地模型的Deep Research調研澳大利亞面向國際學生大學課程實用指南。 視頻來源:GreenBitAI

可以看到,Libra的設計哲學是:承認約束,擁抱約束,將約束轉化為差異化優(yōu)勢。

「甲子光年」認為,Libra在AI發(fā)展史上或許會成為一個里程碑式的獨特存在,因為它不僅僅是一個文檔生成工具,更是一個技術驗證平臺,它驗證了專業(yè)級Agent應用是可以在消費級硬件上流暢運行的。

更重要的是,GreenBitAI及其推出的Libra押注的不是存量市場的替代,而是一個萬億美元的增量市場。

在采訪中,楊浩進用了一個比喻:端側AI設備,會像家庭Wi-Fi中繼器一樣普及。

10年前,大多數(shù)家庭只有一個路由器。但隨著智能家居設備增多,一個路由器覆蓋不了全屋,于是中繼器、Mesh組網(wǎng)成為剛需。從“可選”到“必需”的轉變,創(chuàng)造了數(shù)百億美元的增量市場。

端側AI正在經(jīng)歷相同的路徑:

  • 當前:云端AI是主要選擇,本地AI是可選補充

  • 3年內:50-80%任務遷移到本地,云端處理剩余復雜任務

  • 5年后:每個房間一個AI小站(可能集成在智能音箱、顯示器、路由器中),形成家庭AI網(wǎng)絡

這個演進不是替代,而是增量疊加。就像中繼器沒有讓路由器消失,本地AI也不會讓云端AI消亡。但增量市場的規(guī)模,可能遠超存量市場。

2019-2022年,全球智能手機出貨量雖然下滑,但5G手機滲透率從0快速提升到80%以上,創(chuàng)造了巨大的換機需求。端側AI硬件的普及,可能復刻這個路徑——不是買新設備,而是升級為"AI-native"設備。

根據(jù)Gartner預測,到2025年底,AI PC將占全球PC市場總出貨量的31%,使得全球AI PC出貨量將達到7780萬臺;2026年AI PC出貨量將達到1.43億臺,占整個PC市場的55%,并且AI PC將在2029年成為常態(tài)。

2024-2026年全球AI PC市場份額和出貨量 圖源:Gartner

QY Research報告則顯示,2030年全球智能終端市場規(guī)模將達2.6萬億美元,其中行業(yè)應用占比超60%。

長期看,平臺化Agent Infra可能是最大的想象空間。當端側AI應用爆發(fā),開發(fā)者需要統(tǒng)一的模型格式、推理引擎、優(yōu)化工具。誰提供了這個平臺,誰就掌握了生態(tài)主導權。

為抓住這一歷史性機遇,GreenBitAI已經(jīng)規(guī)劃了清晰的“三步走”商業(yè)化路徑,旨在從一個標桿應用出發(fā),逐步成為端側AI時代的基礎設施提供商:

  • 第一步,ToC端訂閱:用Libra打造標桿與現(xiàn)金流。 首先,Libra將通過訂閱制面向對數(shù)據(jù)隱私和專業(yè)性有極高要求的個人用戶(如律師、投資經(jīng)理、研究員)。每月幾十美元的定價,相比云端API高昂的調用成本極具競爭力,通過“免費試用-付費訂閱”的路徑,快速驗證產品價值并建立穩(wěn)定的現(xiàn)金流。

  • 第二步,ToB端授權:用Local Agent Infra解決企業(yè)剛需。 其次,GreenBitAI將向需要私有化部署AI應用的企業(yè)客戶,提供核心的本地Agent Infra授權。這直接解決了企業(yè)在云端方案下無法滿足的數(shù)據(jù)安全和合規(guī)痛點,也是團隊目前已經(jīng)驗證成功的商業(yè)模式,例如與德國政府部門及金融機構的合作項目。

  • 第三步,平臺化生態(tài):成為端側AI的“Hugging Face”。 最終,GreenBitAI的愿景是成為整個端側AI應用的底層支撐。通過提供包括300+開源模型庫、Local Agent Infra引擎,成為端側應用開發(fā)者首選的平臺,建立起端側AI的事實標準。

這條從產品到平臺再到生態(tài)的清晰路徑,背后是由一支兼具頂尖學術背景與豐富產業(yè)經(jīng)驗的團隊來支撐的。

GreenBitAI創(chuàng)始人兼CEO楊浩進以博士論文最高榮譽summa cum laude畢業(yè)于德國Hasso Plattner計算機系統(tǒng)工程院(HPI),擁有德國教授任教資格(Habilitation);他還曾主導華為云、阿里巴巴邊緣計算與人工智能技術研發(fā)。GreenBitAI 的核心技術團隊來自華為、德國HPI研究院、保時捷AI、德國博世AI研發(fā)中心等知名機構。

或許也正是看好GreenBitAI的商業(yè)化潛力,在融資環(huán)境比較困難的2024年,GreenBitAI先后獲得了國內一家產業(yè)巨頭的天使輪戰(zhàn)略投資以及普華資本、一村資本的天使+輪跟投GreenBitAI構建的AI工具鏈也已經(jīng)應用于國內知名終端企業(yè)與德國大型國有企業(yè),顯著降低了模型部署門檻,推動 AI 大模型在多樣化場景的規(guī)模化落地。

人類對更高智能的追求,從未停止。當云端AI讓智能觸手可及時,GreenBitAI正在讓智能真正屬于每個人——在你的設備上,用你的數(shù)據(jù),守護你的隱私,以你想要的方式。

這不是技術的降維,而是智能的回歸。

就像電力從集中供應走向分布式發(fā)電,AI能力也終將從云端壟斷走向本地普及。而在這場變革中,掌握“壓縮之道”的GreenBitAI,正在書寫屬于端側智能的新篇章。

(封面圖來源:AI生成)


  • 42622
  • 532
  • 167
  • 0
評論
福利在线小视频_成人日韩在线视频_91免费视频污_最新视频 - x88av_一级全黄肉体裸体全过程_亚洲欧美日韩网站_久久99爱视频_成人黄色一级大片_亚洲综合在线一区二区_老司机午夜av_97在线免费视频观看_一区二区三区 欧美
黄色网页免费在线观看| 国产3p在线播放| 无遮挡又爽又刺激的视频| 国产精品50p| 成人在线激情网| 浓精h攵女乱爱av| 成人免费黄色av| av动漫在线播放| 日本wwwcom| 欧美成人三级在线播放| 一本一道久久a久久综合蜜桃| 国产熟人av一二三区| www精品久久| 欧美日韩亚洲自拍| 日韩在线综合网| 欧美久久久久久久久久久久久| 久久久精品在线视频| 欧美黑人在线观看| 欧美在线观看视频网站| 日韩在线综合网| 欧美视频在线播放一区| 精品国产一区三区| 国产 日韩 欧美在线| 亚洲熟妇无码一区二区三区| 国产综合中文字幕| 日本在线xxx| 国自产拍偷拍精品啪啪一区二区| 精品99在线视频| 9999在线观看| 精品一区二区中文字幕| 日韩少妇内射免费播放18禁裸乳| 美女日批免费视频| 日本黄色三级大片| 免费久久久久久| 日本少妇高潮喷水视频| 免费无遮挡无码永久视频| 蜜桃视频一区二区在线观看| 成人毛片100部免费看| 欧美交换配乱吟粗大25p| 久久视频免费在线| 男人的天堂日韩| 久久av综合网| 免费无码不卡视频在线观看| 国产无套内射久久久国产| 狠狠热免费视频| 激情文学亚洲色图| 性鲍视频在线观看| 久久久久久久久久一区| 亚洲综合123| www.夜夜爱| 欧美aⅴ在线观看| 国产一伦一伦一伦| 国产精品无码一区二区在线| 91香蕉视频污版| 制服丝袜中文字幕第一页| 免费观看国产视频在线| 日本韩国欧美在线观看| 亚洲一二三区av| 乱子伦一区二区| 亚洲午夜无码av毛片久久| 欧美午夜aaaaaa免费视频| 自拍一级黄色片| 黄色大片在线免费看| 天天操天天爱天天爽| 99re99热| 国产精品50p| 妺妺窝人体色www在线小说| 亚洲一级片网站| 亚洲熟妇无码av在线播放| 黑人巨大国产9丨视频| 99热亚洲精品| 在线不卡一区二区三区| 国产黄色激情视频| 精品久久久久久久无码| 五月天在线免费视频| 久久精品一区二| 免费在线观看毛片网站| jizz大全欧美jizzcom| 免费国产成人看片在线| 免费国产成人av| 国产午夜精品视频一区二区三区| 国产精品69页| 国产成人亚洲综合无码| 国产免费999| 成年女人18级毛片毛片免费 | 黄色高清视频网站| 国产精品沙发午睡系列| 激情五月五月婷婷| 日本va中文字幕| 小早川怜子一区二区三区| 欧美韩国日本在线| 国产免费色视频| 熟女人妇 成熟妇女系列视频| 91视频福利网| 日本一区午夜艳熟免费| 久久九九国产视频| 福利视频免费在线观看| 国内国产精品天干天干| 黄色网页免费在线观看| 亚洲色婷婷久久精品av蜜桃| 亚洲 国产 图片| 粉嫩虎白女毛片人体| 欧美中日韩在线| 国产对白在线播放| 天堂在线中文在线| 天堂社区在线视频| 成年人免费在线播放| 奇米影视亚洲色图| av在线免费观看国产| 亚洲熟妇国产熟妇肥婆| 99久久免费观看| 91免费国产精品| 日本一二三区视频在线| 亚洲天堂网站在线| 中文字幕第17页| 乌克兰美女av| 国产精品无码电影在线观看 | 欧美视频在线免费播放| 91大学生片黄在线观看| 国产乱叫456| 三级一区二区三区| 波多野结衣天堂| 黄色av免费在线播放| 欧美激情成人网| av动漫免费看| 久久久久狠狠高潮亚洲精品| 人妻熟女一二三区夜夜爱| 97超碰免费观看| 91.com在线| 国产一二三区在线播放| 激情成人开心网| 亚洲国产精品无码观看久久| 国产手机免费视频| 天天干天天操天天玩| 日日噜噜夜夜狠狠| 亚洲精品手机在线观看| 国内av一区二区| 在线观看免费黄色片| 国产树林野战在线播放| 2022中文字幕| 国产主播自拍av| www.亚洲成人网| 亚洲一区二区福利视频| 天堂中文av在线| 性生生活大片免费看视频| 青春草在线视频免费观看| 麻豆视频传媒入口| 国产精品久久久久久久乖乖| 久久国产亚洲精品无码| 91n.com在线观看| 久久艹这里只有精品| 久久综合亚洲精品| 欧美日韩在线视频一区二区三区| 91av俱乐部| 岛国av免费在线| 好吊色视频988gao在线观看| 水蜜桃色314在线观看| 妺妺窝人体色www在线观看| 亚洲一二三不卡| 白嫩少妇丰满一区二区| 亚洲36d大奶网| 三级在线免费观看| 欧美成人黑人猛交| 国产av国片精品| 啊啊啊国产视频| aaa免费在线观看| 成人午夜视频免费在线观看| 天天色天天干天天色| 蜜臀av色欲a片无码精品一区| 国产一级不卡毛片| 欧洲美女和动交zoz0z| 成人免费观看cn| 99热一区二区| 日韩精品视频在线观看视频| 国产一二三四在线视频| 国内外成人激情免费视频| 妺妺窝人体色www在线小说| 超碰中文字幕在线观看| 黄色免费观看视频网站| 99精品视频网站| 免费日韩视频在线观看| 中国一级大黄大黄大色毛片| 成年人免费在线播放| 国产精品无码一区二区在线| 嫩草视频免费在线观看| 黄网站欧美内射| av在线网站免费观看| 中文字幕乱码人妻综合二区三区| 黄瓜视频免费观看在线观看www| 欧美 日韩 国产一区| 日本久久高清视频| av在线com| 欧美a v在线播放| 色偷偷中文字幕| 黑人粗进入欧美aaaaa| 国产美女永久无遮挡| 日韩成人av免费| 亚洲精品高清无码视频| 91免费黄视频| 亚洲色精品三区二区一区|