阿里云為什么要押注 Coding AI
7 月 23 日凌晨,阿里云一次看似平淡的模型開源操作,卻迅速引爆了市場情緒。
這次發布的模型名為 Qwen3-Coder,由阿里通義實驗室推出,是一款全新的開源代碼大模型。一經上線,便迅速在 Hugging Face 與 GitHub 上收獲數千顆星標,模型權重文件更在數小時內被下載超萬次。
據官方披露,Qwen3-Coder 在代碼能力上全面對標甚至超越 GPT-4.1 與谷歌代碼模型,其性能水平已達到全球頂尖梯隊。相比目前在開發者群體中應用廣泛的 Claude 4 模型,Qwen3-Coder 不僅實現技術上的可比,且在開放性與性價比上更具優勢。
以 20 萬 Tokens 為例,Claude 4 的輸入輸出成本分別約為 22 元/百萬 Tokens 和 108 元/百萬 Tokens,而 Qwen3-Coder 則分別為 10 元/百萬 Tokens 和 40 元/百萬 Tokens,價格大致是前者的一半和三分之一,大幅降低了代碼智能體的使用門檻。更重要的是,Qwen3-Coder 不僅支持免費下載,還允許免費商用,在實際應用中展現出了更高的性價比。
除此之外,資本市場給出的回應也很直接。模型發布后,阿里股價應聲上漲,疊加此前兩周 AI 概念的持續催化,公司股價累計漲幅已超 20%,成為這輪 AI 熱潮中最具代表性的“概念股”之一。
而 Qwen3-Coder 作為模型性能、產品能力和資本情緒的交匯點,與其說它是一次模型的迭代,不如說是阿里在 Coding AI 領域長期布局與持續投入的階段性體現。
阿里云為什么要「卷」代碼?
當 AI 行業的話題中心從“語言能力”轉向“任務執行”,代碼模型成了最容易被忽視卻最重要的基礎設施。眼下,從 OpenAI 到 Anthropic 都在發力 Agent,而阿里卻把更多精力放在了代碼模型這一塊“最不性感”的技術上,看起來不夠熱鬧,實則押對了難點。
Agent 的落地門檻不在語言理解,而在代碼執行。一個 Agent 是否真的能完成復雜任務,最關鍵的不是它能說多花哨的話,而是它是否真的能調起工具、連通系統、處理異常并穩穩地完成任務流程。
而要支撐這些,代碼能力必須強、穩、準。大模型如果在代碼生成上還停留在跑通示例的階段,那它離真實環境中的高復雜度、多接口、多語義的業務流程還遠得很。而 Qwen-Coder 系列的演進路徑,幾乎就是為了解決這些問題而來的:結構理解更好、代碼調試能力更強、跨語言適配更自然,都是去圍繞真實落地的需求所做的優化。
說白了,阿里云沒有試圖造一個“最聰明的 Agent”,而是在造“最靠譜的手腳系統”。
從產品和技術投入來看,阿里過去一段時間在 Coding AI 方向的節奏非常清晰。去年 11 月開源的 Qwen2.5-Coder 系列共包含 6 款模型,在多個主流評測榜單中取得了同尺寸下的領先成績,主要集中在代碼生成精度與泛化能力上。
而在工具層,阿里的通義靈碼插件則是已覆蓋大量開發者群體,下載量超過 1700 萬,累計生成代碼超過 30 億行,除了公司內部全面部署外,也被多家企業接入試用。
事實上,阿里對 Coding AI 的投入并非模型熱潮下的臨時動作,而是其長期技術戰略中的一部分。相比于只講大模型性能,阿里云的真正戰略是圍繞 Coding AI 構建“Agent-ready”的基座能力,這是一場從“聰明的大腦”到“靠譜的雙手”的技術進化。
現在市場上企業真正需要的不是會說話的 AI,而是能在真實業務系統中完成具體任務的智能體。這就要求模型在代碼能力上不只是生成片段,而是能夠執行復雜操作、對接多系統,并具備調試和異常處理的穩定性。如此來看,阿里的選擇并非造概念、追熱點,而是從底層技術中尋找可靠落地的路徑。
模型開源不是終點,云才是閉環的關鍵
而阿里云選擇開源,看似犧牲了自身的商業利益,但其實是在為自家的“云”業務引流。
此次 Qwen3-Coder 延續了 Qwen 系列一貫的開源策略,支持免費商業使用。這一策略在當前大模型生態中其實早已頗具代表性,但也不免得再次引發關于“開源是否影響商業化”的行業討論。
但阿里云的答案其實早已非常明確:模型的免費開源并不是對商業價值的讓渡,而是流量入口和生態抓手,是換了一種方式去打開入口。通過開源模型快速擴展開發者基礎,降低企業試用門檻,再通過云服務來承接部署、微調和運行等后續需求,構建出一條從“用模型”到“用云”的自然路徑。
而“模型 + 云”的組合之所以逐漸成為行業共識,很大程度上是出于現實的工程考量。
盡管開源模型在原則上可以被下載后部署在本地,但一旦進入實際應用階段,涉及到大規模數據處理、穩定的網絡帶寬、分布式算力調度和長期運維,整體系統的復雜度和技術門檻都會顯著提高。對于多數企業來說,獨立承擔這些成本并不劃算,反而將模型運行、部署和優化交給云平臺,是更現實、性價比更高的選擇。
除此之外,AI 模型本身也在從“應用工具”逐步轉變為“基礎設施”的一部分。隨著大模型在企業內部開始參與各類重復性、標準化流程的執行,模型對底層資源的依賴也在不斷加深。模型越智能、接入場景越多,對算力、存儲、網絡、數據同步等基礎資源的需求也越大。這意味著,在越來越多的企業場景中,云服務不再只是模型的附加選項,而成為支持 AI 應用規模化的必要條件。
在這樣的背景下,阿里云持續強化“模型開源 — 云服務轉化”的機制,目的可能并不在于通過某個模型直接賺錢,而是在開源生態和基礎設施之間搭建起一條能跑通的連接通道。
現在很多模型廠商都開開源,真正的分水嶺早已不是“開不開源”,而是有沒有能力把“開源之后的事情”接住。企業愿不愿意真的把模型用起來,往往取決于能不能順利部署、調通流程、接上現有系統,這些環節需要的不僅是模型本身,更是一整套工程支撐能力。
阿里在這些方面,做的很好。
而且事實證明,阿里的這條路線確實開始跑出了一些效果。根據 5 月財報顯示,阿里云本季度收入同比增長 18%,達到 301.27 億元,是過去三年來的最高增速,而其中 AI 相關業務更是連續七個季度維持三位數增長。
IDC 的數據也給了一些側面印證:2024 年,阿里云在中國 AI 基礎設施市場的份額達到 23%,排名第一,超過第二和第三名的總和,在大模型訓練和推理兩個關鍵場景中,阿里云同樣排在前列。從這些數字來看,“模型帶動云”的鏈路,至少在工程和市場層面是跑得動的。
而在 To B 業務場景中,這樣的模式更是尤為高效,相比其他只做模型、或者只做云的玩家,阿里云在大模型相關的能力鏈條上起步更早,也更完整一些:模型怎么托管、怎么調、怎么控權限、怎么過合規檢查,基本都有方案,這對企業來說意味著少踩坑、少走彎路。
當然,這條“模型 + 云”的路能不能一直跑下去,還得看它在不同行業里,能不能真的把模型落地、服務跑起來。光有開源和云資源遠遠不夠,最終還是要看實際能解決多少問題。
模型之后,是工程能力的競賽
這次 Qwen3-Coder 的發布不僅讓人們看到了阿里在代碼大模型上的階段性成果,更揭示出一個值得關注的行業趨勢:大模型的敘事正在從“誰更強”轉向“誰更能落地”。隨著模型性能差距逐漸收窄,真正拉開差距的,可能不再是參數量和榜單成績,而是工程能力 —— 誰能在真實世界的系統里跑通、跑穩、跑得起規模。
這背后不僅考驗模型的生成能力,更涉及調度、調通、運維、權限、合規等一整套工程體系。而這恰恰是阿里選擇“開源模型 + 云閉環”模式的核心邏輯——從技術路徑上構建閉環,從生態建設上形成正向飛輪。
對阿里而言,模型開源是加法,云服務是乘法,唯有兩者結合,才能形成真正的產業勢能。
未來幾年,Coding AI 或許不會成為最熱的行業關鍵詞,但一定會是最實的基礎能力。就像電力和鐵路一樣,它的“性感”不在概念,而在于基礎設施般的穩定與普適。也許正是因為看到了這一點,阿里才會在熱鬧的 AI 舞臺背后,選擇繼續默默打磨手中的“編程鐵錘”。
而屬于 Qwen3-Coder 的真正價值,也許才剛剛開始顯現。雷峰網 (公眾號:雷峰網)
雷峰網原創文章,未經授權禁止轉載。詳情見 轉載須知 。