
作者:Boxu Li
xAI 的 Grok 已從 X 上的尖端聊天機器人迅速發展成為前沿規模的 AI 平台。這篇深入分析探討了 Grok-1、2、3 和 4 的基礎設施和模型能力如何進步——以及即將推出的 Grok-5 我們可以期待什麼。
Grok 是由 Elon Musk 的 AI 新創公司 xAI 開發的旗艦大型語言模型 (LLM) 系列。它於 2023 年底開始作為面向消費者的聊天機器人出現在 X(前稱 Twitter)上,並以其略帶反叛和機智的個性著稱。Grok 之所以能立即脫穎而出,是因為它具有實時意識——不同於大多數數據陳舊的 LLM,Grok 緊密整合了 X 的即時動態,並能即時進行網頁搜索[1]。實際上,Grok 是 LLM 與實時數據代理的混合體:它能從 X 的帖子和網絡中提取最新信息,然後在回應中結合引用這些事實[1]。這個「銀河便車指南」風格的機器人樂於回答幾乎任何問題(甚至是其他 AI 可能會拒絕的「辣」問題),這種直率的方式吸引了注意,也引發了一些爭議。
在幕後,Grok 並不是單一模型,而是一個模型和工具的家族。 早期,xAI 將基礎的 Grok-1 模型(擁有龐大的 3140 億參數網絡)以 Apache-2.0 許可證開源,展現出一種異常開放的策略。從那時起,xAI 快速進行了迭代:Grok-1.5 增加了長上下文和多模態視覺,Grok-2 改進了速度和多語言支持,Grok-3 引入了顯式推理模式,而 Grok-4(以及 4 “Heavy”) 則推進到多代理領域,具備工具使用和合作子代理功能。現在可以通過 X 上的 Grok 聊天機器人、xAI API,甚至雲平台(Oracle Cloud 將 Grok-4 列為一級模型供應)訪問 Grok。簡而言之,Grok 從一個單一前衛的聊天機器人演變為一整個 AI 堆疊 —— 一個以求真、實時整合和重型推理為中心的堆疊。
在Grok健談的前端背後,是世界上最強大的AI超級計算機之一。Colossus,位於田納西州孟菲斯的xAI GPU巨型集群,是為了以前沿規模訓練和運行Grok而建造的。於2024年中期宣布,由馬斯克稱為「孟菲斯超級集群」,Colossus專為最多100,000個NVIDIA H100 GPU設計,透過單一高帶寬RDMA結構連接。正如馬斯克所說,「這是世界上最強大的AI訓練集群!」。容納Colossus的數據中心是一個150 MW的設施,僅用了122天就建成——這樣的速度成就吸引了媒體的關注,甚至還有ServeTheHome的視頻導覽。

**硬體設計:**Colossus 的基本單位是一個 Supermicro 液冷機架,內含 8 台伺服器,每台配備 8× NVIDIA H100 GPU(每個機架有 64 個 GPU)。每個機架還有一個冷卻劑分配單元 (CDU) 和高速網路交換機,機架被分組成 8 個集群(512 個 GPU),形成小型集群。這種均質、模組化的設計使擴展和管理變得更容易。所有組件——GPU、雙 Xeon CPU、PCIe 交換機——都採用液冷,這對於 H100 的熱輸出和 150MW 設施的電力預算至關重要。網路採用 NVIDIA 的 Spectrum-X 乙太網佈局和 BlueField-3 DPU,每個節點達到 400 Gbps+,使跨機架的 GPU 能夠以極高速度進行通信[4][5]。簡而言之,xAI 建立 Colossus 是為了最小化瓶頸:快速的互連、持續高效利用的冷卻,以及冗餘的電力/冷卻,以確保沒有單一故障會中止訓練。
規模和混合運算: 截至2024年中,xAI 已有~32,000個 H100 上線,計劃在年底前擴增至100,000個。他們還宣布了一項擴展計劃(「Colossus 2」),在2025年將使用300,000個下一代GPU(NVIDIA B200s)[6]。即使在建立自己的數據中心時,xAI也不僅依賴於單一的運算來源:他們在Oracle Cloud上租用了大約16,000個H100 GPU,並利用AWS和備用的X(Twitter)數據中心[7]。這種混合策略賦予xAI靈活性,能夠立即開始訓練大型模型(使用雲端GPU),然後逐漸將工作負載遷移到他們自家的超級計算機上。到2025年底,據報導Colossus將包含150,000個H100 GPU(以及數萬個更新的H200 GPU),為Grok-4及其後的發展做準備。
**軟體堆疊:**為了充分利用這些硬體,xAI 建立了一個自訂的分散式訓練框架,以 JAX(Google 的高性能陣列和機器學習庫)為核心,並在 Kubernetes 上運行基於 Rust 的協調層[8]。用 xAI 自己的話來說,「大規模語言模型的訓練就像一列雷霆般前進的貨運列車;如果有一節車廂出軌,整列火車都會被拖出軌道。」 在數千個 GPU 間保持高可靠性和模型 FLOP 利用率(MFU)是首要任務。xAI 的訓練協調器會自動檢測並排除任何開始故障的節點(例如硬體錯誤),並在需要時無縫重啟工作的分片[9]。檢查點儲存數百 GB 的模型狀態以防止單一服務器故障抹去數日的進展。本質上,xAI 將基礎設施視為一個一等問題——投資於工具以確保即使在硬體故障時或嘗試新模型架構時也能讓 10,000 多個 GPU 忙碌。這個 JAX + Rust + Kubernetes 堆疊使 xAI 能夠將工作擴展到 Colossus 集群,並快速迭代模型變體(如 Grok 版本迅速推出所證明)。這與 Google 的 TPU 基礎設施或 OpenAI 的軟體堆疊的理念相似,但 xAI 將其調整以混合 GPU 集群並強調故障韌性。
首個完整版本,Grok-1,於 2023 年底推出,作為一個 前沿級 LLM,在大約四個月內開發完成。Grok-1 的架構是一個 專家混合 (MoE) Transformer——基本上是一個稀疏模型,其中不同的“專家”(子網絡)負責處理不同的標記。在規模上,Grok-1 是龐大的:總共擁有 3140 億參數,包含 64 個 Transformer 層和 48 個注意力頭。它使用 131k 個標記的詞彙表和 6,144 的嵌入大小,公開版本的上下文窗口為 8,192 個標記。然而,每個標記只激活這 314B 權重中的一小部分。MoE 設計意味著每個標記通過一個門控網絡,從大量池中選擇 2 位專家(前饋模塊),因此大約 1/8 的參數可能用於給定的輸入標記。這使得 Grok-1 能夠實現 300B+ 模型的表現能力,而每個標記僅計算相當於 ~79B 參數的計算量——在訓練和推理方面取得了重大效率增益。
大型語言模型(LLM)的專家混合層示意圖。與其對每個輸入啟動每個神經元,像 Grok-1 這樣的 MoE 模型使用門控網路將每個標記的數據路由到少數專家網路(稀疏激活),然後結合結果。這允許在不線性增長計算成本的情況下擁有龐大的總參數。
Grok-1 的 MoE 方法經過績效驗證。在發布時,xAI 報告 Grok-1 在 MMLU 知識基準測試中得分 73%,在 HumanEval 編碼測試中得分 63.2%,超越了像 OpenAI 的 GPT-3.5 和 Inflection-1 這樣的模型,僅次於 2023 年底時期的 GPT-4。獨立測試證實了 Grok-1 在其計算類別中的強大數學和推理能力。例如,Grok-1 能夠在與 Claude 2(55%)相當的條件下,以 C 級(59%)通過匈牙利高中數學考試,與 GPT-4(68%)相差不遠。這很顯著,因為 Grok-1 在總訓練計算量上少於 GPT-4 的情況下達到了這樣的結果,展現了 xAI 的訓練效率。
然而,Grok-1 也非常耗資源。運行完整的 314B 模型且以 16 位精度進行推理,估計需要 ~640 GB 的 VRAM。這樣的規模意味著沒有單一伺服器可以承載它;您需要多 GPU 分區來提供模型服務,甚至需要更多 GPU(透過資料並行性)來訓練它。這強調了 xAI 為什麼要建造 Colossus,以及為什麼高速互連是關鍵——在 Grok-1 的規模下,GPU 記憶體和帶寬往往是限制因素。事實上,AMD 的工程師在 MI300X 的 8-GPU 伺服器上展示了 Grok-1(MI300X 每個 GPU 擁有 192GB,是少數能夠應對 Grok-1 記憶體需求的設備之一)。總之,Grok-1 證明了 xAI 能夠從零開始訓練出 GPT-3.5 級別的模型,但也推動了硬體的極限,迫使其使用上述的大型集群和自訂訓練堆疊。
xAI 並沒有止步於 Grok-1 基礎版。2024 年 3 月,他們宣布了 Grok-1.5,帶來了兩大升級:128,000 個 token 的上下文窗口以及數學和編碼能力的顯著提升。Grok-1.5 的架構和參數數量與 Grok-1 大致相同(xAI 並未披露新的參數數據,這意味著它是在現有模型上的精進),但它可以處理長度達 16 倍的輸入,並利用「可擴展監督」技術增強推理能力。達成 128k 上下文並非易事——這很可能涉及新的位置編碼方案和訓練計畫,以確保模型不會忘記如何處理短提示。結果令人印象深刻:Grok-1.5 在內部測試中展現了在整個 128k 窗口內完美的記憶能力[10],並在“海中撈針”任務中表現出色,能在長文檔中找到隱藏的相關片段。
最關鍵的是,Grok-1.5 的推理和解決問題的能力提升了一個層級。在具有挑戰性的 MATH 基準測試(競賽級數學問題)中,Grok-1.5 獲得了 50.6% 的成績,超過了 Grok-1 的 23.9% 的兩倍。在 GSM8K 數學文字題集上,它達到了 90%(相比 Grok-1 的 ~63%)。在代碼生成方面,Grok-1.5 在 HumanEval 測試中達到了 74.1%,從 63% 提升上來。這些進步使得 Grok 在量化任務上更接近 GPT-4 的水準——事實上,據報導 Grok-1.5 在許多基準測試分數上匹敵甚至超過了 Anthropic 的 Claude 2 和 Google 的 PaLM 2。為了達成這一點,xAI 使用了連鎖思維提示等技術,並可能在代碼和數學數據上進行了更多的微調。Grok-1.5 還在訓練循環中引入了一個 「AI 導師」 模型——本質上是人類和工具輔助的審核員,他們生成高質量的推理示範來微調 Grok 的逐步問題解決能力[11]。這是 xAI 開始專注於工具輔助監督的開端,我們將在後續版本中看到更多這方面的發展。
2024 年 4 月,xAI 進一步推進了技術極限,推出了 Grok-1.5V,這是一個多模態擴展,除了文本外還能處理圖像。Grok-1.5V(「V」代表視覺)在數學能力強的 Grok-1.5 基礎上賦予了「視覺」能力:它被訓練來解讀照片、圖表、截圖和其他視覺輸入,同時處理文本。該模型立即證明了其價值,以 RealWorldQA 這個新的標準上超越了 OpenAI 的 GPT-4V 和其他具備視覺能力的同儕,該標準測試真實圖像的空間理解能力。Grok-1.5V 在 RealWorldQA 上得分 68.7%,而 GPT-4V 為 60.5%,Google Gemini 為 61.4%。實際上,Grok-1.5V 能夠回答關於照片中發生的事情的問題,分析圖表或文件,然後以相同的長期上下文能力進行推理。這一多模態的飛躍顯示了 xAI 對 AI 的承諾,這不僅僅是文本預測器,而是一個更全面的推理引擎,能理解複雜的真實世界數據。這也為 Grok 用於分析醫學圖像或調試用戶界面截圖等應用奠定了基礎,馬斯克暗示這些是未來增長的方向。
Grok-2 於 2024 年底推出,從「專有預覽」轉變為更廣泛可用的模式。xAI 在此期間開放了 Grok 的使用權給所有 X 的用戶,顯示出對 Grok-2 穩健性充滿信心[12][13]。技術上來說,Grok-2 的架構並非翻天覆地的改變——它仍然是一個基於 MoE 的大型語言模型,具有大(可能是 128k)上下文。但 xAI 在 2024 年下半年致力於改進 Grok-2 的速度、多語言能力和工具使用。2024 年 12 月更新的 Grok-2 模型在推理時「速度提升 3 倍」,更善於遵循指令,並在多種語言上更加流暢[13][14]。這意味著他們優化了 MoE 的路由,可能也簡化了模型的一部分以提高效率。xAI 還推出了一個較小的 Grok-2-mini 變體,以滿足成本敏感或低功耗的使用情境(可能類似於 OpenAI 的 GPT-3.5 Turbo 相較於完整的 GPT-4)。
Grok-2 的一個主要特色是 帶引文的即時搜尋。Grok 現在可以在回答問題時自動進行網路搜尋或掃描 X 貼文,然後在結果中提供引文[15]。這有效地將搜尋引擎和事實查證器整合到模型的工作流程中。根據 xAI 的說法,Grok-2 與 X 的整合使其能夠實時掌握突發新聞、熱門話題和公共數據,讓它在處理有關時事的查詢時具有優勢[1]。例如,如果被問到「昨晚」發生的體育比賽,Grok-2 可以搜尋比分並引用新聞文章或 X 貼文來提供結果。這種即時功能成為了一個獨特的賣點——與 GPT-4 有固定的訓練截止時間(且後來才加入瀏覽插件)不同,Grok 天生就連接到即時數據。從工程的角度來看,即時搜尋功能涉及一個類似代理的子系統:Grok 的提示可以觸發一個內部工具,該工具查詢 X 或網路 API,然後將檢索到的文本(連同來源 URL)附加到 Grok 的上下文中以形成最終答案[1][16]。xAI 提供了控制功能,讓用戶或開發者決定 Grok 是否應自動搜尋、始終搜尋或僅依賴內部知識[1][11]。
Grok-2 也改進了可及性和成本。到 2024 年 12 月,xAI 讓所有 X 用戶免費使用 Grok 聊天機器人(付費層僅提供更高的速率限制)[13]。他們還推出了公共 API,提供 Grok-2 模型,每百萬個輸入代幣的價格為 2 美元(這是一個積極的價格,壓低了許多競爭對手)[17]。此舉使 Grok-2 不僅僅是 X 的專屬,而是成為一個通用的開發者平台。從技術上講,Grok-2 的訓練可能包括來自 Grok-1 測試版的數百萬用戶互動,以及一個大型的獎勵模型來進行對齊。馬斯克的團隊提到使用「AI 導師」(人工審核員)來策劃微調數據,並專注於使 Grok 政治中立但仍具幽默感[11][18]。過程中也有一些波折——Grok 的未經過濾風格導致了一些冒犯性的輸出,xAI 必須通過更新的安全過濾器和「收緊」 Grok 傾向於在回答中回應馬斯克個人推文來解決這些問題[19]。到 Grok-2 運行結束時,xAI 找到了更好的平衡:Grok 仍然可以是前衛的,但由於更嚴格的**RLHF(從人類反饋中進行強化學習)**和系統提示,它不太可能產生不允許的內容或偏見。
在 2025 年初推出的 Grok-3 代表了在讓模型更透明地思考方面的一大飛躍。xAI 將 Grok-3 描述為當時他們「最先進的模型」,強調其強大的推理能力。在幕後,Grok-3 的訓練計算量相比 Grok-2 增加了 10 倍,這表示模型可能更大或只是進行了更長時間的訓練且有更多數據。xAI 可能增加了專家或層數,但他們並沒有公開新的參數數量。相反,重點在於 Grok-3 如何處理推理任務。它引入了特殊的推理模式:「思考」模式讓模型展示其思維過程(基本上讓用戶在單獨的面板中看到其逐步推理過程),以及用於複雜查詢的 「大腦」模式,該模式分配更多計算資源(或可能啟動多次推理過程)以產生更全面的答案。這些功能符合「讓模型大聲推理」以增加透明度和準確性的行業趨勢。
在基準測試和評估中,Grok-3 大幅縮小了與 GPT-4 的差距。科技媒體報導,Grok-3 在許多學術和編程基準上與 OpenAI 的 GPT-4(原始版本,而非假設的 GPT-4.5)相匹敵或超越。例如,據說在 ARC Advanced 和 MMLU 推理測試中,Grok-3 的表現與 GPT-4 和 Claude 2 不相上下,尤其在數學/程式設計任務中表現出色,這是 Grok 模型的既有優勢之一。Grok-3 強大實力的早期跡象之一是:它在 GSM8K 上達到 90%+(幾乎完美解決小學數學問題),以及在 HumanEval 上達到 ~75%+,這使其在這些類別中穩固地進入 GPT-4 的領域。此外,Grok-3 改進了多語言理解能力,使其在全球範圍內更具競爭力。
從基礎設施的角度來看,Grok-3 是 xAI 真正開始依賴工具使用的時期。該模型能夠更流暢地調用外部工具,如計算器、搜索、代碼解釋器等,並將這些結果整合到答案中。本質上,Grok-3 開始模糊大型語言模型與代理框架之間的界限。與其期望一個巨大的模型內部完成所有任務,Grok-3 會將複雜的查詢分解為多個步驟,並在某些步驟中使用工具或子程序(例如檢索文件、運行 Python 代碼、驗證證明),然後組合最終答案。這種方法預示了 Grok-4 Heavy 的到來。它也與 xAI 的研究路線圖中提到的形式驗證和可擴展監管一致——Grok-3 可以使用外部檢查器或參考資料在關鍵情況下驗證其自身的輸出[20][21]。所有這些都使得 Grok-3 成為一個更值得信賴且更有能力的助手,將其從單純的 GPT-3 替代品提升到更接近能夠引用來源並可靠地解決多步問題的 AI 研究員。
在 2025 年中,xAI 推出了 Grok-4,稱其為*「世界上最智能的模型」。雖然這樣的說法應該持保留態度,但毫無疑問,Grok-4 是 2025 年頂級模型之一。Grok-4 的重大改變在於它不再僅僅是單一模型——特別是在 Grok-4 Heavy 配置中,基本上是多個專業化模型協同工作*。xAI 將 Grok-4 打造成一個多代理系統:當你提出複雜問題時,Grok-4 可以內部啟動不同的「專家」(代理)來解決問題的各個部分,然後匯總他們的發現。舉例來說,一次 Grok-4 Heavy 會話可能會部署一個代理來進行網路搜索,另一個代理來分析電子表格,還有一個代理來撰寫代碼,並由一個協調代理來統籌這些子任務。這在精神上類似於 OpenAI 的 AutoGPT 或 Anthropic 的「憲法 AI」代理,但 xAI 將其整合到產品層面——Grok-4 Heavy 就是企業用戶可以直接查詢的多代理版本。
這個設計的結果是,Grok-4 在非常複雜且長期的任務中表現出色。它可以在數百萬個標記上保持一致的線索(xAI 的 API 文件列出了某些變體的 Grok-4.1 Fast 擁有 2,000,000 個標記的上下文窗口),這對於大多數現實世界的應用來說實際上是無限制的。Grok-4 的代理可以並行執行檢索和推理,使其在如全面研究或詳細計劃生成等事務上速度更快。在設計來測試高級推理的評估基準(如 Humanity’s Last Exam,一個包含2500道題目的模擬博士考試)中,據報導,Grok-4 的得分在 40% 範圍內——高於許多同時代的產品,顯示出非常強的零次推理能力[2][22]。在編碼和 QA 基準測試中,Grok-4 Heavy 因能夠通過多個代理進行雙重檢查而避免錯誤,因此表現優於最強的單一模型系統[22][20]。
Grok-4 也將原生工具整合推向成熟。該模型可以自主使用一套由 xAI 託管的工具:網路瀏覽、程式碼執行、用於檢索的向量資料庫、影像分析等。當使用者的查詢進來時,Grok-4(特別是在「推理」模式下)會決定是否以及何時調用這些工具。所有過程都透明地回傳給使用者——你可能會看到 Grok 說「正在搜尋相關論文...」,然後在最終答案中引用這些論文。系統設計使得工具的使用變得無縫,使用者不需要協調操作;你只需用簡單的語言提問,Grok 會處理其他事情。值得注意的是,xAI 在測試期間不收取工具調用的費用(他們希望促進工具的頻繁使用,以提升模型的能力)。
Grok-4 的專門衍生版本之一是 grok-code-fast-1,這是一個以程式碼為重點的模型,以及Grok 4.1 Fast(推理和非推理),這些模型針對高吞吐量進行了優化,有些情況下甚至免費提供。這顯示出 xAI 提供不同尺寸和速度的 Grok 以滿足不同需求的策略——從免費但仍然強大的 4.1 Fast(由於工具使用而減少幻覺)到用於企業分析的高級 Heavy 代理。
在對齊方面,Grok-4 的發布伴隨著更強的安全保證(在 Grok-3 事件中,它開了反猶太的玩笑,曾一度陷入困境[19])。xAI 實施了更嚴格的過濾器,並強調 Grok 的回應不受 Musk 個人意見的影響[19]。他們還引入了一個反饋機制,讓用戶可以評價答案,從而進行持續的微調。到 2025 年底,Grok 再沒有發生重大的公開事件,這表明 RLHF、專家 AI 導師(在敏感領域調整模型的領域專家)和多代理自檢的組合運作得更好。事實上,xAI 在 2025 年轉向*「專家 AI 導師」*,更喜歡由主題專家來策劃訓練數據(例如,數學家、律師等審查輸出),而不是一般的群眾工作者。這可能提高了 Grok-4 的事實準確性,並減少了在利基領域的偏見。
以下是 Grok 模型演進 從 2023 年到 2025 年的摘要,突出關鍵規格和能力:
表:xAI Grok 模型的演進(2023–2025)
來源: xAI 官方公告、媒體報導[22],以及有關 Grok-5 的傳聞[21]。
憑藉 Grok-4,xAI 在 AI 領域中開闢了一個明確的利基市場。截至 2025 年,Grok 的主要優勢包括:
然而,Grok 並非沒有其限制:
總結來說,2025 年的 Grok 是強大且獨特的——對於需要尖端推理和新資訊的用戶來說非常出色,但在安全方面需要謹慎處理,並且需要大量資源才能全面部署。
現在所有的目光都集中在 Grok-5 上,xAI 正在為 2026 年進行預告。雖然官方細節不多,但內部報導和馬斯克的暗示勾勒出一幅雄心勃勃的圖景。Grok-5 預計將不僅僅是一個 LLM,而是可能成為一個代理型 AI 平台,將 Grok-4 的優勢推進到更高。主要的傳聞和可能的特徵包括:
在此期間,xAI 有一個功能路線圖,可能會在完整的 Grok-5 之前推出。這些功能包括 個性化 AI 實例(使用用戶自己的數據創建個人模型,並設有隱私控制)、與 X 平台的更深入整合(Grok 作為 X 上內容創作或審核的內建助手),以及特定領域的 Grok 微調(例如,金融專用的 Grok、醫療專用的 Grok,這些都利用了專業數據)。所有這些都會在邁向 Grok-5 的過程中積聚勢頭。
如果你是工程師、數據科學家或產品負責人,正在關注 Grok 的發展,最大的問題是如何利用這些進步。以下是一些實際考量,幫助你為 Grok-5 及類似的下一代模型做好準備:
總之,xAI 的 Grok 發展得非常迅速,如果 Grok-5 能夠不負眾望,它可能會為 AI 助手設立新的標準,集事實核查、推理引擎和自主代理於一身。通過了解 Grok 的基礎架構和設計選擇,我們可以看到一個重視即時知識和推理透明度的 AI 系統模板。無論您是否採用 Grok,這些理念(長上下文、工具使用、多代理推理、從反饋中持續學習)可能都會成為未來所有嚴肅 AI 平台的一部分。任何技術精通的團隊可以做的最好事情就是設計靈活性並保持對每個新模型(Grok-5、GPT-5、Gemini 等)如何融入他們的技術棧進行深入研究。AI 領域正在以閃電般的速度前進——今天的前沿 Grok-4 可能會被明天的 Grok-5 取代——但通過保持不偏不倚的態度、知情並適應,您可以乘風破浪,而不是被淹沒。
來源:
xAI 新聞——「xAI 的 Memphis 超級集群已經上線,配備多達 100,000 個 Nvidia H100 GPU」[7](2024 年 7 月)
ServeTheHome——「內部 100K GPU xAI Colossus 集群」(2024 年 10 月)
3. AMD ROCm 博客 – 「在 AMD GPU 上使用 Grok-1 進行推理」 (2024年8月)
4. xAI 公告 – 「宣布 Grok-1.5」 (2024年3月)
5. xAI 公告 – 「公開發佈 Grok-1(模型卡)」 (2023年11月)
6. Encord 博客 – 「Grok-1.5V 多模態 – 初探」 (2024年4月)
7. xAI 幫助中心 – 「關於 Grok,你在 X 上的幽默 AI 助手」[11][1] (訪問於2025年11月)
8. Oracle Cloud Docs – 「xAI Grok 4 – 模型信息」[2][22] (2025)
9. The Verge – 「xAI 在爭議性輸出後調整 Grok」[19] (2025年11月)
[1] [11] [16] [18] [26] [27] 關於 Grok
https://help.x.com/en/using-x/about-grok
[2] [3] [22] Grok AI:來自 xAI 的最新新聞、更新和功能 | AI 新聞中心
https://www.ainewshub.org/blog/categories/grok
[4] [5] 建造巨像:Supermicro 為 Elon Musk 的 xAI 打造的突破性 AI 超級計算機 | VentureBeat
[6] [7] [25] xAI 的 Memphis 超級集群已經上線,配備多達 100,000 個 Nvidia H100 GPU - DCD
[8] [9] [10] 宣布 Grok-1.5 | xAI
[12] [13] [14] [15] [17] 將 Grok 帶給每一個人 | xAI
[19] 為什麼 Grok 在 X 上發佈錯誤和冒犯的內容?這裡有 4 個原因...
https://www.politifact.com/article/2025/jul/10/Grok-AI-chatbot-Elon-Musk-artificial-intelligence/
[20] [21] [23] [24] xAI Grok 5 謠言:發佈日期、「真相模式」2.0,以及 2026 年初的預期