親愛的廣場用戶們,新年即將開啟,我們希望您也能在 Gate 廣場上留下專屬印記,把 2026 的第一句話,留在 Gate 廣場!發布您的 #我的2026第一帖,记录对 2026 的第一句期待、願望或計劃,與全球 Web3 用戶共同迎接全新的旅程,創造專屬於你的年度開篇篇章,解鎖廣場價值 $10,000 新年專屬福利!
活動時間:2025/12/31 18:00 — 2026/01/15 23:59(UTC+8)
🎁 活動獎勵:多發多獎,曝光拉滿!
1️⃣ 2026 幸運大獎:從全部有效貼文中隨機抽取 1 位,獎勵包含:
2026U 仓位體驗券
Gate 新年限定禮盒
全年廣場首頁推薦位曝光
2️⃣ 人氣新年貼 TOP 1–10:根據發帖量及互動表現綜合排名,獎勵包含:
Gate 新年限定禮盒
廣場精選貼 5 篇推薦曝光
3️⃣ 新手首貼加成獎勵:活動前未在廣場發帖的用戶,活動期間首次發帖即可獲得:
50U 仓位體驗券
進入「新年新聲」推薦榜單,額外曝光加持
4️⃣ 基礎參與獎勵:所有符合規則的用戶中隨機抽取 20 位,贈送新年 F1 紅牛周邊禮包
參與方式:
1️⃣ 帶話題 #我的2026第一条帖 發帖,內容字數需要不少於 30 字
2️⃣ 內容方向不限,可以是以下內容:
寫給 2026 的第一句話
新年目標與計劃
Web3 領域探索及成長願景
注意事項
• 禁止抄襲、洗稿及違
馬斯克為 Grok 人工智慧新創融資 60 億美元用來採購輝達晶片
特斯拉創辦人暨首任 DOGE 長馬斯克旗下的 xAI 將會以 500 億美元的市場估值融資 60 億美元。據 CNBC 報導,這筆資金將於下週到位,金主包括中東主權基金提供的 50 億美元和其他投資者提供的 10 億美元,這筆資金用來採購 10 萬個輝達晶片。
馬斯克的 xAI 人工智慧新創公司選擇位於田納西州的 Memphis 市打造命名為 Colossus 的超級電腦,輝達的 AI 晶片扮演關鍵角色,目前由十萬個 Nvidia H100 GPU 組成,每個成本約為3萬美元,馬斯克希望繼續使用輝達的晶片,並以輝達的 H200 GPU 升級該設施, H200 可擴增內存容量,但每台成本接近 4 萬美元,明年夏天馬斯克預備還繼續採買 30 萬個 Nvidia Blackwell B200 GPU 。
去年11月,xAI 推出 Grok 聊天機器人,預備與 Sam Altman 的 ChatGPT 競爭 AI 市場。馬斯克本為 Open AI 的早期天使投資人,之後因與 Sam Altman 起衝突而離開,現在變成 Sam Altman 的 AI 競爭對手。
關於 xAI Grok
Grok 是 xAI 開發的人工智慧,可為各種問題提供有用且真實的答案。 Grok 的概念啟發自銀河系漫遊指南 (The Hitchhiker’s Guide to the Galaxy)、和鋼鐵人東尼史塔克創造的 J.A.R.V.I.S. 人工智慧系統,宗旨為幫使用者了解宇宙科學,並可回答任何問題,據 Grok 自己說,本段解釋來自於 Grok ,Grok 會誠實又不加批判的為使用者提供資訊,專注於理解與詳細解釋,甚至以幽默的方式或是外部視角看待人類的問題。
xAI 如何使用 Nvidia 的晶片來構建超級電腦
xAI 利用 H100 GPU 晶片,打造以人工智慧訓練為目的的超級電腦 Colossus。xAI 利用 Nvidia 的 GPU 不僅獲得運算力,並可使用專門的基礎建設架構來加速人工智慧和機器學習,使 xAI 能夠突破人工智慧研究和開發的界限。
Nvidia X Grok 的六大應用場景
大規模平行處理 (Massive Parallel Processing):Nvidia 的 GPU(H100)專為平行處理而設計,對於 AI 模型訓練所需的複雜運算至關重要,這些晶片可同時處理數千筆操作,加速 Grok 大型語言模型 (LLM) 的訓練過程。
擴展性 (Scalability):超級電腦 Colossus 初由十萬個 Nvidia H100 GPU 組成,使 xAI 能夠管理大量的運算工作負載,遠遠超出典型的 CPU 處理功能,並計劃增加一倍數量,達到20萬個 GPU(包括 H200 晶片)。
能源效率 (Energy Efficiency):大規模的運作對能源的需求很高,但與傳統 CPU 相比,Nvidia 的 GPU 對於 xAI 運作的工作負載更節能。
網路基礎設施 (Network Infrastructure):超級電腦 Colossus 運用 Nvidia 的 Spectrum-X 乙太網路平台,透過提供低延遲、高頻寬連線來支援多租戶。
AI 的高階功能 (Advanced Features for AI):Nvidia 的 H100 和 H200 晶片配備了專為 AI 定制的功能,包括高速記憶體(分別為 HBM3 和 HBM3e),可減少記憶體與 GPU 運算核心之間的資料傳輸時間。此功能對於資料移動可能成為瓶頸的人工智慧工作負載非常有用。
軟體支援 (Software Support):Nvidia 提供 CUDA 平行運算平台和程式設計模型,xAI 使用 CUDA 開發應用 AI 演算法。
這篇文章 馬斯克為 Grok 人工智慧新創融資 60 億美元用來採購輝達晶片 最早出現於 鏈新聞 ABMedia。