Gate 廣場「創作者認證激勵計劃」開啓:入駐廣場,瓜分每月 $10,000 創作獎勵!
無論你是廣場內容達人,還是來自其他平台的優質創作者,只要積極創作,就有機會贏取豪華代幣獎池、Gate 精美週邊、流量曝光等超 $10,000+ 豐厚獎勵!
參與資格:
滿足以下任一條件即可報名👇
1️⃣ 其他平台已認證創作者
2️⃣ 單一平台粉絲 ≥ 1000(不可多平台疊加)
3️⃣ Gate 廣場內符合粉絲與互動條件的認證創作者
立即填寫表單報名 👉 https://www.gate.com/questionnaire/7159
✍️ 豐厚創作獎勵等你拿:
🎁 獎勵一:新入駐創作者專屬 $5,000 獎池
成功入駐即可獲認證徽章。
首月發首帖(≥ 50 字或圖文帖)即可得 $50 倉位體驗券(限前100名)。
🎁 獎勵二:專屬創作者月度獎池 $1,500 USDT
每月發 ≥ 30 篇原創優質內容,根據發帖量、活躍天數、互動量、內容質量綜合評分瓜分獎勵。
🎁 獎勵三:連續活躍創作福利
連續 3 個月活躍(每月 ≥ 30 篇內容)可獲 Gate 精美週邊禮包!
🎁 獎勵四:專屬推廣名額
認證創作者每月可優先獲得 1 次官方項目合作推廣機會。
🎁 獎勵五:Gate 廣場四千萬級流量曝光
【推薦關注】資源位、“優質認證創作者榜”展示、每週精選內容推薦及額外精選帖激勵,多重曝光助你輕
開源且可商用,300 億參數的MPT-30B 大模型的成本僅為GPT-3 的零頭
AI 大模型開發公司MosaicML 近日發布了新的可商用的開源大語言模型MPT-30B,擁有300 億參數,其功能明顯比前一代MPT-7B 語言模型(70 億參數)更強大,並且性能優於GPT-3。
此外,他們還發布了兩個經過微調的模型:MPT-30B-Instruct 和MPT-30B-Chat,它們構建在MPT-30B 之上,分別擅長單輪指令跟踪和多輪對話。
MPT-30B 模型具有的特點:
該模型已擴展到NVIDIA H100 上的8k token 上下文窗口,使其成為第一個在H100 上訓練的LLM。
MPT-30B 強於GPT-3?
MPT-30B 是商業Apache 2.0 許可的開源基礎模型,強於原始的GPT-3,並且與LLaMa-30B 和Falcon-40B 等其他開源模型具有競爭力。
MosaicML 用2 個月的時間訓練了MPT-30B,使用英偉達的H100 GPU 集群進行訓練。
如下圖,MPT-30B 的訓練數據:
MPT-30B 訓練成本
MosaicML 公司的首席執行官兼聯合創始人Naveen Rao 表示,MPT-30B 的訓練成本為70 萬美元(約502.44 萬元人民幣),遠低於GPT-3 等同類產品所需的數千萬美元訓練成本。
訓練定制的MPT-30B 模型需要多少時間和金錢?讓我們從基本模型開始。
如果您不想從頭訓練,只想微調現有模型呢?
下圖詳細列出了每個1B token 微調MPT-30B 的時間和成本。借助MosaicML 基礎設施,您可以對MPT-30B 模型進行全面微調,而無需擔心系統內存限制,而且只需幾百美元!
參考資料: