📢 Gate廣場專屬 #WXTM创作大赛# 正式開啓!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),總獎池 70,000 枚 WXTM 等你贏!
🎯 關於 MinoTari (WXTM)
Tari 是一個以數字資產爲核心的區塊鏈協議,由 Rust 構建,致力於爲創作者提供設計全新數字體驗的平台。
通過 Tari,數字稀缺資產(如收藏品、遊戲資產等)將成爲創作者拓展商業價值的新方式。
🎨 活動時間:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 參與方式:
在 Gate廣場發布與 WXTM 或相關活動(充值 / 交易 / CandyDrop)相關的原創內容
內容不少於 100 字,形式不限(觀點分析、教程分享、圖文創意等)
添加標籤: #WXTM创作大赛# 和 #WXTM#
附本人活動截圖(如充值記錄、交易頁面或 CandyDrop 報名圖)
🏆 獎勵設置(共計 70,000 枚 WXTM):
一等獎(1名):20,000 枚 WXTM
二等獎(3名):10,000 枚 WXTM
三等獎(10名):2,000 枚 WXTM
📋 評選標準:
內容質量(主題相關、邏輯清晰、有深度)
用戶互動熱度(點讚、評論)
附帶參與截圖者優先
📄 活動說明:
內容必須原創,禁止抄襲和小號刷量行爲
獲獎用戶需完成 Gate廣場實名
在使用AI的過程中,我們去問它一個問題,它回答得頭頭是道,可我們沒法知道這句話到底是怎麼來的,是“猜”出來的,還是真的在哪段訓練數據裏看過。這就好像你問一個人問題,他告訴你了答案,每句話都說“我覺得是對的”,但從來不給出處。
簡單理解,傳統語言模型用的是 n-gram 技術
1️⃣uni-gram 是看單個詞
2️⃣bi-gram 是兩個詞連在一起
3️⃣tri-gram 是三個詞組合
以上的語言邏輯會提供一部分上下文,但內容十分局限,只看現有的問題,根據小語句關聯來回答,但忽視當前問題在整個對話的邏輯。
而 Infini-gram 是另一個思路。它不僅看現有問題,而是用一種類似“符號匹配”的方式,把模型輸出的每個片段都拿去對照訓練集裏所有可能出現的“語句”,看它到底是從哪裏學來的、和誰的貢獻有關。
比如你問模型:“怎麼判斷一個錢包是Bot?”
一般的模型會告訴你:“這種地址通常在極短時間內高頻交易多個DEX合約。”
它背後的技術其實挺硬核的,用的是基於 suffix-array 的 ∞-gram 框架 —— 本質上,它把訓練集裏所有片段都提前建好索引,輸出的時候直接比對,不需要重新跑模型,也不靠梯度計算。這意味着快、穩、可復現。
對用戶來說,你可以知道模型回答是不是“原創”還是“搬運”
對數據貢獻者來說,你可以獲得應有的“署名權”甚至“經濟激勵”
對監管機構來說,這提供了一個“可解釋”的接口
OpenLedger 正在做的,不是讓模型更“聰明”,而是更“負責任” —— 回答每句話時都能說清楚:“我爲啥這麼說,我是從哪學來的”。
在我看來,OpenLedger 提出的 Proof of Attribution 系統是“可信 AI”邁出的關鍵一步,也可能是構建數據所有權和貢獻溯源的核心基建。