💙 Gate广场 #Gate品牌蓝创作挑战# 💙
用Gate品牌蓝,描绘你的无限可能!
📅 活动时间
2025年8月11日 — 8月20日
🎯 活动玩法
1. 在 Gate广场 发布原创内容(图片 / 视频 / 手绘 / 数字创作等),需包含 Gate品牌蓝 或 Gate Logo 元素。
2. 帖子标题或正文必须包含标签: #Gate品牌蓝创作挑战# 。
3. 内容中需附上一句对Gate的祝福或寄语(例如:“祝Gate交易所越办越好,蓝色永恒!”)。
4. 内容需为原创且符合社区规范,禁止抄袭或搬运。
🎁 奖励设置
一等奖(1名):Gate × Redbull 联名赛车拼装套装
二等奖(3名):Gate品牌卫衣
三等奖(5名):Gate品牌足球
备注:若无法邮寄,将统一替换为合约体验券:一等奖 $200、二等奖 $100、三等奖 $50。
🏆 评选规则
官方将综合以下维度评分:
创意表现(40%):主题契合度、创意独特性
内容质量(30%):画面精美度、叙述完整性
社区互动度(30%):点赞、评论及转发等数据
大模型长文本处理能力百倍增长 挑战与机遇并存
大模型厂商争相突破长文本能力
大模型正以惊人的速度不断提升其处理长文本的能力。目前,国内外已有多家顶级大模型技术公司和研究机构将扩展上下文长度作为升级重点。
从4000 token到40万token,大模型的文本处理长度在短时间内实现了百倍增长。OpenAI经过多次升级,将GPT-4的上下文输入长度提升至3.2万token。Anthropic一举将其模型Claude的上下文长度扩展到10万token。国内的月之暗面发布的Kimi Chat更是支持输入相当于40万token的20万汉字。
长文本处理能力的提升不仅意味着模型可以阅读更长的文本,还将推动大模型在金融、法律、科研等专业领域的应用落地。例如,长文档的摘要总结、阅读理解、问答等能力都将得到显著增强。
然而,文本长度并非越长越好。研究表明,模型支持的上下文长度与其效果并不存在直接的因果关系。更重要的是模型如何有效利用上下文内容。
目前,长文本技术面临着文本长度、注意力和算力的"不可能三角"困境。随着文本长度增加,模型难以聚焦关键信息;而保持充分注意力又需要消耗大量算力。
为突破这一困境,研究人员提出了多种解决方案:
利用外部工具辅助处理长文本,如将长文本切分为多个短文本。
优化自注意力机制的计算方式,如LongLoRA技术。
对模型本身进行优化,如LongLLaMA通过微调实现更长序列的外推。
尽管长文本技术仍面临挑战,但它无疑是推动大模型进一步落地应用的关键。未来,大模型厂商需要在文本长度、注意力和算力之间寻找最佳平衡点,以实现长文本处理能力的突破。