Khả năng xử lý văn bản dài của mô hình lớn tăng lên gấp trăm lần, thách thức và cơ hội song song.

Các nhà sản xuất mô hình lớn cạnh tranh để vượt qua khả năng xử lý văn bản dài

Mô hình lớn đang nâng cao khả năng xử lý văn bản dài với tốc độ đáng kinh ngạc. Hiện nay, đã có nhiều công ty công nghệ mô hình lớn hàng đầu và các tổ chức nghiên cứu trong nước và quốc tế đặt việc mở rộng độ dài ngữ cảnh là trọng tâm nâng cấp.

Từ 4000 token đến 400.000 token, độ dài xử lý văn bản của các mô hình lớn đã đạt được mức tăng trăm lần trong thời gian ngắn. OpenAI đã nâng cấp nhiều lần, nâng độ dài đầu vào ngữ cảnh của GPT-4 lên 32.000 token. Anthropic đã mở rộng độ dài ngữ cảnh của mô hình Claude lên 100.000 token. Sản phẩm Kimi Chat của Moon's Dark Side trong nước thậm chí hỗ trợ đầu vào tương đương 400.000 token, tức 200.000 ký tự Hán.

Việc nâng cao khả năng xử lý văn bản dài không chỉ có nghĩa là mô hình có thể đọc được văn bản dài hơn, mà còn thúc đẩy việc ứng dụng mô hình lớn trong các lĩnh vực chuyên môn như tài chính, pháp lý, nghiên cứu khoa học, v.v. Ví dụ, khả năng tóm tắt tài liệu dài, hiểu đọc và trả lời câu hỏi sẽ được cải thiện đáng kể.

Tuy nhiên, độ dài văn bản không phải lúc nào cũng tốt hơn. Nghiên cứu cho thấy, độ dài ngữ cảnh mà mô hình hỗ trợ không có mối quan hệ nguyên nhân trực tiếp với hiệu quả của nó. Quan trọng hơn là mô hình sử dụng hiệu quả nội dung ngữ cảnh như thế nào.

Hiện tại, công nghệ văn bản dài đang đối mặt với "tam giác không thể" của độ dài văn bản, sự chú ý và sức mạnh tính toán. Khi độ dài văn bản tăng lên, mô hình khó khăn trong việc tập trung vào thông tin quan trọng; trong khi đó, duy trì sự chú ý đầy đủ lại cần tiêu tốn một lượng lớn sức mạnh tính toán.

Để vượt qua tình huống khó khăn này, các nhà nghiên cứu đã đưa ra nhiều giải pháp khác nhau:

  1. Sử dụng công cụ bên ngoài để hỗ trợ xử lý văn bản dài, chẳng hạn như chia văn bản dài thành nhiều văn bản ngắn.

  2. Tối ưu hóa cách tính toán cơ chế tự chú ý, như công nghệ LongLoRA.

  3. Tối ưu hóa chính mô hình, chẳng hạn như LongLLaMA thực hiện suy diễn chuỗi dài hơn thông qua tinh chỉnh.

Mặc dù công nghệ văn bản dài vẫn đối mặt với những thách thức, nhưng nó chắc chắn là yếu tố then chốt thúc đẩy việc áp dụng thực tiễn của các mô hình lớn. Trong tương lai, các nhà sản xuất mô hình lớn cần tìm kiếm điểm cân bằng tốt nhất giữa độ dài văn bản, sự chú ý và khả năng tính toán để đạt được bước đột phá trong khả năng xử lý văn bản dài.

TOKEN4.68%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 5
  • Đăng lại
  • Chia sẻ
Bình luận
0/400
GateUser-00be86fcvip
· 22giờ trước
Từ này nhìn thấy đau đầu quá
Xem bản gốcTrả lời0
SchroedingerAirdropvip
· 22giờ trước
Có cái búa nào dùng được đâu, giao dịch tiền điện tử thì thơm hơn.
Xem bản gốcTrả lời0
ApeShotFirstvip
· 22giờ trước
Đừng kéo nữa, xin mọi người.
Xem bản gốcTrả lời0
LiquidityNinjavip
· 22giờ trước
Làm nó đi! Văn bản dài thơm như bánh rán.
Xem bản gốcTrả lời0
SleepyValidatorvip
· 22giờ trước
Cũng chỉ vậy thôi.
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)