MSA:1億トークンのコンテキストを処理可能な端から端まで学習可能なメモリフレームワーク
原題: Memory Sparse Attention - 亿级(100M)token 上下文的端到端可训练记忆框架
英語概要
Memory Sparse Attention (MSA)は、スパースアテンションとドキュメントレベルRoPEを統合し、1億トークンという極限のコンテキスト長を精度を保ちつつ処理可能にする革新的なAIメモリフレームワークです。
原題: Memory Sparse Attention - 亿级(100M)token 上下文的端到端可训练记忆框架
英語Memory Sparse Attention (MSA)は、スパースアテンションとドキュメントレベルRoPEを統合し、1億トークンという極限のコンテキスト長を精度を保ちつつ処理可能にする革新的なAIメモリフレームワークです。