一、Longer [2025]

《LONGER: Scaling Up Long Sequence Modeling in Industrial Recommenders》

  1. 在工业级推荐系统中,对超长的用户行为序列(user behavior sequences )进行建模对于捕获长期偏好(long-term preferences)和短期偏好(short-term preferences )至关重要。现有的解决方案通常依赖于两阶段检索(two-stage re-trieval )或间接建模范式(indirect modeling paradigms),导致了上下游不一致和计算效率低下的问题。在本文中,我们提出 LONGER,即:Long-sequence Optimized traNsformer for GPU-Efficient RecommendersLONGER 融合了:

    • (i):一个global token 机制,用于稳定 long contextsattention

      global token 就是 non-sequence features 所构建的 tokens ,这些 features 包括用户画像、target item 画像、上下文等等。

    • (ii):一个 token merge 模块,它具有轻量级 InnerTransformershybrid attention 策略,从而降低平方复杂度。

    • 以及 (iii):一系列工程优化,包括 training with mixed-precision and activation recomputationKV cache serving ,以及 fully synchronous model training and serving framework 用于 GPU-based dense and sparse parameter updates

    LONGERByteDance 的广告和电子商务服务中的离线指标和 online A/B testing 中均持续优于 strong baselines,验证了其一致的有效性和工业级别的 scaling laws。目前,LONGER 已在 ByteDance 数十个有影响力的现实场景中得到验证并全面部署,服务于数十亿用户。

  2. 在推荐系统中,超长的用户历史行为序列(user historical behavior sequences )全面封装了用户的长期偏好和短期偏好。虽然早期的 sequential modeling 架构已被广泛研究并在学术界和工业界广泛采用,但它们的应用仍然主要局限于短序列场景(序列长度为 (102103)。fully modeling 长序列(长度 >103)对于推荐准确性和多样性具有显著好处,并有助于缓解信息茧房现象。然而,由于计算限制,当前工业界对于长序列建模的 “事实上的” 实践主要采用以下策略:

    • Two-stage retrieval:从原始超长序列中选择与当前 candidate item 最相关的 top-k items(通常 k102),然后进行端到端的短序列建模(short sequence modeling)。最具代表性的工作包括 SIMTWIN

    • Pre-trained User Embeddings:在工业界,通常的做法是在 source model 中预训练整个超长序列并导出一个 condensed user embedding: UE ,然后可以将这个 user embedding 传输到下游 recommendation 模型。利用高性能先进的 GPU,该方法支持对长达 103 的序列和 multiple-layered transformers 进行预训练。

    • Memory-augmented Models

      • multi-channeluserinterest memory network: MIMN 提供了一种基于神经图灵机(neural Turing machine )和记忆归纳单元(memory induction unit)的结构用于 user sequence memorizing

      • large memory network: LMN《Large Memory Network for Recommendation》)提出了一种基于 product quantization-based decomposition 的轻量级结构。

      • memory augmented recommenda- tion model: MARM《MARM: Unlocking the Future of Recommendation Systems through Memory Augmentation and Scalable Complexity》)提出了一种 memory-for-computation trade-off 的范式,它缓存了计算密集型模块的中间结果。

    虽然这些策略显著提高了计算效率,但由于上下游不一致、或者对原始超长序列的间接感知等问题,它们不可避免地牺牲了原始完整序列信息,因此这些方法本质上是向 end-to-end long-sequence modeling 的演进提供了一个中间阶段。

    最近,以 GPT 为代表的大语言模型的快速发展确立了 scaling laws ——这些经验法则预测了随着模型大小、数据量和计算量的增加而带来的性能提升。这些 scaling laws 最近指导了推荐系统的创新。例如:

    • HSTU 由相同的 self-attention layers 堆叠而成,通过 residual connections 来连接,用于建模长序列,其性能优于普通 Transformer 架构。

    • Wukong 开发了一种基于堆叠的 factorization machine block and linear compression block 的架构用于 interaction,并验证了 recommendation 中的 scaling laws

    与此同时,随着 computing 基础设施(例如,GPU FLOPs/Memory、工程化大规模计算平台和框架)的快速进步,令人兴奋的是,它使我们能够在工业级推荐系统中开创一种端到端的超长序列建模(ultra-long sequence modeling)范式。因此,推进超长序列的端到端建模,同时持续扩展序列长度并改进长序列建模的架构,代表了下一代序列建模框架的关键要务。

    为此,我们提出了 Long-sequence Optimized traNsformer for GPU-Efficient Recommenders: LONGER。在该框架中,我们将 sequence input 组织为 global tokens(来自于 non-sequence features) 和 raw sequences(来自于 sequence features),基于此,开发了一种基于 inner-transformertoken merge 方法,以有效减少计算预算。此外,由于用户的超长序列中通常存在大量噪声,我们利用高效的 hybrid attention 策略来提高计算效率,同时保持模型性能。此外,为了在拥有十亿用户规模的 industrial level 全面部署 LONGER,我们提出了一系列工程优化,包括 a fully synchronous training and serving framework with mixed-precision and activation recomputation,以及 a KV cache serving strategy。总的来说,贡献主要总结如下:

    • 我们提出了 long-sequence optimized transformer structure for GPU-efficient recommenders: LONGER。它通过优化 Transformer 结构,提供了一个工业级 GPU-efficient 的视角,并在工业界以端到端方式将用户序列建模长度扩展到10,000

    • LONGER 通过 token mergehybrid attention 策略充分提高了计算效率,这减少了约 50%FLOPs,并经验证在性能上几乎无损。此外,设计了一个 fully-optimized industrial training and serving framework,以进一步提高 GPU 计算效率和在线部署。

    • 进行了全面的实验来验证其有效性。在十亿规模的工业数据集上进行了离线实验,并在抖音的两个有影响力的业务场景上进行了 online A/B tests 以验证其性能。目前,LONGER 已在 ByteDance 数十个场景中得到广泛应用,影响着数十亿用户。

1.1 相关工作

  1. 传统的 Short-Sequence Modeling:迄今为止,工业界的推荐系统主要遵循 sequence modelingfeature interaction 相结合的 modeling 范式。在该框架内,sequence modeling 长期以来在描绘用户偏好方面扮演着关键角色。

    在广泛的研究中,一个关键的里程碑是 DIN。随后的方法包括 DIENCAN 等。此外,multi-domainmulti-interestsequence denoising 被广泛用于从不同方面建模用户偏好。值得注意的是,大多数此类精心设计的结构是为 short sequence modeling 开发的,而 long sequence modeling 方法后来吸引了越来越多的研究关注。

  2. Long-Sequence Modeling:正如引言章节中讨论的, long sequence modeling 方法通常可以分为 two-stage retrievalpre-trained user embeddingmemory-augmented models 。总体而言,retrieval-based 方法和 pre-trained 方法属于两阶段策略,而 memory-enhanced models 通常需要较长的训练周期来积累 memory slots 中的命中率。

    最近,一些努力致力于直接建模长序列(《Actions speak louder than words: Trillion-parameter sequential transducers for generative recommendations》《Scaling law of large sequential recommendation models》《Scaling Sequential Recommendation Models with Transformers》)。然而,在大规模工业推荐系统中,GPU-efficient long sequence modeling 仍然探索不足。

1.2 方法论

  1. Problem Statement:令 UI 分别表示 user 集合和 item 集合。给定一个用户 uU,假设 u 的原始行为序列为 Su=[i1(u),,iL(u)],其中 it(u)IL 为序列长度,1tL ;假设 ubasic 特征为 ud ,其中包括用户画像、上下文特征、交叉特征。给定一个 target item vIrecommendation 任务旨在预测点击率或转化率:

    P(y=1Su,ud,v)[0,1]

    其中 y{0,1} 表示 u 是否会与 v 交互。

    模型通过 historical interaction 数据 D={(Su,ud,v,y)} 来学习这个映射,通过优化二元交叉熵损失来学习:

    L=1|D|(Su,ud,v,y)D[ylogy^+(1y)log(1y^)]

    其中 y^=fθ(Su,ud,v) 是模型 fθ() 预测的概率,θ 为模型参数。

 

1.2.1 整体框架

  1. 我们提出的框架旨在解决推荐系统中建模 long and complex user behavior sequences 的挑战,同时保持工业规模的训练和推理效率。Figure 1 展示了我们提出的模型 LONGER 的整体架构。该框架集成了 input generationtoken mergehybrid attention 机制以及 training-serving optimizations ,以实现高效且可扩展的 long-sequence modeling

    • 首先,我们通过引入 Global Tokensenhance 模型的 input structure,这些 Global Tokens 充当 aggregated anchor representations (例如,target item representationuser ID (UID) embedding)以促进 global information fusion 并稳定 attention distributions

    • 接下来,我们应用 Token Merge 来压缩 long behavior sequences ,降低计算复杂度,同时保留必要的 local patterns

    • 为了进一步保留组内依赖关系(intra-group dependencies),我们引入了 InnerTrans,一个轻量级的 inner transformer 应用于 merged token segments 上。

    核心模型架构(在 LONGER Model Structure 章节中描述)采用了一种 hybrid attention 设计,结合了 cross causal-attention layers (以强调序列的显著部分 salient parts )和 stacked self causal-attention (以捕获序列上的高阶依赖关系)。

    注意:

    • 这里的 user sequence 按照 “逆时序存储”。即,前面的 engagement 是最近的、后面的 engagement 是最远的。

    • 在获得 a list of tokens 之后,需要经过一个 MLP 投影,从而投影到公共子空间。

    • Cross Causal AttentionQuery 通过如下方式构建:所有的 non-sequence tokens、最近的 ksequence tokens

    • 有两层机制来降低计算复杂度:一个是 Token merge 来降低序列长度,从 LL/K ;另一个是 Cross Causal Attention,仅考虑最近的 kengagements 、以及 no-sequence tokens 作为 query

  2. 为了确保 scalability 和部署可行性,我们整合了几个工程系统级别的优化。

    • 该框架在超大规模 GPU 集群上提供 fully synchronous training and serving with unified dense and sparse parameter storage

    • 我们通过 Mixed Precision Training and Recompute 进一步提高了内存和计算效率,实现了 activation memory 减少和 customized numerical precision

    • 最后,在 inference 过程中,我们部署了 KV Cache Serving strategy ,该策略缓存 user sequence rep-resentations 并在 candidate scoring 中重复使用它们,显著减少了冗余计算。

  3. 所有这些组件共同形成了一个连贯的系统,支持具有高表达能力和高效率的 long-sequence modeling,并且可以轻松部署在大规模现实世界推荐场景中。

1.2.2 Global Tokens

  1. 我们引入 Global Tokens 作为 auxiliary representations ,拼接到 input sequence ,从而促进 global information extraction and anchoring。这些 tokens 可以包括 target item representation tokenslearnable CLS tokensUID embeddings 、以及 high-order compressed user–item interaction features。通过设计,global tokens 拥有 full attention receptive field,允许它们聚合来自整个序列的 contextual signals,同时也影响所有其他 sequence tokens

    这种 architectural augmentation 有两个主要目的:

    • 首先,global tokens 作为 centralized information anchors,能够增强 user historycontextual attributescandidate items 之间的 feature interactions

    • 其次,它们稳定了长序列中的 attention dynamics,特别是在 sparse attention configurations 下。如 StreamLLM《Efficient Streaming Language Models with Attention Sinks》)所示,引入少量 global tokens 可以缓解"注意力汇聚"效应("attention sink" effect),即 deeper attention layers 不成比例地关注 early tokens。这些 tokens 充当 anchor points ,保持 attention diversity 并保留 long-range dependency modeling

    其实 global tokens 就是除了 user sequence 以外的其它特征。包括:user IDtarget item IDlearnable CSL tokensuser-item 历史统计的交叉特征等等。

1.2.3 Token Merge

  1. L 为序列长度,dembedding 维度。使用普通 Transformer 处理 long behavior sequences (通常 L2000)会带来极高的计算成本,这是由于平方的注意力复杂度 O(L2d),特别是当 Ld 时(在工业推荐系统中,通常 L=2000d=32)。传统的解决方案如序列截断(sequence truncation )会导致 long-range dependencies 的丢失。

    为了解决这个问题,我们提出了一种 Token Merge 策略,该策略将相邻的 tokens 分组并将它们压缩成更短的序列,从而在模型效率和 representational fidelity 之间实现权衡。该策略将序列长度减少了 K 倍,有效地执行了空间压缩。grouped token representations 可以通过简单的 concatenation 形成,或者通过 intra-group interactions (利用轻量级 InnerTrans blocks)来进一步增强。这种设计在效率和表达能力之间提供了灵活的权衡,保留了 local semantics ,同时支持在 shorter sequence 上进行 global modeling

    Token Merge 就是把一个长的 user sequence ,按照时间顺序划分为 L/K 个组,每组 Kitems ,组与组之间不重叠;然后计算每一组的 representation;然后用 group representation 来进行后续的 Transformer layer

    如何计算 group representation

    • 基础方式:直接拼接。将组内的 Kitemsembeddings 进行简单拼接,形成一个 K×d 维的向量。然后通过线性层映射回 d 维,得到 group representation

    • 高级方式:采用 InnerTrans 。将组内的 Kitemsembeddings 馈入一个 InnerTrans,然后将 transformerKoutput 进行聚合(如,均值池化、最大池化)从而得到 group representation

  2. 给定一个标准结构的 Transformer encoder layerFLOPs 和参数量可以表示为(《Efficient large-scale language model training on gpu clusters using megatron-lm》):

    FLOPsvanilla trans=24Ld2+4L2dParamsvanilla trans=12d2+13d
    • Computational Complexitytoken merge 前后的注意力复杂度之比为:

      FLOPsMerge TokenFLOPsvanilla trans=24Ld2K+4L2d/K24Ld2+4L2d=6dK+1/K6d+L

      24(L/K)(dK)2+4(L/K)2(dK)=24Ld2K+4L2d/K

      对于典型的 L=2048d=32

      • Vanilla TransformerFLOPs587M

      • MergingK=4):FLOPs336M(减少 42.8%)。

    • Parameter Expansiontoken merging 通过缩短序列长度来降低计算复杂度,同时增加了参数数量 Θmerge,从而提高了效率和模型的表达能力,有利于整体模型性能。

      Θmerge=12K2d2+13Kd
    • InnerTrans:为了将多个 adjacent tokens 合并为一个,组内 tokens 的简单拼接可能导致 tokens 之间的 interaction 不足,可能丢失细粒度细节。为了解决这个问题,我们引入了 InnerTrans,它在每个 token group 内应用一个 Transformer 以实现 local interactions。这种方法确保每个组内的 interactions 被有效捕获,而不会出现 direct concatenation 通常发生的 information loss。由于维度非常小且序列长度短,InnerTrans 的计算预算在实践中非常有限。

      InnerTrans 是什么结构?读者猜测是一个 Self-Attention 结构。

      ci=TransformerBlock([ei1,,eiK])

      其中: ci 表示第 i 组的 representationeik 表示第 i 组中的第 kitem embedding

      TransformerBlock 是将这些 embeddings 馈入一个 Transformer layer,然后对 Koutput 进行聚合(均值池化、或者最大池化)。

      根据论文的 Figure 1InnerTrans 包含了 residual connection。但是,这里的公式并未包含 residual connection。读者猜测,论文应该是采用了 InnerTrans 和 “简单拼接”这两种方式:

      ci=TransformerBlock([ei1,,eiK])+Proj(Concat([ei1,,eiK]))

      其中:Proj 是一个线性投影,将维度 (Kd) 投影到 d 维。

      或者:直接是一个标准的 Transformer Layerself-attention -> residual and LN -> FFN -> residual and LN

1.2.4 LONGER Model Structure

  1. 在我们的模型架构中,我们使用一种 hybrid attention 机制,该机制结合了 cross-attention layersself-attention layers,以高效处理 input sequences

  2. Input Generation:模型的输入包括两个主要部分:global tokenssequence tokensglobal tokens ,代表 contextual information (如前面章节讨论的 target item featuresuser ID),与 sequence tokens 拼接起来以形成 input

    为了更好地捕获 user behavior sequences 中的时间动态(temporal dynamics ),我们用额外的 positional side information 来增强 sequence tokens 。具体来说,我们结合了两种形式的 positional encoding

    • (1):一个 absolute time-difference feature,用于量化每个 user interactiontarget item 的时间距离,作为 side information 并拼接到每个 item embedding

      注意:针对这个特征,没有 feature embedding,而是这个 feature 直接使用。

      另外,这个特征是否需要归一化?作者并未说明。读者认为:需要归一化。

    • (2):一个可学习的 absolute positional embedding,用于编码每个 token 在序列中的位置,该 embeddingadditem embedding 中。

    position encoding 之后,生成的 tokens 通过一个多层感知机(multi-layer perceptron: MLP)来生成它们的 input representations RR(m+L)×d=[GRm×d;HRL×d],其中 GH 分别表示 global token representationssequence token representations。然后,query matrix O 通过拼接 mglobal tokens GRm×dksampled sequence tokens HSRk×d 来构建,这些 sampled sequence tokens 是根据预定义的采样策略从 full sequence tokens H 中选择的。类似的 query compression 也在其他研究领域中被探索过,例如 Perceiver《Perceiver: General perception with iterative attention》)和 Q-Former《Blip-2:Bootstrapping language-image pre-training with frozen image encoders and large language models》),它们采用一个 learnable token strategy 进行压缩。在实验中,我们全面比较了不同的策略,包括取 most recent k tokensuniformly sampled tokens ,或 initialize k learnable tokens ,并发现 most recent k tokens提供了最好的结果。这种 hybrid attention 设计也受到以下观察的推动:模型性能在 sequence tokens 数量方面表现出强烈的边际效应:仅采样完整序列的 40% 就能保留超过 95% 的性能提升,同时减少约 50%FLOPs(见实验章节)。然后,composite query 构造如下:

    O=[G;HS]

    这种 hybrid 设计将 attention 集中在关键的 local behaviorsglobal contextual signals 上,使模型能够有效地捕获 specific sequence dependenciesbroader contextual information

    由于 user sequence 按照 “逆时序存储”,因此 most recent k tokens 就是最开头的 ktokens

  3. Cross-Causal Attention (First Layer):在第一个 attention layer 中,我们使用上一步生成的 query matrix Oinput tokens RR(m+L)×d 应用 cross-causal attentioncross-causal attention 机制计算如下:

    Q=OWQ,K=RWK,V=RWVAttention(Q,K,V)=softmax(QKd+M)VR(m+k)×d

    其中:

    • WQ,WK,WVRd×d 代表 query, key, value 投影矩阵。

      一种改进方法是采用类似于 FAT 或者 Hiformer 中的思想:对 No-sequence features 中的 fields 采用 field-specific projection (这也是 OneTrans 论文中所用到的主要思想)。

    • M 为掩码矩阵,定义如下:

      Mi,j={0, if ji,otherwise

      其中 i,j[1,m+L]

      注意:由于 user sequence 按照 “逆时序存储”,因此 ji 代表仅考虑当前位置以及过去的位置,剔除了未来的位置。

    causal mask 设计,一方面,保持了 sequence items 之间的时间相关性。另一方面,它确保了从 sequencecandidate item 的不可见性,从而实现了 KV Cache Serving 机制。计算 attention 后,结果通过一个 feed-forward network: FFN 进行进一步处理。

    Cross-Causal Attention (First Layer) 是为了降低计算复杂度。理论上 k=L 的时候效果最好,因为保留所有信息。

  4. Self-Causal Attention (Subsequent Layers):在 cross-causal attention layer 之后,后续层由几个 self-causal attention blocks 组成。这些层专注于学习 sampled tokens sequence 内的内部关系(internal relationships),允许模型捕获行为 behavior sequencetokens 之间的依赖关系和模式。每个 self-causal attention layer 后面都有一个 FFN,这有助于进一步处理 attention 机制学到的信息。

    self-causal attention 机制使用类似的公式计算:

    SelfAttention(Q,K,V)=softmax(QKd+M)V

    这里,query Qkey Kvalue V 是通过将单独的线性投影 WQ,WK,WV 应用于前一层的 output 而得到的。

    为什么要用两种类型的 Attention

    • Cross-Causal Attention 解决 “跨源定向关联” 问题 —— 当存在明确的 Query(即,target item )与 Key/Value(信息源)时,用于筛选与 target 相关的信息,同时排除未来泄露和噪音,核心是 “精准匹配”。类似于 DIN,只是这里的 query 是一组向量而不是 target item embedding

      此外,它也将 tokens 长度从 (m+L) 降低到 (m+k)

    • Self-Causal Attention:解决 “单一序列内部时序连贯” 问题 —— 当需捕捉序列内的长程依赖(如用户历史的行为)时,用于建立内部因果链,核心是 “时序一致”。

  5. Stacking and Compressionself-causal attention layers 被堆叠 N 次以迭代地 refineinput sequencerepresentations 。在通过这些层之后,模型产生一个 compressed output,它代表了 attention 机制的 final output。然后这个 output 被用于下游 prediction 任务。

    CrossAttn(O,R)compress long sequenceSelfAttn()×Nhigh-order interactions

    通过在第一层使用 cross-attention 和在后续层使用 self-attention 的组合,我们的模型能够高效处理长序列,同时利用 global contextinternal dependencies

    后续还有 High-Level MLP Layers 、以及 Predictions Layer

1.2.5 Training and Deployment Optimization

  1. Training Framework:我们的训练框架是一个为 large-scale sparse models 设计的全同步系统(fully synchronous system),旨在利用现代高性能 GPU 的能力。基于硬件--软件协同设计(hardware–software co-design)的理念,它旨在最大化distributed training 中的计算吞吐量和内存效率。training pipeline 始于 batch formstreaming form 的数据摄入,然后通过 Fountain 模块进行预处理。处理后的 training data 随后被分发到多个 GPU runners,在那里 dense parameterssparse parameters 都被同步地更新。这种 unified design 促进了跨 devicesnodes 的有效 scaling,为在生产环境中训练 large-parameter models 提供了坚实的基础。

    该框架的一个定义性特性(defining characteristic)是 unified parameter storage and training architecturedense parameterssparse parameters都被同步地存储和同步地更新在 GPU 机器上,消除了对外部 Parameter Server 组件的需求。为了更好地适应推荐系统中的 feature distribution patterns,该框架采用了 hierarchical memory system 用于 sparse embedding,从而有效支持 large embedding tables。在这种设计中,高频特征存储在高带宽的 GPU 内存(HBM)中,中频特征驻留在 CPU 主内存(MEM)中,低频特征被卸载到本地固态硬盘(SSD)上。这种分层存储布局(stratified storage layout )经过优化以匹配 recommendation 数据的访问特性(access characteristics ),在 latency、吞吐量、容量之间提供了 practical trade-off。核心创新在于将 computationparameter storage 完全共置于 GPU 机器上,从而减少了通信开销和 memory transfer latency。这带来了 training throughput 的提高、陈旧度(staleness)的降低、以及收敛稳定性(convergence stability )的增强。

  2. Mixed Precision Training and Recompute:为了缓解训练期间的 GPU 内存压力,我们采用了重计算( recompute)策略以及混合精度训练(mixed precision training)。

    • 对于 gradient computation,我们使用反向模式自动微分(reverse-mode automatic differentiation ),这比前向模式(forward-mode)更高效,但需要存储前向传递(forward pass )中的所有 intermediate activations 。这些 activations 可能成为主要的 memory bottleneck 。为了解决这个问题,我们支持在 model definition level 进行重计算声明(recomputing declarations),允许在 forward pass 期间丢弃 selected activations ,并在 backward pass 期间重新计算它们。这用 computation 换取了内存节省。由于原生 TensorFlow 不提供对 recomputation 的官方支持,我们使用 custom_gradient 机制实现它,通过 code-level annotations 实现细粒度控制。

    • 此外,为了减少由 dense model scaling 引起的计算开销,我们采用基于 BF16/FP16 的混合精度训练。用户可以在 model level来配置精度,对关键组件应用更高精度,对其他部分应用较低精度。这种方法在 production 工作负载中显示出显著的好处,包括平均 +18% 吞吐量、-16% 训练时间和 -18% 内存使用,在 dense layers 中内存减少高达 -28%

  3. KV Cache Serving:为了提高在 scoring multiple candidates 时的 inference 效率,受 M-FALCON 启发,我们引入了一种 KV caching 机制,该机制解耦了 user behavior tokenscandidate-specific global token 之间的注意力计算。由于 user sequencecandidates 之间保持不变,其 internal representation 可以计算一次并重复使用。

    具体来说,我们将 attention input 分为两部分:user sequence tokens 、与 candidate itemglobal token 。用户序列的key and value projections 被预计算并缓存。对于每个 candidate ,仅计算其 global tokencached user sequence 之间的注意力。这导致了一个两阶段的推理过程:

    • 预计算并缓存 key-value tensors of the user sequence

    • 计算每个 candidateglobal tokencached user sequence 之间的注意力。

    Figure 3 所示,这种优化避免了冗余计算并显著降低了 serving latency 。在实践中,它提高了 online serving 效率,将吞吐量下降从高达 40% 减少到仅 6.8%

1.3 实验

  1. 数据集:我们在抖音广告系统中的转化率(Conversion Rate: CVRprediction 任务上评估我们的模型,这是一个真实世界、大规模工业广告推荐场景。该数据集构建自 2024-10-162025-02-23 期间收集的在线用户交互日志子集,包含 130 个连续天的 5.2B 样本。每个样本包括用户人口统计特征,如 user ID: UID、性别、超长用户行为序列、以及一个 candidate ad item。用户行为序列包含各种交互类型,包括 page viewsclicksconversions;而 item-side features 涵盖广告内容、display context 、和相关的元数据。

    我们采用时间一致的 data split 策略:前 123 天用于训练,剩余 7 天保留用于离线评估。这种设置与现实世界部署实践一致,并有效防止模型在开发期间泄漏未来数据。

  2. baselines:为了进行比较,我们根据其建模短期用户行为序列或长期用户行为序列的能力,将我们的模型与几个强基线进行比较。

    • 短期用户行为序列方法,包括 TWINDINRecent50),它们依赖于 50 次交互。

    • 长期用户行为序列方法,包括 SumPoolingDINHSTUTransformer,处理扩展的行为历史,这些方法在工业环境中常常面临 scalability 和效率问题。

    所有模型都使用相同的预处理 pipelinehyperparameter tuning 进行训练,实验在 48 x A100s GPU 集群上进行。

1.3.1 实验结果

  1. 现有方法比较:我们使用推荐系统中二分类的两个标准指标:AUC (Area Under the ROC Curve)LogLoss,在 offline evaluation set 上报告模型性能。Table 1 总结了多个基线和我们提出的模型的结果。

    根据该表,我们的模型优于所有基线,实现了 0.85290AUC0.47103LogLoss;与 base model 相比,AUC 相对提高了 1.57%,并且与最具竞争力的模型(即 Transformer)相比,AUC 提高了 0.21%。值得注意的是,在工业案例中,0.1% 的改进被认为是一个可以影响 online A/B test 性能的显著改进。

    此外,与普通 Transformer 相比,所提出的模型还表现出显著更高的效率(见后续章节)。这一改进证明了我们的方法在捕获 long-range behavior dependencies 并且同时保持计算效率方面的有效性。

    base 模型是什么?作者并未说明。这个 base 模型甚至要比 SumPooling 更差。读者猜测是:不包含用户行为序列的一个 DNN 模型。

  2. 消融研究:Table 2 展示了关于 LONGER 中关键组件和 query-related configurations 的消融研究。

    • 我们首先检查了 TokenMerge 模块和 InnerTrans 组件的影响。

      • base model without merging 相比,集成 TokenMerge (Concat, 250)FLOPs3.73×109 减少到 3.03×109,同时将 AUC 提高了 0.22%,并将 LogLoss 降低了 0.48%

      • 进一步结合 InnerTrans 带来了额外的增益,实现了 0.47052 的最佳overall LogLoss1.63%AUC 改进。

    • 接下来,我们改变用于 summarize recent user behaviorsqueries 数量 (k)。结果表明:

      • 增加 k 通常会提高性能,但也会增加计算量。

      • 值得注意的是,使用 100 queries 实现了强有力的权衡,AUC0.85290LogLoss0.47103 ——非常接近使用 all queriesk=250)时获得的性能,但仅使用其 54%FLOPs。此设置在 Table 2 中以粗体突出显示,显示了其在 computational budgets 至关重要的现实世界部署中的实用性。

    • 最后,我们比较了不同的 query selection 策略。这些策略可以看作是 query set 的不同初始化方法。

      • 其中,使用 learnable queries(随机初始化)表现最差(AUC = 0.84946 )。

      • 相比之下,直接选择 most recent 100 user behaviorsRecent 100 )实现了最佳的整体性能。

      • 其他策略,如均匀采样(uniform sampling)或 combining recent and uniformly sampled items ,产生略低的 AUC 和较高的 LogLoss

      这些发现表明,使用 informative behaviors ——特别是最近的行为——初始化 queries 对于在 long-sequence modeling 中有效捕获 user intent 至关重要。

    总体而言,消融研究证实了 architectural enhancements(例如,TokenMergeInnerTrans)和 query-related 策略(例如,query numberselection method )在平衡准确性和效率方面都起着关键作用。研究结果验证了 LONGER 通过精心设计其关键组件和 behavior modeling pipeline,可以在降低计算成本的同时实现强大的性能。这种配置使我们的方法非常适合于 large-scale industrial deployment ,其中 low-latency inference 和系统吞吐量至关重要。

1.3.2 Scaling 分析

  1. 在本节中,我们展示了模型性能相对于 sequence lengthFLOPsparameters 数量的 scaling 分析。这些因素的扩展行为遵循一般形式:

    y=αxβ+γ

    其中:

    • 其中 y 代表性能指标(AUCLogLoss)。

    • x 代表 scaling factorsequence lengthFLOPs 、或 parameters)。

    • αβ 是常数,γ 代表 constant offset

  2. Sequence Length:我们分析了在不同 model depths 下,性能如何随 input sequence lengthscale 。如 Figure 4 所示:

    • 增加 tokens 数量持续提高 AUC 并降低 LogLoss,遵循幂律趋势(power-law trend)。

    • Deeper modelslonger sequences 中受益更多,但 AUC 的改善随 depth 增加而减慢,表明收益递减。optimal depth 应平衡 model capacitycomputational constraints

    总体而言,longer sequences 增强了性能,特别是与适当选择的 depth 进行配对时。超过一定 depth 后,进一步的增益是微乎其微的。

    序列长度翻倍大致能带来 0.1%AUC 提升。

  3. Parameters:我们通过 scaling hid- den dimension size 来评估模型容量(model capacity ),同时将层数固定为 2,输入序列长度固定为 2000。如 Figure 5(a) 所示,AUC 随着 parameter 数量的增加而稳步增长,遵循强 power-law 趋势 (R2=0.987)。这些结果表明,在固定架构下,增加模型 width 有效地增强了性能,并且在当前参数范围内没有饱和迹象。

    参数量翻 10 倍大致能带来 0.3%AUC 提升。

  4. FLOPs:我们通过改变 number of layerssequence length 来分析模型性能,同时将模型维度固定为 32。如 Figure 5(b) 所示,AUC 随着 FLOPs 的增加而稳步增长,遵循强 power-law 趋势 (R2=0.967)。这表明增加计算资源使模型能够处理更长或更复杂的 user behavior sequences ,捕获更高阶的依赖关系并提高预测准确性,即使在固定模型 width 下也是如此。

    这些结果表明:增加计算资源是提高性能的有效方法,但 efficiency gain 应与现实世界系统中通常遇到的 computational constraintsmemory constraints 相平衡。

1.3.3 Online A/B Tests

  1. 在本节中,我们展示了 online A/B tests 的结果,这些测试旨在评估所提出模型在 Douyin AdsDouyin E-Commerce Platforms 这两个非常有影响力的商业平台内的真实场景中的有效性,这两个平台都吸引了数十亿用户。这些场景中的 baseline 模型已经相当强大,使得观察到的改进更加显著。双领域测试(dual-domain testing )使我们能够评估模型在广告和电商环境中的泛化能力,这两个环境是平台生态系统的关键组成部分。

  2. Douyin Ads Platform:本节展示了Douyin AdsA/B test 的结果,我们使用两个关键指标评估我们模型的性能:ADSS (Advertiser Score)ADVV (Advertiser Value),这两个指标是工业广告系统中最重要的指标。测试在三种广告格式上进行:直播(Live Streaming)、短视频(Short Video )和商城(Mall )。

    ADSS 可能是点击率或者转化率之类的指标,ADVV 可能是 CPC 或者 CPM 之类的指标。

    • 对于直播,模型在 ADSS 上实现了 1.063% 的改进,在 ADVV 上实现了 1.168% 的改进。

    • 对于短视频,ADSS 增加了 2.097%,而 ADVV 显示出 2.151% 的改进。

    • 对于商城,ADSS 提高了 1.816%ADVV 增加了 1.407%

    这些结果证实了该模型在所有广告格式上都能有效提升性能,并带来一致的改进。

  3. Douyin E-Commerce Service:对于 Douyin E-Commerce 上的 A/B test,我们使用两个关键指标评估不同内容格式的有效性:Order/U (每用户的订单数)和 GMV/U (每用户的 GMV)。这些指标帮助我们理解模型不仅对总销售额的影响,还对 user-level engagementuser-level value generation 的影响。结果显示两个指标均有显著改善。

    • 对于直播,Order/U 增加了 7.9222%GMV/U 提升了 6.5404%,表明直播内容对 orders per uservalue generated per user 都有强烈的积极影响。

    • 对于短视频,Order/U 改善了 4.6125%GMV/U 增加了 5.2771%,证明了短视频内容在提升 overall sales per user 方面的有效性。

    这些结果突出了两种广告格式的显著影响,其中直播在 Order/UGMV/U 方面显示出明显更大的改进。

1.4 结论

  1. 在本文中,我们提出了 LONGER,一个基于 Transformer 的框架,旨在工业推荐系统中实现高效且 scalable 的超长 user behavior sequences 的建模。通过:

    • 引入一系列架构设计,包括 global tokenstoken merge with InnerTranshybrid causal attention

    • 引入系统级优化,包括 GPU-synchronous frameworkmixed-precision and recomputation training 、以及 KV cache serving

    LONGER 能够在现实世界工业级约束下实现端到端的超长序列建模。在工业十亿规模数据集上的广泛实验以及跨广告和电商领域的 online A/B tests 验证了其在十亿用户工业规模下的鲁棒性和泛化能力。值得注意的是,LONGER 在显著降低计算开销的同时实现了有竞争力的准确性,使其非常适合在 latency-sensitive production environments 中部署。未来的工作包括研究更高效的序列建模技术以及改进工业中的 cross-domain behavior modeling