In cross-border e-commerce, search relevance modeling faces the dual challenge of extreme linguistic diversity and fine-grained semantic nuances. Existing approaches typically rely on scaling up a single monolithic Large Language Model (LLM). However, our empirical analysis reveals that single models suffer from uneven capability distributions across regions. For example, excelling in English while underperforming in specific Southeast Asian languages. In this work, we shift the paradigm from scaling a single model to orchestrating heterogeneous experts. We propose a scalable Coarse-grained Mixture-of-Experts (MoE) framework that leverages the inherent complementarity of distinct open-source LLMs (e.g., Qwen, Gemma) without expensive pre-training. Unlike standard token-level MoE, our framework dynamically routes entire queries to specialized experts and, crucially, employs an Information-Preserving Concatenation Fusion strategy. We theoretically posit that preserving the distinct embedding manifolds of heterogeneous experts-rather than compressing them via weighted averaging-is essential for capturing complex relevance signals in a multi-model latent space. On datasets spanning six Southeast Asian markets, our MoE improves AUC by 0.72 percentage points over a dense baseline with the same active parameters. Meanwhile, the optimized pipeline achieves 13.72 queries per second (QPS), a 9% throughput improvement.


翻译:在跨境电子商务中,搜索相关性建模面临着极端语言多样性与细粒度语义差异的双重挑战。现有方法通常依赖于扩展单一的巨型大型语言模型(LLM)。然而,我们的实证分析表明,单一模型在不同区域间存在能力分布不均的问题。例如,在英语上表现优异,但在特定东南亚语言上却表现不佳。本研究将范式从扩展单一模型转向协同异构专家。我们提出了一种可扩展的粗粒度专家混合(MoE)框架,该框架利用不同开源LLM(如Qwen、Gemma)固有的互补性,而无需昂贵的预训练。与标准的词元级MoE不同,我们的框架将完整查询动态路由至专用专家,并关键性地采用了一种信息保持级联融合策略。我们从理论上提出,保持异构专家各自独特的嵌入流形——而非通过加权平均进行压缩——对于在多模型潜在空间中捕捉复杂相关性信号至关重要。在覆盖六个东南亚市场的数据集上,我们的MoE框架相较于具有相同激活参数的稠密基线,将AUC提升了0.72个百分点。同时,优化后的处理管线实现了每秒13.72次查询(QPS)的吞吐量,提升了9%。

0
下载
关闭预览

相关内容

大语言模型与小语言模型协同机制综述
专知会员服务
38+阅读 · 2025年5月15日
【博士论文】异构协同模型推理
专知会员服务
33+阅读 · 2024年11月19日
混合专家模型在大模型微调领域进展
专知会员服务
48+阅读 · 2024年9月23日
迈向大语言模型偏好学习的统一视角综述
专知会员服务
24+阅读 · 2024年9月7日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
跨多个异构数据源的实体对齐
FCS
15+阅读 · 2019年3月13日
使用 Canal 实现数据异构
性能与架构
20+阅读 · 2019年3月4日
一文概览基于深度学习的超分辨率重建架构
国家自然科学基金
23+阅读 · 2016年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
大语言模型与小语言模型协同机制综述
专知会员服务
38+阅读 · 2025年5月15日
【博士论文】异构协同模型推理
专知会员服务
33+阅读 · 2024年11月19日
混合专家模型在大模型微调领域进展
专知会员服务
48+阅读 · 2024年9月23日
迈向大语言模型偏好学习的统一视角综述
专知会员服务
24+阅读 · 2024年9月7日
相关基金
国家自然科学基金
23+阅读 · 2016年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员