能帮你接电话、写作的vivo蓝心小V对话式助手背后的智能推荐技术解读
DataFunSummit
2025-06-22 18:00
2023年vivo推出蓝心小V智能助手,并在2025年6月升级DeepSeek-R1,AI能力全面进阶,在个性

蓝心小V推荐场景算法优化实践

vivo基于大模型提升智能助手推荐体验

2023年vivo推出蓝心小V智能助手,并在2025年6月升级DeepSeek-R1,通过大模型能力实现个性化内容推荐。为探讨相关技术细节,在7月25-26日深圳举办的DA数智技术大会上,vivo人工智能部算法工程师梁天安分享了蓝心小V的推荐系统优化实践经验。

问答后推荐的核心挑战在于Item内容生成

与传统信息流或电商推荐不同,问答后的相关问题需实时生成候选Item,依赖对话上下文推断用户意图,存在意图瞬时性和话题跳跃性等难点。同时,问题质量评估缺乏明确指标,需关注相关性、实用性、多样性等主观维度。

从单模型输出到完整推荐链路演进

初期蓝心小V使用单一LLM生成推荐结果,面临生成质量不稳定、推荐内容多样性不足的问题。随后引入召回、排序、重排模块,构建完整的推荐体系以支撑后续优化。

  • 召回模块:设计多路并行大模型通路,利用LLM的语义理解与生成能力提高候选内容的丰富性;
  • 排序模块:使用微调后的LLM进行CTR预估,增强语义层面的理解和推理;
  • 离线评估:结合人工反馈和用户行为数据构建Reward Model,提升评估效率。

SFT/DPO用于对齐用户偏好与语义逻辑

主要目标包括:

  • 提高推荐内容的相关性、层次性和意图匹配度;
  • 训练数据来源于更大模型蒸馏、用户曝光点击、主动Query行为等多元渠道。

生成控制策略保障内容质量

  • 通过角色注入多样化提示词(Prompt Engineering)防止内容重复;
  • 采用Few Shot引导避免生成负面内容;
  • 结合CoT方式增强意图理解和推理能力。

离线评估建设兼顾相关性与安全性

初期依靠规则评估如相似度得分和多样性计算,但存在准确性和与线上效果脱节问题。现采用LLM作为判别器计算Reward得分,使离线评估与实际收益更贴近。

资源平衡与模型部署策略

在移动端应用中,采用INT8量化、Prefix Cache和KVCache缓存等技术降低延迟与显存消耗,有效提升服务器QPS承载能力。

未来技术方向聚焦RM评估优化与多模态落地

当前最大瓶颈包括:
– 离线评估体系不完善,难以精准预测线上表现;
– 相关性与多样性之间难以取得稳定平衡。

计划探索方向:

  • 融合CTR得分与RM判别分数,构建综合评价机制;
  • 引入生成式奖励模型(GRM)增强解释性;
  • 结合用户画像实现个性化平衡推荐。

此外,随着多模态大模型(LMM)的发展,vivo将持续拓展其在手机端感知与服务推荐的应用边界,例如用户出行、一键问屏等新场景。

展开查看全文
文章来源:【DataFunSummit】公众号,原文《能帮你接电话、写作的vivo蓝心小V对话式助手背后的智能推荐技术解读》,大数AI优化