在人工智能领域飞速发展的背景下,抖音集团正积极投入建设具备世界领先水平的内部多模态大模型。该模型旨在深度理解和生成结合文本、图像、视频、音频等多种模态的数据,以此赋能集团旗下多样化的产品与业务场景(如内容推荐、智能创作、用户交互、内容审核等)。
为了确保这些强大的多模态大模型不仅具备卓越的性能,更能精准对齐人类偏好(Human Alignment)、提升其安全性、有用性、一致性与个性化表现,我们引入了 **Direct Preference Optimization (DPO)作为关键的后训练(Post-training)** 策略。DPO 通过利用人类偏好反馈数据直接优化模型,相比传统的 RLHF(基于强化学习的人类反馈)流程更高效、稳定。
本项目的核心目标正是 ——构建一个高效、稳定、可扩展的端到端数据链路,为 DPO 训练提供高质量、高通量的结构化数据。这一数据链路的搭建,是确保我们的多模态大模型能够持续迭代、不断优化、最终在复杂现实场景中表现卓越的基石。它不仅将加速模型迭代周期,更是我们在下一代 AI 技术竞争中保持领先的关键一步。
本项目的核心在于设计与实现一个自动化、智能化的DPO 训练数据生产平台。其核心功能可概括为三个紧密相连的阶段:
大规模、周期性数据采集与整合: 平台将具备强大的数据集成能力,能够定期、自动化地从集团内部多样化的原始数据源(如用户交互日志、内容创作数据、搜索查询、运营反馈、模型推理日志等)以及特定外部数据集获取海量多模态数据。确保数据的新鲜度、全面性和多样性,为后续的精细化标注提供充足的 “原材料”。
高度定制化与智能化的复杂标注工作流: 平台将支持一个多阶段、多模态融合、且深度定制化的标注链路。此环节并非简单的标签分类,而是专注于DPO 训练所需的偏好型数据构建。它将引导专业标注员或通过 AI 辅助标注,根据预设的严苛评估标准(如安全性、事实准确性、逻辑连贯性、指令遵循度、创意性、语气风格等),对模型在特定 Prompt 下的多个响应进行优劣排序、对比选择,乃至识别并生成对抗性样本。此流程将针对多模态内容的特点,支持文本 - 图像、文本 - 视频等多维度关联信息的标注与评估。
标准化、可追溯的 DPO 训练数据输出(Pair 对数据): 最终,数据链路将把经过复杂标注处理后的信息,精确地格式化为 DPO 训练框架可直接消费的 “Pair 对数据”。这意味着,对于给定的一个 Prompt 或上下文,我们将输出至少包含一个 **“偏好响应(Preferred Response)”和一个“拒绝响应(Rejected Response)”** 的结构化数据对。这些数据将包含必要的元信息(如评估维度分数、置信度、标注员 ID、时间戳等),确保数据质量高、可追溯,并可直接无缝地灌入集团的 DPO 训练系统,为模型的持续优化提供高质
1.整体架构:训练数据要使用成对的视频和单一的prompt,根据DPO训练的要求,需要构造差异化链路,链路分多个支路,通过不同方式构造出6-10个差异性视频,最后经由人工标注选择出一个最好和一个最差的视频
2.我负责的部分:链路内部全量算子的开发与链路的整体串联