培梦网

找回密码
立即注册
搜索
热搜: 活动 交友 discuz
发新帖

20

积分

0

好友

2

主题
发表于 2025-4-3 16:28:21 | 查看: 1699| 回复: 0
本帖最后由 1098989547 于 2025-4-4 16:29 编辑

大量社招多模态团队--多模态理解/生成/预训练/后训练算法研究员
年包:80w-150w,对标P6 P7 P8 P9
联系邮箱:ciofirst@126.com
工作地点:北京海淀学院路
  
1.理解算法研究员:对应阿里7-8
AI 院--多模态团队--多模态理解算法研究员
职位描述
我们是谁 | 前沿多模态大模型研究团队
头部AI公司-多模态大模型团队是全球领先的多模态研究团队之一。我们拥有:
- 从多模态理解到生成的全栈自研技术体系
- 充足的计算资源支持,可以支持预训练方面的探索
- 覆盖数据、训练、推理部署、评测和开源的全方位研究
我们的成就:
- 开源多个世界领先的视觉理解模型,如CogVLM、CogAgent、CogVLM2和CogVLM2-Video,获得广泛好评
- 推出CogVideo、CogView系列等多模态生成模型,在图像、视频生成领域处于全球前沿
- 将视觉理解和文生视觉模型应用于APP和GLM4v Maas平台,服务广泛的C端和B端用户
岗位职责
- 设计和训练先进的多模态大模型,包括图像、视频的理解与生成
- 搭建与优化多模态大模型的自动化数据通路,提升模型的多模态基础能力及下游任务上的效果
- 优化模型训练,包括包括模型的预训练、微调、偏好对齐等
- 探索前沿算法,多模态理解的数据合成、模型自我迭代等
- 加速多模态大模型的推理过程并部署到实际应用中
职位要求
- 985高校计算机、电子、自动化等相关专业硕士或博士学位(优秀本科生亦可考虑)
- 深入理解常用多模态算法;具备多模态大模型和视频理解相关项目经验者优先
- 在CCF-A类会议发表过多模态相关论文者优先考虑
- 熟练运用Pytorch、transformers、megatron等主流框架
- 工作态度认真负责,具备良好的团队协作能力
加入我们,您将有机会:
- 参与突破性的多模态AI研究
- 与顶尖专家共事,快速提升技能
- 在充满活力的环境中实现自我价值
工作地点:北京海淀学院路
联系邮箱:ciofirst@126.com
--
2.AI院--多模态团队--多模态生成算法研究员 对应阿里7-8
基础算法:进行图片、视频等多模态内容生成的模型架构、训练算法、调优技术等算法技术研究探索;
可控生成:探索图片视频编辑、可控生成、IP一致性、文字生成等应用方向的技术路线及模型调优;
强化学习:探索利用强化学习等技术基于人类反馈和自动化Reward/Critique模型提升生成内容质量的优化算法;
模型加速:探索通过蒸馏、量化、架构算法改进等方式提升模型的训练推理效率;
算法工程:支持多模态生成模型的训练推理框架优化,以及开源项目的开发、维护和适配
职位要求
985高校计算机、电子、自动化等相关专业硕士或博士学位(优秀本科生亦可考虑)
深入理解常用多模态算法;
具备多模态生成相关项目经验者优先 - 在CCF-A类会议发表过多模态相关论文者优先考虑 ;
熟练运用Pytorch、transformers、megatron等主流框架;
工作态度认真负责,具备良好的团队协作能力
【加分项】 - 在ACL,NeurIPS,ICLR,EMNLP,ICML等顶级会议或期刊上发表过论文者优先; - 熟悉并行训练框架,有多机多卡训练经验者优先
  
3.GLM--预训练算法工程师(社招)
1.预训练数据优化:大规模文本数据的提取、去重、质量筛选;针对特定领域(比如数学、物理、化学等)的语料筛选;自动化数据筛选与配比方法;预训练数据改写与合成;
2.模型结构与训练方法优化:MoE 模型的架构与训练优化;Mamba 等线性长度扩展的模型架构研究;预训练模型蒸馏方法;长文本模型预训练;
3.预训练的可预测性:从预训练的早期曲线中预测最终性能;预训练loss与下游任务性能的关系;不同架构模型之间参数量的等价关系;
4.预训练模型的评测:开发适合预训练模型(没有 instruction following 能力)的评测集合;开发适合预训练过程监督的评测框架;
5.预训练框架效率优化:针对预训练的实际模型架构需求,适配训练框架并优化训练速度;开发实验及研究相关的工具帮助团队提升效率;
职位要求
【我们需要这样的你】
1.1-5 年工作经验;自然语言处理、机器学习、语音处理、计算机视觉等相关专业,硕士及以上学历;
2.较强的算法开发能力,熟悉常用的机器学习、深度学习算法;
3.熟练使用Pytorch、Huggingface、Megatron等框架;
4.对Transformer的架构有较为深入的理解,了解Transformer的各种变体,有相关的研究经验者优先;

  
4.GLM-4 后训练算法工程师(社招)
1. 对齐数据优化;包括针对模型特定能力进行数据构造、筛选和优化,特定领域(如数学、代码、复杂推理)等数据筛选和合成;对齐数据的质量和多样性控制等
2. 后训练扩展性:探索模型如何通过更长的思维链推理,在复杂任务上取得更优的效果,post-training 阶段训练和推理的扩展能力
3. 强化学习算法优化:算法可扩展性和稳定性提升后训练 scaling 性能;多目标奖励模型优化以及结合CoT和过程监督优化奖励模型
4. 对齐范式探索:结合模型监督、self-improve 等进行训练优化探索;交互任务复杂推理;长文本生成优化;
5. 强化学习框架效率优化:针对 LLM 强化学习训练需求,优化训练速度,开发和研究相关工具支持训练团队效率提升;
职位要求
1. 1-5 年工作经验;自然语言处理、机器学习、语音处理、计算机视觉等相关专业,硕士及以上学历;
2. 较强的算法开发能力,熟悉常用的机器学习、深度学习算法;
3. 熟练使用Pytorch、Huggingface、Megatron等框架;
4. 对Transformer的架构有较为深入的理解,了解Transformer的各种变体,有相关的研究经验者优先;
  
5. 预训练模型研究算法专家 P5~P9都要  
(一)前沿研究与技术探索
跟踪预训练模型领域的国际前沿技术和研究动态,深入研究 Transformer、扩散模型等架构及其变种,挖掘新的研究方向和创新点。
开展理论研究,探索新型的损失函数、优化算法和正则化方法,提升模型的性能、泛化能力和效率。
(二)模型架构设计与优化
主导设计和开发具有创新性的预训练模型架构,根据不同的应用场景和数据特点,进行针对性的架构调整和优化。
运用模型剪枝、量化、蒸馏等技术,对大规模预训练模型进行压缩和加速,提高模型的推理速度和资源利用率。
(三)数据处理与利用
设计和实施大规模数据集的收集、清洗、标注和预处理方案,构建高质量、多样化的预训练数据集。
研究数据增强、采样策略和多模态数据融合方法,提高数据的利用效率,增强模型对不同类型数据的处理能力。
(四)模型训练与评估
制定和优化预训练模型的训练策略,利用分布式计算框架(如 Horovod、DeepSpeed)进行高效的大规模模型训练。
设计合理的评估指标和实验方案,对训练好的模型进行全面评估和分析,及时发现问题并进行改进。
(五)业务融合与应用
与产品、业务团队紧密合作,深入了解业务需求,将预训练模型技术应用于实际业务场景,如智能客服、内容推荐、图像生成等。
参与产品的需求分析和设计,为产品的功能迭代和创新提供算法支持和技术方案。
  
6.多模态团队--多模态理解算法研究员-强化学习方向 对应阿里7-9
岗位职责:

通过人类偏好学习提升多模态大模型的对齐和推理能力。主要工作包括微调和偏好数据的收集、构造,ORM/PRM模型的训练,以及设计和优化RLHF/DPO相关算法
职位要求
学历背景:统招硕士及以上学历,计算机科学/机器学习/人工智能相关专业;
研究能力:1-3年工作经验,在NLP/CV/RL等至少一个AI领域有过深入的研究经历。熟悉主流的多模态大模型,能持续跟进学术界和工业界的最新研究和产品。熟悉强化学习,有RLHF/DPO训练经验者优先;
基本能力:熟悉Linux,Python,Pytorch和Transformer,了解分布式训练框架如Deepspeed,Megatron-LM等;了解对多模态数据(如文本、图像、视频、音频等)的基本处理,能够独立完成数据收集、清洗和构造的pipeline;
团队合作:具备团队合作能力,逻辑思维清晰,沟通表达能力强。
  
联系邮箱:ciofirst@126.com
联系邮箱:ciofirst@126.com
工作地点:北京海淀学院路

收藏回复 显示全部楼层 道具 举报

您需要登录后才可以回帖 登录 | 立即注册

QQ|Archiver|手机版|小黑屋|培梦网-培育自己的梦 ( 豫ICP备14003831号 )

GMT+8, 2025-6-4 12:42 , Processed in 0.080404 second(s), 21 queries .

快速回复 返回顶部 返回列表