|
|
| |
| |
职位描述 用小程序查看更多 |
|
岗位职责: 1.参与大模型推理加速技术的研究与实践,如算子融合、量化技术、并行计算等,以提升模型推理效率,降低推理延迟; 2.协助优化推理框架(如vLLM,SGLang),根据实际业务场景对框架进行定制化开发与性能调优,确保大模型在不同硬件环境下高效运行; 3.负责模型推理性能的评估与分析,使用Nsight等工具定位性能瓶颈,并提出有效的优化方案; 4.跟踪学术界和工业界最新的大模型推理优化技术,定期整理并汇报相关技术进展,为团队技术方向提供参考; 专业技能: 1.人工智能专业,博士学历,精通Python编程语言,具备扎实的编程基础和良好的代码风格; 2.熟悉深度学习基本原理,深入理解Transformer架构及其在大模型中的应用,对大模型(如BERT、GPT系列等)有一定的了解; 3.掌握至少一种深度学习框架,如PyTorch,能够进行模型的搭建、训练与推理; 4.了解GPU编程基础,有CUDA等高性能计算框架使用经验者优先; 5.希望你有较高的代码质量和较好的文档协作习惯,较强的自主学习和团队协作能力; 以下要求,至少满足一项: 1.有CCF-A类期刊等顶会发表至少1篇与大模型优化 |
|
| |
|
|
| |
|