博士后 - 理工学院冀晓强项目 (Ref.PR2025/201/01)
简介
冀晓强教授在美国哥伦比亚大学获得博士学位,现任香港中文大学(深圳)理工学院助理教授、博士生导师,东盟-中国人工智能实验室首席科学家。
主要研究方向
1. 深度学习:聚焦于高效神经网络结构、表示学习与优化方法的研究,提升模型在感知与推理任务中的能力。
2. 强化学习:深度学习模型调优提高模型的训练效率和性能表现,提升预期准确性。
3. 持续关注、改进模型以降低模型的计算复杂度和存储需求,使之能在资源受限的设备上高效运行。
综合待遇
据最新规定,省市对符合条件的在站博士后发放每人每年税前21万元的生活补助,补助总额不超过42万元;大学提供每人每年5万元的博士后专项补贴,补贴总额不超过10万元;合作导师提供具体薪酬根据应聘者资历和成果面议; 符合广东省海外博士后人才支持项目的,可申请享受在站补贴税前60万元/2年,出站留粤补贴税前40万元/3年。该补贴与省市博士后在站生活补助不重复享受; 博士后在站期间可以负责人身份申请各级科研课题资助;博士后进站,可自愿选择落户深圳市;深圳市对出站博士后给予30万元资助,用于科研投入或创业前期费用等。
职位要求
拥有或即将获得知名高校博士学位,在控制、人工智能或机器人领域等国际顶刊/顶会发表论文等。
1. 教育背景:计算机科学、电子工程、自动化、机器人学、机器学习、数学、物理、电子工程等相关专业。
2. 编程能力:熟悉Linux操作系统;熟悉Python、C++、Rust等编程语言之一;熟悉深度学习工具的使用(如PyTorch、JAX等),有深度学习模型训练、部署的实际经验。
3. 创新能力:有顶会一作前沿论文/知名大厂项目主导模型设计与训练调优/有IMO、IOI、NOI、IPHO、ICPC等大赛经验或获奖/有比较丰富的深度学习、时序模型(Transformer等架构)训练调优经验。
4. 团队合作:同时保持良好的团队协作精神,优秀的沟通技巧。
5. 加分项:
-熟悉VAE、Transformer、BERT等经典模型结构,具备相关算法的实现与调试能力。
-了解LLaMA、Qwen等现代大语言模型架构,具备数据处理、无监督预训练、SFT、RLHF等后训练阶段的相关实践经验。
-熟悉CLIP、BLIP、LLaVA等多模态模型结构,了解其在跨模态感知与下游任务中的应用方式。
申请材料
请准备以下申请材料发至jixiaoqiang@cuhk.edu.cn,题为“姓名-当前所在单位/机构-博士后申请”
1. 个人完整的中、英文pdf简历各一份
2. 如有已发表代表作论文及科研成果,请将论文原文及相关材料作为附件一并发送
3. 其他证明个人科研能力的材料
