腾讯AI Lab招聘AI实习生!
作者:微信文章如果您希望在AI职圈发布招聘信息请扫码填写岗位JD
腾讯
【招聘岗位】
AI Lab-研究实习生-AI Memory & Agent
【关于我们需要的人】在大模型(LLM)向Autonomous Agents进化的过程中,Memory(记忆)是核心瓶颈,也是通往AGI的关键钥匙。我们正在寻找对Long-term Memory、Active Context Management以及Efficient Memory Architecture有极高热情和深入理解的同学,加入我们探索下一代具备“更强记忆能力”的智能体。
在这里,你将拥有充足的 GPU 计算资源,与顶尖研究员合作,挑战 AI 领域最前沿的课题。
【研究方向与职责】
你将主要参与以下一个或多个方向的研究与落地:
1.Agent 主动上下文管理 (Active Context Management)
探索Agent在长周期交互中的信息筛选与压缩机制。设计基于强化学习(RL)或规划(Planning)的策略,让 Agent 能够“主动”决定记住什么、遗忘什么,而非被动依赖滑动窗口。研究Dynamic Context Selection和Hierarchical Memory系统,优化Agent在复杂任务中的上下文利用效率。
2. 模型记忆架构设计 (Model Memory Architecture)
突破Transformer的架构限制,设计新型的Internal Memory机制(如 Recurrent Memory, Memory Tokens, Linear Attention 变体等)。研究KV Cache的高效管理与压缩算法,探索非参数化记忆(Non-parametric Memory)与模型参数的深度融合。针对Infinite Context场景,优化模型的检索与推理性能。
【岗位要求基础背景】
计算机、人工智能、数学等相关专业,硕士或博士在读(博士优先)。
编程能力:熟练掌握Python和PyTorch,具备优秀的工程实现能力,熟悉 HuggingFace Transformers库。科研能力:在NLP/ML/RL顶级会议(如ACL, NeurIPS, ICLR, ICML, EMNLP等)发表过论文者优先。领域知识:
熟悉LLM的训练(Pre-training/SFT/RLHF)及推理机制。对RAG(Retrieval-Augmented Generation)、Long-context LLMs、Vector Database或Recurrent Neural Networks有深入理解。
【实习时间】全职实习6个月以上者优先。
【地点】北京/深圳
投递邮箱
公众号后台回复:0126
页:
[1]