找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 82|回复: 0

腾讯AI Lab招聘AI实习生!

[复制链接]
发表于 2026-1-27 09:04 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
如果您希望在AI职圈发布招聘信息请扫码填写岗位JD
w1.jpg

腾讯

【招聘岗位】

AI Lab-研究实习生-AI Memory & Agent

【关于我们需要的人】在大模型(LLM)向Autonomous Agents进化的过程中,Memory(记忆)是核心瓶颈,也是通往AGI的关键钥匙。我们正在寻找对Long-term Memory、Active Context Management以及Efficient Memory Architecture有极高热情和深入理解的同学,加入我们探索下一代具备“更强记忆能力”的智能体。

w2.jpg

在这里,你将拥有充足的 GPU 计算资源,与顶尖研究员合作,挑战 AI 领域最前沿的课题。

【研究方向与职责】

你将主要参与以下一个或多个方向的研究与落地:

1.Agent 主动上下文管理 (Active Context Management)
    探索Agent在长周期交互中的信息筛选与压缩机制。设计基于强化学习(RL)或规划(Planning)的策略,让 Agent 能够“主动”决定记住什么、遗忘什么,而非被动依赖滑动窗口。研究Dynamic Context Selection和Hierarchical Memory系统,优化Agent在复杂任务中的上下文利用效率。

2. 模型记忆架构设计 (Model Memory Architecture)
    突破Transformer的架构限制,设计新型的Internal Memory机制(如 Recurrent Memory, Memory Tokens, Linear Attention 变体等)。研究KV Cache的高效管理与压缩算法,探索非参数化记忆(Non-parametric Memory)与模型参数的深度融合。针对Infinite Context场景,优化模型的检索与推理性能。


【岗位要求基础背景】

计算机、人工智能、数学等相关专业,硕士或博士在读(博士优先)。
编程能力:熟练掌握Python和PyTorch,具备优秀的工程实现能力,熟悉 HuggingFace Transformers库。科研能力:在NLP/ML/RL顶级会议(如ACL, NeurIPS, ICLR, ICML, EMNLP等)发表过论文者优先。领域知识:
    熟悉LLM的训练(Pre-training/SFT/RLHF)及推理机制。对RAG(Retrieval-Augmented Generation)、Long-context LLMs、Vector Database或Recurrent Neural Networks有深入理解。


【实习时间】全职实习6个月以上者优先。
【地点】北京/深圳

投递邮箱

公众号后台回复:0126
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2026-1-28 11:16 , Processed in 0.087429 second(s), 30 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表