【招聘岗位】
AI Lab-研究实习生-AI Memory & Agent
在大模型(LLM)向Autonomous Agents进化的过程中,Memory(记忆)是核心瓶颈,也是通往AGI的关键钥匙。我们正在寻找对Long-term Memory、Active Context Management以及Efficient Memory Architecture有极高热情和深入理解的同学,加入我们探索下一代具备“更强记忆能力”的智能体。在这里,你将拥有充足的 GPU 计算资源,与顶尖研究员合作,挑战 AI 领域最前沿的课题。【研究方向与职责】
你将主要参与以下一个或多个方向的研究与落地:
1.Agent 主动上下文管理 (Active Context Management)- 探索Agent在长周期交互中的信息筛选与压缩机制。
- 设计基于强化学习(RL)或规划(Planning)的策略,让 Agent 能够“主动”决定记住什么、遗忘什么,而非被动依赖滑动窗口。
- 研究Dynamic Context Selection和Hierarchical Memory系统,优化Agent在复杂任务中的上下文利用效率。
2. 模型记忆架构设计 (Model Memory Architecture)- 突破Transformer的架构限制,设计新型的Internal Memory机制(如 Recurrent Memory, Memory Tokens, Linear Attention 变体等)。
- 研究KV Cache的高效管理与压缩算法,探索非参数化记忆(Non-parametric Memory)与模型参数的深度融合。
- 针对Infinite Context场景,优化模型的检索与推理性能。
【岗位要求基础背景】
计算机、人工智能、数学等相关专业,硕士或博士在读(博士优先)。
编程能力:熟练掌握Python和PyTorch,具备优秀的工程实现能力,熟悉 HuggingFace Transformers库。科研能力:在NLP/ML/RL顶级会议(如ACL, NeurIPS, ICLR, ICML, EMNLP等)发表过论文者优先。- 熟悉LLM的训练(Pre-training/SFT/RLHF)及推理机制。
- 对RAG(Retrieval-Augmented Generation)、Long-context LLMs、Vector Database或Recurrent Neural Networks有深入理解。
投递邮箱
公众号后台回复:0126