Py学习  »  机器学习算法

意大利都灵博士后研究职位(对抗性机器学习与形式化验证)

学术航站楼 • 1 周前 • 19 次点击  

博士后研究职位:对抗性机器学习与形式化验证


【机构】 AI Security Lab (隶属于 AI4I – 意大利工业影响人工智能研究所)【地点】 意大利 都灵 (Turin, Italy)【截止日期】 2025年12月14日【薪资范围】 30,000欧元 – 55,000欧元/年(税前,具体取决于经验)

💡 注: 从国外搬迁的研究人员可能有资格获得高达 90% 的免税



🌟 职位概述:构建安全的智能体 AI 系统


AI 安全实验室正在寻找一位富有创造力、积极性高的 博士后或研究科学家 加入创始团队。您将通过在对抗性机器学习形式化验证领域的前沿研究,帮助构建下一代安全的智能体 (Agentic) AI 系统。

角色定位: 作为研究科学家,您将致力于前沿 AI 研究,解决 AI 产品中出现的安全威胁,尤其是在自主智能体日益复杂和广泛部署的背景下。


🎯 核心职责 (Key Responsibilities)


  1. 在对抗性机器学习领域进行基础研究,探索针对 AI 智能体和大型语言模型 (LLMs) 的新型攻击向量防御机制

  2. 开发形式化验证方法理论框架,以证明智能体 AI 系统的安全属性和安全保障。

  3. 顶级学术会议和期刊上发表研究成果,促进 AI 安全领域的科学理解。

  4. 与学术伙伴和研究社区合作,推进对抗性鲁棒性可信赖 AI 系统的最新水平。


🧑‍🎓 职位要求



最低资格 (Minimum Qualifications)


  • 计算机科学、工程学、数学或相关领域博士学位,研究方向集中于机器学习、安全或形式化方法

  • 在 AI 安全、对抗性机器学习、鲁棒性或形式化验证等领域的顶级会议或期刊(如 NeurIPS, ICML, ICLR, IEEE S&P, USENIX Security, CCS)有强劲的发表记录

  • 精通 Python,并具备至少一种额外的编程语言(如 C++、Julia 或 Rust)经验。


优先资格 (Preferred Qualifications)


  • 深入掌握现代 ML 框架(包括 PyTorch, JAX, Hugging Face Transformers, 或 TensorFlow)进行大规模实验。

  • 了解新兴的 AI 安全威胁,包括提示注入 (prompt injection)、越狱 (jailbreaking)、模型反演、成员推理和针对基础模型的投毒攻击

  • 熟悉隐私保护机器学习技术,如差分隐私、联邦学习或安全多方计算。

  • 具备跨学科协作、指导初级研究人员以及向不同受众传达复杂技术概念的经验。


🚀 我们提供 (What We Offer)


  • 开创性的研究团队: 与一支高素质、协作性强的安全研究人员和工程师团队并肩工作,共同推进 AI 安全。

  • 研究影响力和可见性: 有机会在顶级场所发表论文,并参与塑造安全 AI 未来的国家和欧洲工业研究计划

  • 优越的地理位置: 办公室位于都灵领先的技术和创新中心 OGR Torino,沉浸于充满活力的意大利科技生态系统。

  • 全面的支持与资源: 提供具有竞争力的薪酬、全额支持会议差旅和专业发展,并提供用于尖端 AI 安全研究的最先进的高性能计算基础设施和 GPU 集群


📝 申请要求


请发送以下材料:

  1. 求职信 (Cover letter, 最多 1 页): 描述您的背景如何与此特定职位契合,并概述您在 AI 安全领域的研究兴趣和职业目标。

  2. 个人简历 (CV): 包含您的发表记录以及开源贡献、代码库(如 GitHub)或研究原型的链接。

开始日期: 灵活,越快越好。

申请地址

https://app.ncoreplat.com/jobposition/751172/postdoctoral-research-position-on-adversarial-machine-learning-amp-formal-verification-it/research-and-development

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/189873