
OpenAI目前正在招聘一位新的高管,其职责是研究从计算机安全到心理健康等多个领域中与AI相关的新兴风险。
在X平台的一则帖子里,CEO Sam Altman坦言AI模型“已开始引发一些切实的挑战”,比如“模型对心理健康可能产生的影响”,还有模型在“计算机安全领域的表现过于出色,甚至开始找出关键漏洞”。
“如果你希望助力世界探索这样的路径——既能为网络安全防御者配备尖端技术能力,又能确保攻击者无机可乘,理想状态是借此提升所有系统的安全性;同时也想研究如何安全地发布生物领域的相关能力,甚至是建立对具备自我改进能力的运行系统的安全信心,那么不妨考虑申请这个职位。”奥特曼如是写道。
OpenAI的应急负责人职位说明中,将该岗位的职责阐述为负责落实公司的应急框架,而“我们的这一框架说明了OpenAI在跟踪并准备应对那些会产生严重危害的新前沿能力时所采用的方法”。
公司在2023年首次宣布成立应急团队,该团队被赋予的职责是研究各类潜在的“灾难性风险”——既包括网络钓鱼攻击这类较为直接的风险,也涵盖核威胁这类更具推测性的风险。
不到一年后,OpenAI将负责应急事务的负责人Aleksander Madry调整到了一个专注于AI推理的岗位。该公司的其他安全领域高管要么已经离开公司,要么转任了应急与安全之外的新职务。此外,公司近期还
它更新了自身的应急框架,表明若竞争对手的AI实验室推出缺乏类似保护措施的“高风险”模型,其或许会对自身的安全要求进行“调整”。
就像Altman在其帖子里所说的,生成式AI聊天机器人正因为对心理健康产生的影响而受到日益增多的审视。近期有诉讼声称,OpenAI旗下的ChatGPT让用户的妄想症状加重,使他们在社会中的孤立感增强,更有甚者还致使一些人选择了自杀。(该公司回应称,会持续致力于提升ChatGPT识别情绪问题迹象的能力,并帮助用户对接现实世界中的支持资源。)