IT之家 8 月 30 日消息,OpenAI 一直致力于开发能够造福全人类的人工智能技术,然而最近的一份报告揭示了一个令人担忧的现象:近一半曾专注于超级智能 AI 长期风险的研究人员 " />

生龙活虎网

cyuzoxx">IT之家 8 月 30 日消息,OpenAI 一直致力于开发能够造福全人类的人工智能技术,然而最近的一份报告揭示了一个令人担忧的现象:近一半曾专注于超级智能 AI 长期风险的研究人员

前员工爆料,OpenAI AGI 安全团队已流失近半成员

cyuzoxx">IT之家 8 月 30 日消息,工爆OpenAI 一直致力于开发能够造福全人类的安全人工智能技术,然而最近的团队一份报告揭示了一个令人担忧的现象:近一半曾专注于超级智能 AI 长期风险的研究人员已经离开了这家公司。图源 Pexels据 Fortune 报道,已流OpenAI 前治理研究员 Daniel Kokotajlo 表示,失近在过去几个月里,半成OpenAI 几乎一半的工爆 AGI 安全团队成员已经离职。这引发了外界对公司是安全否正在忽视 AI 安全性的担忧。AGI 安全研究人员主要负责确保未来开发的团队 AGI 系统不会对人类构成生存威胁。然而,已流随着 OpenAI 越来越专注于产品和商业化,失近研究人员的半成离职意味着公司的安全研究团队正在逐渐缩减。Kokotajlo 指出,工爆自 2024 年以来,安全OpenAI 的团队 AGI 安全团队已经从约 30 人减少到 16 人左右。他认为,这并不是一个有组织的行动,而是个人逐渐失去信心而离职。OpenAI 发言人对此表示,公司为能够提供最有能力、最安全的人工智能系统感到自豪,并相信自己具有解决风险的科学方法。IT之家注意到,今年早些时候,OpenAI 联合创始人、首席科学家 Ilya Sutskever 宣布辞去 OpenAI 职务,其领导的负责安全问题的“超级对齐”团队也遭到解散。

访客,请您发表评论:

© 2024. sitemap