OpenAI共同创办人苏茨克维近日表示,正在打造一个新的AI公司,致力于开发「安全的超级人工智能」。这间新公司有什么发展目标?
OpenAI共同创办人自立门户
OpenAI共同创办人暨伊尔亚.苏茨克维(Ilya Sutskever)近日在X发布贴文,表示正在打造一个新的人工智能公司,致力于开发「安全的超级人工智能(safe superintelligence)」。
这家公司的名字与它的目标相同,就叫做Safe Superintelligence Inc.(SSI),而该公司还有其他两位共同创办人,分别是前OpenAI前技术人员丹尼尔.列维(Daniel Levy)与前Apple AI负责人丹尼尔.葛罗斯(Daniel Gross)。
Safe Superintelligence Inc.认为,「超级人工智能」的出现近在咫尺,而确保其对人类安全,是这个时代最重要的技术挑战。他们的宗旨,就是成为一个专注于安全超级人工智能的实验室,研究技术的同时,视安全为主要目标。
超级人工智能(Superintelligence):具备远超于人类的认知能力和智能,并具有自我学习、自我改的能力。因可能对社会、经济和伦理产生深远影响,因此安全性和控制,是开发超级人工智能时关键的考量因素。
「我们正在组织一个精简高效的团队,由世界上最优秀的工程师和研究人员组成,并专注于打造安全超级人工智能,不涉及任何其他事务。」Safe Superintelligence Inc.在X贴文中写道。
根据《彭博社》报导,Safe Superintelligence Inc.是一个纯研究组织,除了创造一个安全且强大的人工智能系统外,近期内没有意图出售商业化的AI产品或服务。
接受《彭博社》采访时,苏茨克维拒绝透露公司财务支持者的名字,或已募集的资金总额,而葛罗斯则表示,资金筹集「不会」成为公司的问题。目前已知,Safe Superintelligence Inc. 将总部设在美国加州的帕罗奥图(Palo Alto),并在以色列的特拉维夫市(Tel Aviv)设有办公室。
因AI开发目标不同而离开OpenAI
苏茨克维自立门户前,在2024年5月因为一场OpenAI内部的争议而离开公司,而他正是在2023年11月发起「政变」,投票解雇OpenAI执行长山姆.奥特曼(Sam Altman)的关键人物之一。
苏茨克维倾向于推动纯粹的科学研究和技术创新,并且重视AI公共安全,而非单纯的商业利益。奥特曼则擅长技术商业应用和市场推广,并将OpenAI的研究成果转化为具体产品及服务。两人最终因战略方向、技术发展等内部意见问题而产生分歧。
此外,外媒《Vox》报导,OpenAI的研究员扬.莱克(Jan Leike)和葛蕾琴·克鲁格(Gretchen Krueger)近期也从公司离职,理由是对AI安全性产生担忧。 《Vox》还透露,至少还有五名「关注安全的员工」,自去年11月以来陆续离开OpenAI。
如今苏茨克维打造Safe Superintelligence Inc.,再次唤起对AI安全问题的关注,强大且安全的AI系统是技术创新的一大挑战,也是AI进入人类日常生活之前,必须全面作好的关键准备。