由OpenAI前首席科学家Ilya Sutskever联合创立的AI初创公司Safe Superintelligence(SSI)已筹集10亿美元现金,以帮助开发远远超过人类能力的安全的AI系统。   SSI目前拥有10名员工,计划利用这笔资金来获得计算能力,并雇佣顶尖人才。SSI将专注于在加州帕洛阿尔托(Palo Alto)和以色列特拉维夫(Tel Aviv)建立一个高度可信的小型研究人员和工程师团队。   SSI拒绝透露其估值,但知情人士预计,其估值约为50亿美元。在此之前,人们对资助这些AI初创公司的兴趣有所减弱,因为这些公司可能在很长一段时间内无利可图。但SSI这笔交易表明,一些投资者仍愿意对专注于基础AI研究的杰出人才进行巨额押注。   参与SSI本轮融资的投资者包括顶级风险投资公司Andreessen Horowitz、红杉资本、DST Global和SV Angel。此外,由Github前CEO Nat Friedman和SSI首席执行官Daniel Gross经营的投资公司NFDG也参加了投资。   当前,AI安全,即防止AI造成伤害,是一个热门话题。因为人们担心失去控制的AI可能会损害人类的利益,甚至导致人类灭绝。   近日,加州立法者通过了一项备受争议的法案,旨在对AI设立新的限制,确保AI技术既具有创新性,也具备安全性和可靠性。但该法案却引发了行业分裂,遭到了OpenAI和谷歌等公司的反对,但得到了Anthropic和埃隆·马斯克的xAI的支持。   Sutskever今年37岁,是AI领域最具影响力的技术专家之一。受OpenAI CEO萨姆·奥特曼(Sam Altman)被罢免一事的影响,Sutskever在OpenAI董事会的作用被削弱。后来,他被董事会除名,并于5月离开了公司。6月,他与Gross和OpenAI前研究员Daniel Levy共同创立了SSI。   Sutskever称,他的新项目很有意义,因为他“发现了一座山,与我正在研究的山有点不同。”SSI目前非常注重招聘符合其文化的员工。Gross称,他们花了几个小时来审查候选人是否具有“良好的品格”,并正在寻找具有非凡能力的人,而不是过分强调该领域的资历和经验。   SSI还表示,计划与云提供商和芯片公司合作,为其计算能力需求提供资金,但尚未决定与哪些公司合作。通常,AI初创公司会选择与微软和英伟达等公司就合作,以满足其基础设施需求。