據路透社報道,由前OpenAI首席科學家伊利亞·蘇茨克弗(Ilya Sutskever)聯合創立的初創公司Safe Superintelligence(SSI)成立僅三個月九吸引了大量關注和資本。據消息人士透露,SSI已經在首輪融資中籌集了10億美元,估值高達50億美元。SSI的目標是開發超越人類能力的安全人工智能系統。
頂尖風投加持,押注“安全超級智能”
盡管市場對AI初創公司的興趣有所下降,投資者仍對SSI展現了極大的信心。知名風險投資公司Andreessen Horowitz、紅杉資本、DST Global和SV Angel都參與了此次融資。此外,由Nat Friedman和SSI的首席執行官丹尼爾·格羅斯(Daniel Gross)共同管理的投資伙伴NFDG也加入其中。
格羅斯在采訪中表示,公司非常重視與理解和支持其使命的投資者合作。他指出:“我們的使命是打造安全超級智能,并在未來幾年專注于研發?!边@不僅是對技術的信任,也是對團隊和未來愿景的信任。
SSI計劃利用這筆資金獲取計算能力并招聘頂尖人才,團隊目前僅有10名員工,分布于美國加州帕洛阿爾托和以色列特拉維夫。
伊利亞強調,SSI將采取與OpenAI不同的路徑,特別是在AI規?;僭O(Scaling Hypothesis)的執行上。他表示:“大家都在談論規?;?,卻忽視了真正應該擴展的是什么?!彼Mㄟ^不同的技術策略,創造出與眾不同的成果。
AI安全:行業焦點與監管挑戰
AI安全是當前的熱門話題,隨著人工智能能力的不斷提升,如何防止AI系統對人類社會造成潛在威脅變得尤為重要。SSI的研發目標是確保(超級)人工智能系統的安全性,避免其在脫離人類控制后可能帶來的負面影響。
與此同時,美國加州的一項立法提案正引發AI行業的分裂。該法案旨在對AI公司實施安全監管,OpenAI和Google等科技巨頭表示反對,而Anthropic和Elon Musk的xAI則表示支持。業界對AI安全問題產生巨大分歧,凸顯出AI安全監管的復雜性和緊迫性。
伊利亞在創立SSI之前,曾是OpenAI的聯合創始人和首席科學家,主導了“超對齊”團隊(Superalignment Team),該團隊的任務是確保AI在超過人類智能的情況下依然符合人類的價值觀。然而,在OpenAI經歷了管理層的“宮斗鬧劇”后,伊利亞的角色逐漸被削弱,他最終于2024年5月離開公司,隨后決定創立SSI。
與OpenAI的非營利組織結構不同,SSI采用了傳統的盈利性架構。格羅斯表示,公司在招聘時非常注重團隊文化的契合,傾向于選擇那些對工作充滿興趣而非追逐熱點的人才。公司未來還將與云服務提供商和芯片制造商合作,滿足其計算需求,盡管目前尚未確定具體合作伙伴。