一家初创企业,尽管团队规模仅为十人,却在种子轮融资中筹集到了高达十亿美元的资金。
这样的事件,似乎只有发生在Ilya Sutskever身上才会让人觉得稍微合理些。
Ilya,如今在大型模型席卷全球的时代背景下,他的贡献被认为达到了改变世界的水平:
他是AlexNet的共同创造者之一,在跟随导师Hinton进入Google后,又深入参与了震惊全球的AlphaGo项目。
2015年,他参与创建了OpenAI,并担任首席科学家。而随后推出的ChatGPT,他也被视为其背后的主导力量之一。
从去年十一月至今,Ilya的每一步行动都备受全球科技界的密切关注:
他发起的OpenAI董事会内部争端揭示了大型模型发展路径的分歧,而在今年五月与OpenAI彻底分道扬镳之后,所有人的目光都聚焦在他接下来的创业方向上。
如今,一切似乎尘埃落定。一向保持低调的Ilya,此时也对外界分享了更多关于他新成立的公司SSI以及他对AGI(通用人工智能)的看法。
在接受路透社采访时,Ilya回应了六个关键问题。以下是采访的主要内容:
为何创立SSI?
我们发现了一个与我之前工作有所不同的新“山头”……一旦攀登至顶峰,整个范式将会发生变化……我们所知道的关于人工智能的一切都将被重新定义。
届时,超级智能的安全保障将成为至关重要的议题。
我们的首个产品将是安全的超级智能。
在实现超级智能之前,是否会推出与人类智慧相媲美的AI?
关键在于:它是否足够安全?它是否能够成为推动世界向善的力量?我认为,当我们达到这一目标时,世界将发生巨变。因此,现在就明确“我们将会做什么”是相当困难的。
我可以预见的是,世界将会有所不同。人们对AI领域的认识将发生根本性的转变,而且这将引发更为激烈的讨论。这不仅仅取决于我们的决定。
SSI如何界定安全的人工智能?
要回答这个问题,我们需要进行一些重要的研究。特别是如果我们和其他人一样相信事情会发生重大变化……许多伟大的想法正在被发掘。
许多人正在思考,当AI变得更强大时,我们需要对其进行什么样的测试?这是一个复杂的问题,仍有许多研究待做。
我不会说现在已经有明确的答案。但这是我们打算解决的问题之一。
关于扩展假设和AI安全
大家都在谈论“扩展假设”,但大家都忽略了问题的核心:我们在扩展什么?
过去十年里深度学习的重大突破,是基于一个特定的扩展假设公式。但是,随着情况的变化,系统的功能也将得到提升,安全问题将变得尤为迫切,这是我们亟需解决的问题。
SSI是否会开源?
目前,所有的人工智能公司都没有公开他们的核心技术,我们也一样。但是,根据某些条件,可能会有机会开放超级智能的安全研究工作。或许不是全部,但肯定会有部分可以共享。
对其他公司在AI安全研究方面的看法
实际上,我对行业持有高度的评价。我相信,随着技术的进步,所有公司都会逐步认识到他们面临的挑战。因此,我们并不认为其他人无法做到,而是认为我们可以做出贡献。
十亿美元的资金将用于何处?
SSI的消息首次在六月份公布,目标非常明确,即致力于Ilya在OpenAI未能完成的事业:构建安全的超级智能。
目前SSI仅有十名员工,融资后,计划利用这笔资金购买计算能力并招募顶级人才——那些认同他们的理念,并准备好面对AI超越人类智能挑战的人。
联合创始人Daniel Gross透露,他们更重视候选人的品格而非资历和经验,为此他们会花费大量时间评估候选人是否具备“良好的品格”。
在算力方面,SSI计划与云计算供应商及芯片制造商建立合作关系,具体的合作伙伴及合作方式尚未确定。
除了Ilya之外,SSI的联合创始人还包括Daniel Gross和Daniel Levy。
△ 左:Daniel Gross;右:Daniel Levy
Daniel Gross毕业于哈佛大学计算机科学专业,曾是Y Combinator的合伙人之一,并创立或参与了包括Citrus Lane、WriteLaTeX(现更名为Overleaf)在内的多家公司。
他曾被《时代》杂志评为“人工智能领域最具影响力的人物”之一。
Daniel Levy则毕业于斯坦福大学计算机科学专业,之前是OpenAI优化团队的负责人。