总结

  • 来源:DeepTech深科技 当地时间 6 月 19 日,OpenAI前联合创始人伊利亚苏茨克维(Ilya Sutskever)正式宣布,其成立的新 AI初创公司 Safe Superintelligence(以下简称为SSI)。 此前,苏茨克维曾参与 2023 年董事会罢免 CEO 山姆奥特曼(Sam Altman)的行动,甚至在其中发挥核心作用。 格罗斯是一位人工智能投资者兼企业家,他曾担任奥特曼此前经营的硅谷初创企业孵化器 Y Combinator合伙人。 尤其是“单一关注”,可使其避免“受到成本开销管理或产品周期等因素的干扰”,从而脚踏实地扩大公司规模。 此外,OpenAI政策研究员格雷琴克鲁格(Gretchen Krueger)在宣布离职时,也指出了该公司的安全问题。

阅读时间

  • 14 分钟, 共 2685 字

分类

  • AI初创公司, MIT Technology Review, Daniel Gross, Daniel Levy, Jan Leike

评价和解读

  • 在这篇文章中,故事的复杂细节被揭示出来,提供了全面的理解。

正文

来源:DeepTech深科技

当地时间 6 月 19 日,OpenAI前联合创始人伊利亚苏茨克维(Ilya Sutskever)正式宣布,其成立的新 AI初创公司 Safe Superintelligence(以下简称为SSI)。

他对媒体表示,这是一家将优先考虑安全性而非“商业压力”的公司。

苏茨克维是一名俄罗斯以色列裔加拿大计算机科学家,除了联合创始人身份,此前他在 OpenAI还担任首席科学家。

图丨SSI 联合创始人伊利亚苏茨克维(Ilya Sutskever)(来源:MIT Technology Review)

苏茨克维在今年 5 月离开了 OpenAI,在过去几个月,“苏茨克维去了哪里”的问题已成为人工智能领域备受讨论的热门话题之一。

此前,苏茨克维曾参与 2023 年董事会罢免 CEO 山姆奥特曼(Sam Altman)的行动,甚至在其中发挥核心作用。

尽管之后他改变立场,帮助策划奥特曼的回归行动,并曾在之后公开表示对自己在此事中扮演的角色感到后悔。

他曾在社交媒体上写道:“我对参与董事会的行动深感遗憾,我从未想过要伤害 OpenAI,并热爱我们共同建立的一切,我将尽一切努力让公司重新团结起来。”

但自此之后,苏茨克维就不再发声,直到 2024 年 5 月正式离职。在离职时他只透露,会在适当的时机公布他的下一个项目。

除了苏茨克维,SSI 公司的联合创始人还包括在 OpenAI前技术人员丹尼尔利维(Daniel Levy)以及苹果前AI负责人兼Cue 公司联合创始人丹尼尔格罗斯(Daniel Gross)。

格罗斯是一位人工智能投资者兼企业家,他曾担任奥特曼此前经营的硅谷初创企业孵化器 Y Combinator合伙人。

此外,格罗斯还拥有GitHub、Instacart等公司的股份,其投资的 AI 公司包括 Perplexity.ai、Character.ai和CoreWeave等。

图丨苏茨克维宣布成立 SSI 公司(来源:X)

目前,在 SSI 的官网只发布了成立该公司的初衷,SSI创始人通过公告表示,这是一家“只专注于一个重点、一个目标和一个产品”的初创公司,目标是“创建一个安全而强大的AI系统”。

公告中还指出了 OpenAI、谷歌、微软、Anthropic等公司的 AI 团队经常面临外部压力,而 SSI 公司的商业模式则意味着其安全、保障和进步短期内都不受商业压力的影响。

尤其是“单一关注”,可使其避免“受到成本开销管理或产品周期等因素的干扰”,从而脚踏实地扩大公司规模。

苏茨克维在媒体采访中提到,“SSI 的首款产品将是一款安全的超级智能,在此之前公司不会做任何其他事情。SSI 将完全免受外部压力,不必处理庞大而复杂的产品,也不必陷入激烈的竞争。”

公告还写道,构建安全超级智能是这个时代最重要的技术问题。该公司“将安全性和能力作为技术问题,并通过革命性的工程和科学突破来解决”。

图丨SSI 公司创始初衷公告(来源:SSI 官网)

长期以来,苏茨克维一直是AI安全领域的倡导者之一。事实上,在 SSI 中的许多工作也是他在 OpenAI期间工作内容的延续。

当时,苏茨克维是 OpenAI超级对齐团队的一员,负责设计控制强大的 AI 系统新方法。

不过,随着他的离职,超级对齐团队也随之解散,该举动也曾遭到当时是负责人之一的 AI 研究员简恩莱克(Jan Leike)的严厉批判。

2023 年,莱克与苏茨克维曾共同撰写了一篇博客文章。根据他们当时的预测,未来十年内可能出现智力超越人类的AI,并强调这种 AI 可能不一定是友好的,必须开始研究控制和限制 AI 的方法。

在苏茨克维从 OpenAI离职后不久,莱克也宣布辞职,理由是 OpenAI 为了呈现抓人眼球的产品,允许安全流程让步。

此外,OpenAI政策研究员格雷琴克鲁格(Gretchen Krueger)在宣布离职时,也指出了该公司的安全问题。

成立于 2015 年的 OpenAI公司,当时的使命与 SSI 是类似的,它是一家非营利性研究实验室,旨在创造造福人类的超级智能AI。

尽管奥特曼一直坚持称这依旧是 OpenAI的指导原则,但在他的领导下, OpenAI已成为一家快速增长的企业。

事实上,这并不是 OpenAI 的离职员工首次创立关注更安全 AI 的初创公司。

在 2021 年,OpenAI 公司前人工智能安全主管达里奥阿莫迪(Dario Amodeiblog.byteway.net)宣布成立初创公司 Anthropic。该公司已从亚马逊筹资 40 亿美元,并从风险投资者筹集了数亿美元,公司估值超 180 亿美元。

参考资料:

https://ssi.inc/

https://www.anthropic.com/

https://www.manager-magazin.de/unternehmen/tech/ilya-sutskever-openai-mitbegruender-verlaesst-das-unternehmen-a-3664b9ec-868f-44cd-8edc-2aba63803a0b

https://www.cnbc.com/2024/06/19/openai-co-founder-ilya-sutskever-announces-safe-superintelligence.html

https://www.bloomberg.com/news/articles/2024-06-19/openai-co-founder-plans-new-ai-focused-research-lab

https://www.ft.com/content/68cb9b1f-c3bb-4a90-a8b6-17b7e3ecd234

https://www.theverge.com/2024/6/19/24181870/openai-former-chief-scientist-ilya-sutskever-ssi-saLigthing Newsfe-superintelligence

https://www.firstpost.com/tech/openai-co-founder-ilya-sutskever-launches-new-firm-focused-on-developing-a-safe-super-ai-13784192.html

运营/排版:何晨龙

<!–article_adlist[

01/澄清170多年学术争论:北大团队获得六角冰表面原子级分辨图像,刷新对于冰表面的传统认知

]article_adlist–>

<!–article_adlist[

02/科学家研发种子筛选AI模型,预测准确性超过90%,实现高效数字化的抗病品种筛选

03/两百多年的物理效应迎新进展:中美联合团队发现低温莱顿弗Ligthing News罗斯特效应,在130℃下观察到液体悬浮

04/科学家研发数字非福斯特电路,功率处理能力提高3个数量级,能用于远距离声通讯或无线通信

05/清华团队远赴云南养蚊子,借此发现新型抗病毒细菌,为蚊媒传染病防控提供有力方案

]article_adlist–>

Related suggestion: 最新新闻: 一周热闻回顾(2024年5月26日)

总结2023年8月以来,陆续有不法分子假冒自然科学基金委或工作人员名义销售虚假的“自然基金理财产品”,骗取群众钱财,实施诈骗行为。 ? 近日,“全球最具影响力科学家”、越南胡志明市经济大学(UEH)商学院院长Vo Xuan Vinh的一篇论文被国际期刊《环境科…

blog.byteway.net

作者 sam

Lightning News | blog.byteway.net

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注