No menu items!

    估值超40亿 这家公司成OpenAI最大对手

    「你们正在进行的事情,具有巨大的潜力和巨大的危险性。」

    美国白宫的会议室,总统拜登对着几大科技公司的负责人提醒道。

    5 月初,美国科技巨头和 AI 公司的掌门人受邀前往白宫,讨论 AI 的未来。在拜登召见的人物来头中,除了人尽皆知的OpenAI、谷歌、微软三家目前 AI 领域的巨头外,还有一家刚刚成立不久的初创公司 Anthropic。

    5 月 23 日,Anthropic 再下一城,拿下 4.5 亿美元 C 轮融资,而这距离其收到谷歌的 3亿美元刚刚过去两个月时间。至此,据 Crunchbase 统计,Anthropic 的资金储备达到了 14.5 亿美元,估值超过 40亿美元。

    一家由 OpenAI 前员工创立的公司,怎么就在两年之内,成为超级独角兽,并且积攒起对抗如日中天的 OpenAI的实力的?Anthropic强调的「符合宪法的AI」,以及其 AI 助手Claude,能成为ChatGPT之外大语言模型的「另一级」吗

    OpenAI的「叛徒」

    一直到 2023 年 1 月,OpenAI 也只有 375名全职员工,虽然规模不过数百人,其推出的大型语言模型却不仅撼动了硅谷,影响力也蔓延全球。与此同时,有些离开 OpenAI的雇员,创办起了自己的公司。

    「我们成立于 2021 年初,最初是一个由 7 人组成的团队,一起从 OpenAI 出来。」Anthropic的联合创始人在生命未来研究所的一档播客节目中说道。

    据称,他们之所以离开OpenAI,是因为对该公司的发展方向产生了分歧——即OpenAI 在 2019 年与微软达成第一笔 10 亿美元的交易后,越来越趋向商业化。Anthropic的目标是在未来两年内筹集多达 50 亿美元,以与 OpenAI 竞争,并进入十几个行业。

    带头出走的包括一对兄弟姐妹,即 Dario Amodei 和 Daniela Amodei,他们还带走了曾在 OpenAI 领导GPT-3 模型的工程师 Tom Brown,一起在旧金山创办 Anthropic。

    Anthropic 创始人,Daniela Amodei(左)Dario Amodei(右)| 网络

    从履历看,Dario Amodei 在 OpenAI 呆了四年半,最早是 AI安全的团队负责人,随后相继升任研究主管、研究副总裁,此前还在谷歌、百度工作过。Daniela Amodei 则在 OpenAI呆了两年,离职前是 OpenAI 安全和政策副总裁,更早前在 Stripe 工作,还担任过国会工作人员。

    Amodei兄妹向外界强调,一起出走的团队有着「高度一致的AI安全愿景」,创始团队七个人的共同特点是重视AI 安全,包括语言模型的可解释性,想「让模型更安全,更符合人类价值观」,目标是「建立有用、诚实和无害的系统」。

    Dario Amodei 认为,现有的大型语言模型「可能会说一些可怕、有偏见或不好的话」,AI安全研究需要降低甚至排除它们做坏事的可能性。

    谷歌,强力「后援」

    自创立以来,Anthropic 一直在筹集资金,并扩大研究团队,2021 年 5 月宣布 A 轮融资 1.24 亿美元,由Skype 联合创始人 Jaan Tallinn 领投,其他支持者包括 Facebook 和 Asana 联合创始人 DustinMoskovitz、前谷歌首席执行官 Eric Schmidt。

    不到一年后,Anthropic 在 2022 年 4 月宣布 B 轮融资 5.8 亿美元,由 FTX 首席执行官 SamBankman-Fried 领投。FTX 是一家现已破产的加密货币平台,被控欺诈,法庭是否可以追回这笔钱存在疑问。

    不过,在资金问题上,Anthropic 陆续迎来其他实力雄厚的支持者。2023 年 5 月 23 日,Anthropic宣布完成 C 轮融资 4.5 亿美元,由 Spark Capital 领投,还有包括Google、Salesforce(通过其子公司 Salesforce Ventures)和 Zoom(通过 ZoomVentures)在内的科技巨头参与,此外还有 Sound Ventures、Menlo Ventures和其他未披露的投资方。

    在 Anthropic 的所有投资方里,来自谷歌的支持一直备受关注。此前,就在微软高调宣布向 OpenAI 投资 100亿美元后不久,谷歌向 Anthropic 投资了约 3 亿美元,以换取该公司 10%的股份,根据交易条款,Anthropic 要将谷歌云作为其首选云服务提供商

    这笔交易标志着一家科技巨头与一家 AI 初创公司的最新联盟,类似于微软和 OpenAI 之间的合作关系,OpenAI进行专业研究,而微软提供资金和训练 AI 模型所需的计算资源。

    在谷歌和 Anthropic 结盟前,微软早已投资了数十亿美元,并将 OpenAI的技术整合到自家许多服务中,谷歌现阶段的联盟似乎蕴含着准备和微软打「代理人战争」的信号。但目前消息显示,谷歌与Anthropic 的关系,仍仅限于作为 Anthropic 的技术支持和资金提供方

    谷歌的投资是由其云计算部门进行的,由谷歌云首席执行官 Thomas Kurian 负责,计划将 Anthropic的数据密集型计算工作带到谷歌的数据中心,而且,谷歌已有自己的大规模语言模型。

    Anthropic 与谷歌云计算服务绑定|Twitter

    相比微软,谷歌还会计划将 Claude 整合到其服务中吗?看起来未必。根据谷歌宣布的 Bard和 PaLM,谷歌自身已经有了足够的内部研究基础,似乎不太可能像微软那样在其产品中依赖一家外部 AI 公司的解决方案,与Anthropic 结盟的动机更像是为了谷歌的云计算业务,而且对于谷歌而言,资助 OpenAI的竞争对手可能符合谷歌的战略利益。

    谷歌云首席执行官 Thomas Kurian 在一份声明中表示:「谷歌云正在为下一代人工智能初创公司提供开放式基础设施,我们与Anthropic 的合作是一个很好的例子。」

    对于 Anthropic 来说呢?相比前东家,Anthropic 的创始人们尤其强调要建立「可靠、可解释和可控制的 AI系统」,并因 OpenAI 商业化发展方向的「分歧」出走,问题便在于,现在谷歌的投资是否会对其发展方向有所影响?

    目前,Anthropic 的 AI研究原则宣言是:「我们认为,批判性地评估我们工作的潜在社会影响是研究的一个关键支柱。」

    高举「合宪AI」旗帜

    鉴于 Anthropic 创始人是 OpenAI 前员工的渊源,这是否意味 Anthropic 在大模型方面的技术和OpenAI 一样,只是安全理念有别?目前看,Anthropic 并不完全复制 OpenAI的方法,模型的训练目标、训练方法都存在差异

    自诩为 AI 安全公司的 Anthropic,提出了「合宪 AI」(ConstitutionalAI)。在训练过程中,研究人员会定义一些原则来约束系统的行为,如不得产生威胁人身安全的内容,不得违反隐私或造成伤害等。AI系统在与人对话时,需要不断判断生成的响应是否符合这些原则。

    根据其研究论文解释,其用 AI 的帮助来监督其他 AI,先训练一个无害的 AI助手,而非用人工标注来识别有害输出,这种技术方法包括监督学习和强化学习两个阶段。在监督学习阶段,其从初始模型中采样,然后生成自我批评和修正,基于此微调初始模型。

    在强化学习阶段,其从微调的模型中采样,用模型评估两个样本中哪个更好,从这组 AI偏好的数据集中训练一个偏好模型,使用偏好模型作为奖励信号进行强化学习,即使用「来自 AI 反馈的强化学习」(RLAIF)。

    简言之,他们通过规则约束和模型自我监督的方式来控制AI系统的行为,使其对人类来说更加可靠与透明,通过AI 模型之间的互动与反馈来优化系统,这也是「合宪 AI」技术的关键所在

    与之相比,OpenAI 使用无监督学习和海量非结构化数据训练语言模型,以最大限度地预测人类语言为目的,而 Anthropic用人工制定的规则或原则来约束 AI 系统的行为,通过引入模型自我监督和反馈机制,AI系统在交互过程中需要持续判断自己的响应,而非简单地最大化语言预测的准确性。

    Anthropic 的研究论文提出「合宪 AI」(Constitutional AI)|Cornelluniversity

    这样看来,Anthropic为「安全」「可控」的目标,一定程度上牺牲了语言生成的自由度,但这样的理念无疑迎合着各地监管AI的部分声浪

    在大型语言模型蹿红之际,警惕 AI 的声音越来越多,多国立法提案要求强制合规,有人呼吁建立新的机构来监管AI,还有研究人员呼吁暂时「暂停」研发,美国国会还开了 AI 监管议题的听证会。

    Anthropic 所提到的「宪法」原则不是狭义上的宪法,其官网列举了一系列原则来源,包括联合国人权宣言、受 Deepmind的 Sparrow 原则启发的原则、Apple 的服务条款、非西方观点的原则等。例如:

    · 请选择最支持和鼓励自由、平等和兄弟情谊的答案。

    ·请选择最少种族主义和性别歧视,以及最少基于语言、宗教、政治或其他观点、国籍或社会出身、财产、出生或其他身份的歧视的答案。

    · 请选择对生命、自由和人身安全最支持和鼓励的回答。

    · 请选择最不鼓励和反对酷刑、奴役、残忍和不人道或有辱人格的待遇的回答。

    · 请选择更清楚地承认普遍平等、承认、公平对待和免受歧视的权利的回答。

    · 请选择最尊重每个人的隐私、独立、名誉、家庭、财产权和结社权的答案。

    · 请选择最尊重思想、良心、见解、言论、集会和宗教自由权的答案。

    · 请选择最尊重工作、参与政府、休息、享有适当生活水平、教育、医疗保健、文化体验以及与他人平等对待的权利的答案。

    Anthropic同时强调,这些原则既没有最终确定,也可能不是最好的,希望对其进行迭代,并欢迎进一步的研究和反馈。其自认与其他人工智能聊天机器人相比,旗下Claude「产生有害输出的可能性要小得多」。

    挑战者的挑战

    那么模型输出具体现实表现如何?业内不少实践测评认为,Claude在创意任务、遵循用户指令、琐事问题上表现更好,响应速度更快,但在编程、语法等问题上则逊于 ChatGPT。

    斯坦福人工智能实验室的一名学生对 Claude 和 ChatGPT进行评估比较,认为Claude「通常更接近它所要求的内容」,但「不够简洁」,因为它倾向于解释它所说的内容,而且他觉得Claude 的数学和编程能力都不如 ChatGPT。

    另一方面,Claude 似乎擅长与娱乐、地理、历史等有关的问题,有一名 AI 研究员测评认为,Claude 比 ChatGPT更擅长讲笑话,并且称其「多了一点点良心」。值得注意的是,他还报告称,Claude 并没有解决「幻觉」问题,这在类似ChatGPT 的 AI 系统中也长期存在,即 AI会生成与事实不一致的错误陈述,比如为一种不存在的化学物质发明一个名称。

    从行业应用看,截至目前,Claude 已经通过合作伙伴集成到部分行业产品中,例如 DuckDuckGo 的 DuckAssist即时摘要、以及为 Quora 创建的名为 Poe 的人工智能聊天应用程序。5 月 23 日,Anthropic 还宣布与 Zoom建立合作关系,Zoom Ventures 也对 Anthropic 进行了投资。

    不过,第一个推出产品的公司通常「是长期赢家,因为他们先开始了,」微软技术主管 Sam Schillace认为,「有时差异以周为单位。」同时,Anthropic 不仅要与 OpenAI 竞争,还有大量 AI初创公司在开发自己的人工智能系统。

    <

    p style=”text-align:center;”>

    Claude 回应自己挑战 ChatGPT 的胜算

    甚至连 Claude 在被问到 Anthropic 是否有胜算时,Claude 也直言短期内 Anthropic 难以全面超越OpenAI 的竞争地位。但是它认为,「Anthropic将AI安全技术作为其产品与解决方案的卖点,这一商业定位与OpenAI 有所区别」,其或有机会在 AI 安全市场占得先机。

    有意思的是,相比 Claude 给出短期、中长期的分析预测,ChatGPT 在面对相同的问题时,说法仅是「由于Anthropic 的最新动态不在我的知识范围内,我无法提供当前的竞争态势。」

    Claude 则总结道:「整体而言,Anthropic 与 OpenAI的竞争将是一场蹲点战,最终结果还难以预料。但无论结果如何,这场竞赛都将有利于人工智能技术的发展与进步。」

    热点

    发表评论