No menu items!

    长出了眼睛和嘴,ChatGPT已经开始入侵物理世界

    OpenAI,又悄咪咪地放大招了。

    当地时间 9 月 25 日,OpenAI 在官网更新博客,宣布 ChatGPT 已经具备看、听、说的能力。这是 GPT-4大型语言模型推出以来最大的一次功能更新。

    从官方放出的应用案例来看,通过手机摄像头和麦克风,ChatGPT现在已经能帮助人们解决实际问题。例如用手机拍一下共享单车的照片,并且询问人工智能助手如何调节座椅,ChatGPT就可以看懂图片,并且给出相应步骤。

    随着技术的快速迭代,生成式 AI竞赛正在进入了一个全新的阶段——多模态之争。在这个阶段,各大科技公司纷纷推出了一系列新产品和功能,通过人工智能技术打破传统搜索引擎和聊天机器人的局限性的同时,也为用户带来更加丰富和精准的交互体验。

    那么,“升级”了的 ChatGPT,是否能成为“贾维斯”一样的 AI 助理,帮助人们打点生活了?而 OpenAI又是怎么做到的?

    01

    ChatGPT

    长了眼睛和嘴巴

    生成式 AI 竞赛的下一个阶段正在来临——多模态之争。

    最近,Meta 推出了 AudioCraft,用于通过 AI 生成音乐;谷歌Bard 和微软 Bing的聊天体验也已部署了多模态功能;亚马逊也在借助 LLM 的力量来增强其 Alexa 数字助理(为 Echo系列智能设备提供支持)的功能,9 月 25 日刚刚宣布斥资 40 亿美元投资 OpenAI 的竞争对手 Anthropic,后者是Claude 2 聊天机器人的制造商;苹果也在试验通过 AI 生成语音,即 Personal Voice。

    而在上周发布支持文本和排版生成的最新图像生成模型 DALL-E 3 之后,当地时间周一晚,OpenAI 发布了《ChatGPT现在能看、能听、能说了》的公告,宣布对 ChatGPT 进行重大更新,使其 GPT-3.5 和 GPT-4人工智能模型能够分析图像,并作为文本对话的一部分对图像做出反应。

    此外,ChatGPT 移动应用程序还将增加语音合成选项,与现有的语音识别功能搭配使用时,将实现与人工智能助手的完全语言对话。

    根据官网,ChatGPT 现在已经具备了如下功能:

    语音功能

    OpenAI 在公告中称语音功能由一个新的文本转语音模型(text tospeech)驱动,只需要文本和几秒的语音样本就可以生成类似人声的音频。一方面,OpenAI与专业配音演员合作创建了语音条,另一方面,OpenAI 还使用了自己开源的语音识别系统Whisper,可以将用户的语音转录为文字。

    ChatGPT 已经有了语音交互能力|OpenAI

    该功能推出后,用户可以在应用的设置中选择语音对话,然后从“Juniper”、“Sky”、“Cove”、“Ember”和“Breeze”等五种不同的合成声音中选择一个,说出他们想要的内容,机器人就会使用所选的语音提供答案。例如,人们可以询问睡前故事,或者就餐桌上正在进行的谈话提出问题。

    不过,语音对话功能的使用可能面临有一些限制。OpenAI表示,该模型在转录英文文本方面表现出色,但在一些其他语言,特别是使用非罗马字母的语言中表现不佳。因此,建议非英语用户使用ChatGPT 来进行此类用途时要慎重。

    图像理解

    OpenAI 表示,ChatGPT 中的新图像识别功能允许用户上传一张或多张图像,使用 GPT-3.5 或 GPT-4模型进行对话。

    这些模型将其语言推理技能应用于各种图像,如照片、截图和同时包含文本和图像的文档,人们只需点击一张图片,将其添加到聊天中,并提出潜在的问题,ChatGPT就会根据所附文本分析图片,并给出答案。

    它甚至可以围绕该主题进行前后对话。按照 OpenAI 的说法,用户可以上传某物的图片并询问 ChatGPT相关问题——比如在旅行时拍一张地标的照片,让 ChatGPT 来讲述景点的有趣之处;拍下冰箱和食品储藏室的照片,找出晚餐要吃什么(还可以问一些后续问题,以获得进一步的食谱)。

    在官方提供的示例中,一张自行车的照片上传到 ChatGPT 界面,之后询问后者如何将座位调低。ChatGPT首先询问了自行车的型号,因为座位的调整方式因车型而异。它详细解释了不同车型可能采用的快拆杆或螺栓的区别,并提供了相应的步骤。

    然后,官方制造了一点混淆,拍摄了一张螺栓的照片,并在图中用官方的画图工具突出显示,试图让 ChatGPT分辨是螺栓还是快拆杆。ChatGPT 很快指出图中所示的是螺栓,并建议用户寻找内六角扳手来解决问题。

    接着,官方拍摄了一张工具箱的照片,向 ChatGPT 询问到底是哪一个扳手。ChatGPT再次表现准确识别出所需的扳手,并清晰地指导用户选择正确的尺寸。这个示例清楚地展示了 ChatGPT在解决实际问题时的实用性和智能响应。

    在去年 3 月 GPT-4 发布时,OpenAI 就已展示了该模型解析文本和图像的初步能力,很快,这些能力将成为 ChatGPT使用中更常见的存在。

    OpenAI 将在未来两周时间里向为 Plus 和企业用户推出上述功能。用户可以在 iOS 和 Android 使用 ChatGPT的语音合成功能,图像识别功能则在网页和 App 端均可用。

    02

    能力越大,责任越大

    在 ChatGPT 发布近一年来,OpenAI 对其底层模型和界面进行了多次更新。而任何生成式 AI的进步都需要考虑严肃的伦理和隐私问题。

    OpenAI在公告中声称其目标是开发安全且有益的通用人工智能,“我们相信,逐步提供我们的工具,可以让我们随着时间的推移不断改进和完善风险缓解措施,同时也让大家为未来更强大的系统做好准备。对于涉及语音和视觉的高级模型来说,这一策略越来越更加重要。”

    毕竟,新语音技术能够仅从几秒的真实语音中创造逼真的合成语音,这为创造性应用打开大门的同时,也带来了新的风险,比如恶意冒充公众人物或进行诈骗等。

    为降低音频深度伪造的风险,OpenAI表示它已将语音合成功能的使用范围限制在语音聊天,和某些已获批准的合作伙伴关系中。其中包括与流媒体公司 Spotify的合作——Spotify 正在使用其背后的技术为平台上的播客翻译不同语言的内容。Spotify 个性化副总裁齐亚德-苏丹(ZiadSultan)在一份新闻稿中说:“通过与创作者本人的声音相匹配,语音翻译让世界各地的听众能够以前所未有的真实方式发现新的播客,并从中获得灵感。”

    同样,为了避免图像识别带来的隐私和准确性问题,OpenAI还限制了机器人对输入图像中出现的人进行分析和直接陈述的能力,其表示已经“采取了技术措施,以限制 ChatGPT分析和直接陈述个人信息的能力,系统还是应当尊重个人隐私”,但是真正的恶意利用情况还是要在它面向公众推出后才能知道。

    这次 ChatGPT 推出的语音交互和图像识别功能,为聊天机器人带来了更强的实用性,让它们从简单的文本处理工具更贴近真实生活。

    同时,这似乎也预示着未来 AI系统的发展方向——不仅要理解抽象的文字世界,还要能感知复杂的语音和图像信息,甚至是物理世界,从而真正进阶达到人机交互的境界。

    热点

    发表评论