GPT-4,终于来了!

55次阅读

就在昨天凌晨,OpenAI 发布了多模态预训练大模型 GPT-4。

这不昨天一觉醒来,GPT- 4 都快刷屏了,不管是在朋友圈还是网络上都看到了很多信息和文章。

GPT 是 Generative Pre-trained Transformer 的缩写,也即生成型预训练变换模型的意思。

OpenAI 在公告中写道,GPT- 4 是一个多模态大模型,也是 OpenAI 努力扩展深度学习最新的里程碑。

OpenAI 的 CEO 也说这是他们到目前为止功能最强大的模型。

相信这两天大家在网络上看到的信息比较多也比较杂,关于 GPT-4,我们这里也 总结了几个比较关键的点

1、支持视觉输入

GPT- 4 拥有多模态能力,现在可以接受图像输入并理解图像内容,这也是这次发布比较有吸引力的一个点。

比如官方给出了一个示例,给出一幅图,手套掉下去会怎么样?

GPT- 4 可以理解并输出给到:它会掉到木板上,并且球会被弹飞。

再比如给 GPT- 4 一个长相奇怪的充电器图片,问为什么这很可笑?

GPT- 4 回答道,VGA 线充 iPhone。

另外 GPT- 4 也可以识别与解析图片内容,比如直接将论文截图后丢给 GPT-4,它就可以自动对其进行理解和分析。

用户甚至还可以直接画一个网站草图拍照丢给 GPT-4,它就可以立马帮助生成代码。

2、文字输入限制提升

GPT- 4 的文字输入限制进一步提升,得益于此,GPT- 4 的实用性也进一步扩展。比如发布会直播上 OpenAI 总裁现场演示了一波 GPT- 4 给代码修 Bug。

用户可以直接把万字的程序文档丢给 GPT- 4 等着解决方法。

3、性能提升

在正常的对话过程中,对于 GPT-3.5 和 GPT- 4 之间的区别感知可能很微妙,但是当处理一些复杂输入时 GPT- 4 的优势会更明显。

团队表示,GPT- 4 在各种专业测试和学术基准上的表现与人类水平相当,其中一个数据就是它通过了模拟律师考试,且分数在应试者的前 10% 左右,而此前发布的 GPT-3.5,则处于倒数 10% 的行列。

OpenAI 也在那些为机器学习模型设计的传统基准上评估了 GPT-4。从实验结果来看,GPT-4 大大优于现有的大型语言模型,以及大多数 SOTA 模型。

4、依然有限制性

尽管这次发布的 GPT- 4 表现出了很强大的能力,但是官方依然表示 GPT- 4 与早期的 GPT 模型具有相似的局限性,并不是绝对可靠。

官方表示使用这些语言模型时还是要谨慎审查其输出内容,必要时使用与特定用例的需求相匹配的确切协议(例如人工审查、附加上下文或完全避免高风险场景下的使用)。

GPT- 4 仍然可能会产生幻觉、生成错误答案,并出现推理错误,所以团队这也是提前给打了一个预防针。

虽然这仍然是一个问题,但 GPT- 4 相较于于以前的模型显著减少了“幻觉”。在内部的对抗性真实性评估中,GPT- 4 的得分比最新的 GPT-3.5 高 40%。

5、关于使用

聊了这么多,普通用户要想使用上 GPT- 4 估计还要再等等。

目前是只有 ChatGPT Plus 付费订阅会员才可以试用 GPT-4,且试用阶段每四小时最多发 100 条信息。

而且目前来说,用户依然只能发出纯文本信息,像图像等一些视觉输入功能估计后续才会放开使用。

目前 OpenAI 仅仅是开放了 GPT-4 API 的申请通道。

用户如果想要使用的话,可以先提申请加入 waitlist 列表等待通过。

6、关于 GPT- 4 论文

关于 GPT- 4 发布的细节和技术,官方也给出了一个 pdf 版本的详细技术报告,有兴趣的小伙伴可以看看。

总而言之,这两天看到太多有关 GPT- 4 的信息,不知道为啥心里总有一种说不出来的感觉。

我不知道怎么样去描述这种感受,但是我想起来之前发的一篇文章评论区一位小伙伴的留言:

“突然感觉向未来迈出了一步是怎么回事”

好了,今天的分享就先到这里吧,我们下期见。

原文链接:https://www.bilibili.com/read/cv22438677/

正文完
 
追风者
版权声明:本站原创文章,由 追风者 2023-12-03发表,共计1560字。
转载说明:声明:本站内容均来自互联网,归原创作者所有,如有侵权必删除。 本站文章皆由CC-4.0协议发布。