像GPT-4这样的大型语言模型的真正价值不在于写作而是阅读

像GPT-4这样的大型语言模型的真正价值不在于写作而是阅读

围绕大型语言模型的所有关注都集中在其写作能力上–但阅读可能是潜力所在?

从逻辑上讲,我们可以肯定地说,一百万只猴子敲打一百万台打字机,最终会复制出莎士比亚的全部作品。这对猴子来说很好,但对人类来说实际上并不那么有用。

我们所处的全球互联网连接的世界可能会像猴子写的一连串文字一样感觉混乱和无厘头。有一天早上你醒来,发现惊慌失措的银行储户,其中许多人是在关注社交媒体的同时做出决定的,在几个小时内就把一个主要的金融机构搞垮了。像GPT-4这样的大型语言模型(LLMs),可以在一分钟内旋转出热门话题和博文,只会让这种噪音变得更糟糕。

一百万只猴子的力量被压缩到一个模型中,一百万年也被压缩到一分钟。

但是,尽管许多风险投资人和创始人认为,语言模型的技术进步的真正价值不在于增加噪音。真正的价值不在于 “写”,而在于 “读”。换句话说,能够创造洞察力来理解这一切。能够经受住生成性人工智能炒作周期的创始人将是那些在构建时考虑到这一点的人,而不是另一个以GPT-4为动力的营销文案生成器。

分析SVB媒体报道

最近,对LLMs潜力的兴奋–以及对它们的批评–都集中在它们的写作能力上。以诺姆-乔姆斯基和他在《纽约时报》上的合著者为例,他们抨击了 “ChatGPT的虚假承诺“,因为它并不完全模仿人类学习语言的方式。

这些谴责,以及关于人工智能实际上是被困在计算机中的有知觉的人的荒谬建议,可能会随着GPT-4中展示的能力而变得更加频繁。它们也是关注科幻问题而不是使用LLM的好处的很好的例子,LLM是帮助我们做我们自己不能做的工作(”机器人 “一词来自斯拉夫语的 “工作 “字根)。换句话说,我谈到的那个阅读方面。

在一分钟的时间内阅读和评估1000篇文章,对人类来说是不可能的,但现在可以通过语言模型几乎即时地’阅读’和创建这些文章的数据点。

大型语言模型不需要像人类那样能够 “理解 “思想和概念,以便能够可靠地做出有意义的区分,复制人类的工作。在Overtone,我们最近用我们的模型分析了导致硅谷银行恐慌的媒体报道。在一分钟的时间里阅读和评估1000篇文章,对人类来说是不可能的,但现在有了语言模型,几乎可以瞬间 “阅读 “和创建这些文章的数据点。

这些数据点的抽象程度高于实体提取或情感(NLP直到最近才被用于此),并且能够以人类可以理解和有用的方式对大量的文本进行准确分类,例如编辑决定哪些文章应该被纳入通讯,或者公关人员应对危机。但请注意:人工智能并不是在增加噪音。

戳中熊的要害

那些过分关注LLM写作的好处的人,提倡人类与技术互动的新方式,比如成为一个 “提示工程师”,这包括向黑盒子模型投掷不同的输入组合,以获得一个最佳结果。

对我来说,这错过了语言模型解析文本和分类的能力,包括将其归类,以确定生成的输出是否在做人类提示机器想要的东西。正如一位教授告诉《华盛顿邮报》的那样,prompt工程 “不是一门科学……它是’让我们以不同的方式戳一下熊,看看它是如何咆哮回来的’。”

作为一个在职业生涯的前半部分担任记者和编辑的人,在线内容制作的工作不是,或者至少不应该是创造**的内容。它应该是创造**的内容,使你的受众得到信息、娱乐或启发,以满足他们的用户需求

基于语言模型的最佳企业将专注于使用他们自己的 “阅读 “模型进行微调,以可靠地创造出有效的沟通给用户,即读者,而不是提示工程和旋转生成输出的车轮。这些用户,人类,可以从接收信息中获得价值,而这些信息并不只是拼凑到互联网上,而是以他们和他们的需求为基础。

找到正确的用例和为他们的 “读者 “创造价值,将是初创企业可以做的最重要的工作,因为法律硕士变得越来越容易获得,正如我们已经看到本周斯坦福大学在相对较小的计算能力上对羊驼的训练。投资者担心人工智能业务的可防御性,而为数不多的护城河之一将是与用户建立联系并创造他们所需要的**内容。

Greg Brockman在GPT-4开发者Livestream上展示的税收文件分析的例子是一个很好的例子,但其价值不在于GPT-4能够以对话或诗歌的方式输出关于税法的信息。其价值在于能够解析像税法这样的文件,并使用现有的语言规则来了解不同的税收规则是如何共同发挥作用的。特定行业的企业,从教育到娱乐,可以创造类似的价值,因为他们知道他们的用户,他们的读者的问题,以及语言需要如何被概念化和表达来解决这些问题。

大型语言模型有其局限性,但对写作的关注使辩论从它们的真正用处转移到了我们的当下,用语言来理解外面的所有语言。最好的企业将专注于解决人们的问题,而其他一切都在耍猴。

作者:Christopher Brennan(Overtone公司的首席产品官)

评论留言