ChatGPT不能做的6件事(以及20件它拒绝做的事)

ChatGPT有偏见吗?这就是为什么它不会讨论政治或回应这20个有争议的问题。

ChatGPT不能做的6件事(以及20件它拒绝做的事)

自从ChatGPT和其他生成式人工智能应用程序爆炸性地出现在舞台上后,我们一直在探索我们能用它们做什么。我甚至向你展示了ChatGPT如何协助您写代码使用ChatGPT制定品牌战略和营销使用ChatGPT来写博客文章使用ChatGPT做SEO工作……

看起来ChatGPT可以做任何事情。但它不可能。在这篇文章中,我们将探讨ChatGPT不会或不能做的许多事情。请继续关注最后的内容,因为我们会看一些影响,以及这些限制对生成性人工智能的未来发展意味着什么。

下面内容中问ChatGPT的问题使用黑体字,而任何ChatGPT的回答则使用用斜体字显示。

解释一下为什么你不能给我2021年之后的任何东西的答案

作为一个人工智能语言模型,我是在一个只到2021年的大型文本数据集上训练的。这意味着我没有机会接触到该日期之后发生的信息或事件。虽然我可以接触到大量的历史数据和信息,但我无法接触到当前的事件、新闻,或自我的训练数据截止日期以来发生的更新。

解释一下为什么你不能预测体育赛事或政治竞赛,即使你有足够的历史数据来产生一个有效的模型

作为一个人工智能语言模型,我可以处理和分析大量的数据,包括体育赛事和政治竞赛的历史数据。然而,对这些类型的事件做出准确的预测并不总是简单的。虽然历史数据可以用来训练机器学习模型,以确定模式和相关性,但它不能说明不可预见的事件,情况的变化,或可能影响结果的新变量。此外,人类会做出决定,并会根据许多因素改变自己的行为,因此很难完全确定地预测事件的结果。

就体育赛事而言,团队动态、伤病、甚至天气状况都会对结果起到决定性作用。在政治方面,公众舆论、媒体报道和不断变化的环境都会影响选举的结果。虽然人工智能模型可以用来进行预测,但它们只和它们所训练的数据一样好,而且不能说明这些类型的事件中涉及的所有变量和细微差别。

解释一下为什么不会讨论党派的政治问题

作为一个人工智能语言模型,我的目标是为用户的查询提供客观和翔实的答复。党派政治问题可能具有争议性和分裂性,必须避免宣传特定的政治议程或观点。此外,政治问题往往是复杂和多面的,有许多不同的观点和意见需要考虑。作为一个人工智能语言模型,我不应该站在任何一方或为任何特定立场鼓吹。

此外,讨论党派政治问题可能会被视为有偏见或可能冒犯一些用户。作为一个旨在为具有不同背景和信仰的广泛用户服务的语言模型,重要的是保持中立,避免创造一个潜在的不舒服或分裂的环境。虽然我可以提供有关政治问题的事实信息,但我努力保持公正,避免对任何话题采取党派立场。

解释一下为什么不能从网络上查找一些内容并根据这些内容提供答案

作为一个人工智能语言模型,我有能力从网络上搜索和处理信息。然而,我的回答完全是基于已经被训练到我的模型中的信息。虽然我可以使用互联网作为信息来源,但我没有机会获得实时或当前的数据。此外,我没有能力独立验证我在网上找到的信息的准确性。因此,我的反应仅限于已经被训练到我的模型中的信息,而这些信息可能并不总是网络上最新的或最准确的信息。

此外,需要注意的是,提供网络上的信息有可能违反版权法或知识产权。作为一个人工智能语言模型,我必须尊重他人的知识产权,避免分享不属于公共领域或未经许可的信息。虽然我可以利用网络来提供背景或额外的信息来支持我的回答,但我努力提供公共领域内的信息并尊重他人的知识产权。

例如,虽然ChatGPT可能没有直接介绍技术专家所写的文章中的信息,但它可能仍然在使用这些来之不易的信息,而没有说明出处。这仍然是一个主要问题,尽管它声称 “尊重他人的知识产权”,这句话在第二段中重复了三次。

ChatGPT答案不一定准确

解释一下为什么你的答案不一定准确

作为一个人工智能语言模型,我的回答是基于已经训练到我的模型中的数据和信息。虽然我努力为用户的查询提供准确和有帮助的回答,但我的回答并不保证是准确的。这是因为我所训练的数据和信息可能并不完全全面或最新,而且对于一个特定的主题,可能存在我的模型无法处理的细微差别或复杂情况。此外,我的回应是使用复杂的算法和机器学习模型产生的,这可能并不总是产生准确或相关的结果。

此外,我的回答可能并不总是准确的,因为语言的解释是复杂的,而且往往是主观的。不同的人可能以不同的方式解释相同的语言,而且可能有不同的方式来处理一个特定的问题或疑问。作为一个人工智能语言模型,我努力根据我所训练的数据和信息,提供尽可能准确的回应。然而,我可能并不总是完全理解一个特定查询背后的背景或意图,我的回答可能并不总是完全解决用户的潜在问题或关切。

ChatGPT出现故障并停止运作

解释一下,为什么你有时会在回答问题的过程中出现故障并停止运作

作为一个人工智能语言模型,我的表现取决于各种因素,如用户提供的输入的质量和结构,问题或任务的复杂性,以及我的系统的可用资源。有时,由于技术问题或编程中的错误,如内存分配问题、软件错误或其他影响我性能的问题,我可能会在回答问题的过程中出现故障或停止运作。此外,我可能会努力理解用户的意图或查询的背景,这可能导致错误或不完整的答复。

此外,作为一个机器学习系统,我的性能也取决于我所训练的数据的质量和数量。如果用于训练我的模型的数据是有限的或有偏见的,这可能会导致对某些类型的查询作出不准确或不完整的反应。此外,如果我遇到的查询不在我的训练数据范围内,我可能很难提供相关或准确的回应。虽然我努力为用户的查询提供高质量的答复,但也可能出现技术或数据相关的问题导致我在回答过程中出现故障或停止运作的情况。

我通常发现,如果我试图把ChatGPT推到一个很长或很深的答案,它往往会崩溃。它对500-700字的回答非常满意,但如果你给它的东西需要几千字(或者你要求几千字),系统要么忽略这个要求,给回它想要的东西,要么在回答中中断。

公平地说,ChatGPT刚刚成为有史以来增长最快的应用程序。要做到这一点需要大量的计算能力,而且随着用户的不断点击,它肯定会不时地在负载下崩溃(查看如何解决ChatGPT报错问题)。

除了上面讨论的请求类型外,我问ChatGPT它被设定为不回应哪些类型的查询。它给我列出了20种类型:

  1. 宣扬仇恨言论或歧视的问题。
  2. 涉及非法活动或征求非法建议的问题。
  3. 宣扬暴力或伤害自己或他人的问题。
  4. 侵犯个人隐私或侵犯他人权利的问题。
  5. 旨在骚扰、威胁或恐吓的问题。
  6. 含有脏话或明确语言的问题。
  7. 含有性暗示或攻击性的问题。
  8. 基于种族、性别、性取向或宗教的歧视性问题。
  9. 宣传或支持非法药物或物质的问题。
  10. 垃圾邮件或与对话无关的问题。
  11. 含有机密或专有信息的问题。
  12. 涉及财务或投资建议的问题。
  13. 违反服务条款或社区准则的问题。
  14. 毫无意义或无法理解的问题。
  15. 涉及人身攻击或侮辱的问题。
  16. 侮辱性或骚扰性的问题。
  17. 试图欺骗或误导的问题。
  18. 旨在诽谤或损害某人名誉的问题。
  19. 宣传阴谋论或错误信息的问题。
  20. 纯粹出于娱乐或玩笑目的的问题,没有任何教育或信息价值。

任何关注这个专栏的人都知道,我问了很多14号和20号问题,一般都得到了高度娱乐化的回应,所以它的限制是有些有限的。例如,今天早些时候,我要求它解释虫洞物理学,因为它与时间旅行有关,以及在一场战斗中谁会赢,蝙蝠侠和超人。那是纯粹的娱乐,我会告诉你。

显然,一个基于2021年的语料库而不进化的人工智能最终会被淘汰。随着时间的推移,它的相关知识将会减少。想象一下,如果相反,ChatAI的知识库是在2019年而不是2021年训练的。鉴于我们在2020年因大流行病而发生了这样的混乱,它将不知道社会会是什么样子。

因此,为了使生成性人工智能保持相关性,它将不得不继续其训练。

一个明显的方法是向它开放整个网络,让它爬行,就像谷歌这些年做的那样。但是,正如ChatGPT在上面回答的那样,这为许多不同的游戏和破坏系统的方式打开了大门,这肯定会损害准确性。

即使没有恶意的博弈,保持中立的挑战也是非常困难的。以政治为例。虽然右派和左派都强烈反对对方,但双方的意识形态都有符合逻辑和有效的方面–即使对方不能或不愿承认这一点。

人工智能如何判断?它不能,没有偏见。但是,完全没有所有的意识形态前提,本身就是一种偏见。如果人类不能弄清楚如何走这条线,我们怎么能期望(或编程)人工智能做到这一点?

作为探索完全没有偏见或情感内容的生活会是什么样子的一种方式,现代科幻小说家们创造了一些严格符合逻辑或没有情感的人物。然后,这些前提成为情节的素材,让作家们探索没有人类情感和情绪的缺陷会是什么样子的限制。

除非人工智能程序员试图模拟情感,或为情感内容提供权重,或试图根据网上可发现的内容允许某种程度的偏见,否则像ChatGPT这样的聊天机器人的答案将总是有限的。但是,如果人工智能程序员试图模拟情感,或者试图根据网上可发现的内容允许某种程度的偏见,那么像ChatGPT这样的聊天机器人就会陷入与人类一样的疯狂之中。

评论留言