GPT新闻 新闻 ChatGPT 和大语言模型差异

ChatGPT 和大语言模型差异

ChatGPT 是一种人工智能 (AI) 聊天机器人,可以让用户认为他们正在与人交谈,是席卷互联网的最新技术。这也是某些人工智能固有的潜在偏见的最新例子。 ChatGPT 由 OpenAI 公司开发,是一种生成式预训练变压器 (GPT),是…

ChatGPT 是一种人工智能 (AI) 聊天机器人,可以让用户认为他们正在与人交谈,是席卷互联网的最新技术。这也是某些人工智能固有的潜在偏见的最新例子。
ChatGPT 由 OpenAI 公司开发,是一种生成式预训练变压器 (GPT),是大型语言模型的一种应用。这些模型在互联网上输入大量文本和数据,用于预测响应提示时最可能的单词序列。ChatGPT 可以回答问题、解释复杂的主题,甚至帮助编写代码、电子邮件和论文。

然而,ChatGPT 等工具给出的答案可能并不像许多用户期望的那样中立。OpenAI 首席执行官 Sam Altman 上个月承认 ChatGPT 存在“偏见方面的缺点”。

像 ChatGPT 这样的系统产生的输出是无意义的、事实上不正确的,甚至是性别歧视、种族主义或其他攻击性的。这些负面产出并没有让分布式人工智能研究所创始人兼执行董事 Timnit Gebru 感到震惊。 

  • ChatGPT 等人工智能聊天机器人的新世界

格布鲁的研究指出了利用互联网上大量不加区别的数据来训练人工智能应用程序的陷阱。2020 年,她与人合着了一篇论文,强调了某些人工智能系统的风险。她说,这篇文章导致她被迫辞去谷歌人工智能道德团队联席负责人的职务。

正如格布鲁所解释的那样,人们可以假设,由于互联网充满了文本和数据,因此接受这些数据训练的系统必须对各种观点进行编码。 

“我们认为,规模并不能保证多样性,”格布鲁说。 

相反,她认为,互联网上的数据可以通过多种方式强化偏见——首先是谁可以访问互联网,谁不能访问互联网。此外,格布鲁说,女性和代表性不足群体的人更有可能在网上受到骚扰和欺凌,导致他们花在互联网上的时间更少。反过来,这些观点在大型语言模型编码的数据中较少体现。 

“你用来训练这些模型的互联网文本将编码那些仍然在线的人,他们不会被欺负——互联网上的所有性别歧视和种族主义的东西,互联网上所有的霸权观点,”格布鲁说。“因此,我们对看到种族主义、性别歧视、恐同、体能歧视等输出并不感到惊讶。”

格布鲁表示,为了解决这个问题,公司和研究小组正在构建类似于进行内容审核的社交媒体平台的毒性检测器。这项任务最终落到了对系统进行有害内容训练的人员身上。 

对于格布鲁来说,这种零敲碎打的方法——在有害内容发生时将其删除——就像玩打地鼠游戏。她认为未来处理此类人工智能系统的方法是建立监督和监管。 

“我确实认为应该有一个机构来帮助我们确保其中一些系统是安全的,它们不会伤害我们,它实际上是有益的,你知道吗?” 格布鲁说道。“应该有某种监督。我不明白为什么这个行业受到与其他行业如此不同的待遇。”

自去年 11 月 ChatGPT 首次亮相以来的几个月里,保守派人士还指责该聊天机器人对保守派存在偏见。一月份,《国家评论》的一篇文章称聊天机器人已经“醒来”。它举了一些例子,包括用户要求机器人生成一个前总统唐纳德·特朗普在总统辩论中击败总统乔·拜登的故事,以及机器人拒绝写一个关于为什么变装皇后故事时间对儿童不利的故事。 

ChatGPT 的制造商 OpenAI 表示,他们正在努力减少聊天机器人的偏见,并允许用户自定义其行为。 

该公司在上个月的一篇博文中写道:“我们一直在努力提高这些指南的清晰度(关于政治和有争议的话题),并且根据我们迄今为止从 ChatGPT 发布中学到的知识,我们将向审阅者提供更清晰的指示,以了解与偏见相关的潜在陷阱和挑战,以及有争议的人物和主题。”

本文来自网络,不代表gptnews.cn立场,转载请注明出处。https://www.gptnews.cn/1991/
返回顶部