OpenAI刚刚承认,它无法识别人工智能生成的文本这对互联网来说很糟糕,对人工智能模型来说可能真的很糟糕

   日期:2025-07-21     来源:本站    作者:admin    浏览:66    
核心提示:      大型语言模型和人工智能聊天机器人开始在互联网上充斥着自动生成的文本。  将人工智能生成的文本与人类写作区分开

  

  

  大型语言模型和人工智能聊天机器人开始在互联网上充斥着自动生成的文本。

  将人工智能生成的文本与人类写作区分开来变得越来越困难。

  OpenAI推出了一个识别人工智能文本的系统,但由于它不起作用而关闭了它。

  哔哔哔。

  这是机器写的还是我写的?

  随着人工智能竞赛愈演愈烈,这将是科技行业必须回答的最重要问题之一。

  ChatGPT、GPT-4、Google Bard和其他新的人工智能服务可以创建令人信服和有用的书面内容。就像所有的技术一样,它被用于好的和坏的事情。它可以使编写软件代码更快、更容易,但也会产生大量事实错误和谎言。所以,开发一种识别人工智能文本和人类文本的方法是基础。

  ChatGPT和GPT-4的创造者OpenAI不久前就意识到了这一点。今年1月,它推出了一个“分类器,可以区分人类编写的文本和来自各种供应商的人工智能编写的文本”。

  该公司警告说,不可能可靠地检测到所有人工智能编写的文本。然而,OpenAI表示,好的分类器对于解决一些有问题的情况很重要。其中包括错误地声称人工智能生成的文本是由人类编写的,运行自动化的错误信息活动,以及使用人工智能工具在家庭作业中作弊。

  不到7个月后,这个项目就被取消了。

  OpenAI在最近的一篇博客中写道:“截至2023年7月20日,由于准确率低,人工智能分类器不再可用。”“我们正在努力整合反馈,目前正在研究更有效的文本来源技术。”

  如果OpenAI都不能发现人工智能的写作,其他人怎么能呢?其他人也在努力应对这一挑战,包括我的同事玛德琳·伦巴格(Madeline Renbarger)写过的一家名为GPTZero的初创公司。但在微软的支持下,OpenAI被认为是人工智能领域的佼佼者。

  一旦我们无法分辨人工智能和人类文本之间的区别,在线信息的世界就会变得更有问题。已经有一些垃圾网站使用新的人工智能模型大量生产自动化内容。其中一些一直在创造广告收入,同时还有“拜登死了”之类的谎言。哈里斯代理总统,上午9点发表讲话。”

  这是一种非常新闻化的看待世界的方式。我明白了。并不是每个人都痴迷于确保信息准确。因此,人工智能行业还有一个更令人担忧的可能性:

  如果科技公司无意中使用人工智能产生的数据来训练新模型,一些研究人员担心这些模型会变得更糟。它们将以自己的自动化内容为食,并在所谓的人工智能“模型崩溃”中折叠自己。

  研究人员一直在研究,当gpt风格的人工智能模型(如GPT-4)生成的文本构成下一个模型的大部分训练数据集时会发生什么。

  他们在最近的一篇研究论文中总结道:“我们发现,在训练中使用模型生成的内容会导致模型出现不可逆转的缺陷。”其中一名研究人员伊利亚·舒迈洛夫(Ilia Shumailov)在Twitter上说得更好。

  在看到可能出现的问题后,作者提出了一个请求,并做出了一个有趣的预测。

  他们写道:“如果我们要维持从网络上收集的大规模数据中进行培训的好处,就必须认真对待这一点。”“事实上,在法学硕士从互联网抓取数据生成内容的情况下,收集到的有关人类与系统之间真实互动的数据的价值将越来越有价值。”

  如果我们不能分辨出是人类还是机器在网上写了什么,我们就无法开始解决这个存在的问题。我给OpenAI发了邮件,询问他们失败的AI文本分类器及其影响,包括模型崩溃。一位发言人回应说:“除了在我们的博客中概述的更新外,我们没有什么可补充的。”

  我回信了,只是想确认一下发言人是不是人。“哈哈哈,是的,我是一个真正的人,谢谢你的签到!”他们回复道。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行