
广受欢迎的大型语言模型ChatGPT背后的Openai公司最近承认,该模型已经变得“懒惰”,这可能会对人工智能的未来产生影响。这一消息是在大量用户报告该模型性能下降之后发布的。用户强调了一些问题,如不完整的任务、快捷方式和对指示任务的逃避责任。
OpenAI在一系列推文中承认了这些反馈,并表示该模型自11月11日以来没有进行过任何更新。他们强调,观察到的“懒惰”是无意的,并将其归因于大型语言模型的不可预测性。
“自11月11日以来,我们就没有更新过模型,这当然不是故意的。模特的行为是不可预测的,我们正在研究解决这个问题。”
OpenAI进一步澄清说,这些变化可能很微妙,只影响提示的一个特定子集。这使得用户甚至开发人员很难立即识别和处理模式。
“我的想法并不是说,自11月11日以来,这种模式已经发生了某种程度的改变。只是模型行为的差异可能很微妙——只有一小部分提示可能会被降级,”OpenAI解释说。该公司向用户保证,它正在积极调查这个问题,并努力解决这个问题。然而,他们警告说,这些模型的不可预测性使其成为一个复杂的问题。
OpenAI表示:“我们正在研究解决这个问题,但这是一个复杂的问题。”
虽然这种“懒惰”的根本原因尚不清楚,但一些专家推测,这可能与该机型的内部安全机制有关。这些机制旨在防止ChatGPT 4产生有害或冒犯性的内容。然而,它们可能会无意中导致模型避免某些任务或提供不完整的响应。
ChatGPT 4的缓慢表现表明,达到真正的人工智能(可以自己思考和解决问题)可能需要比预期更长的时间。这让我们不确定人工智能是否有能力独立处理困难的任务。许多依赖人工智能的领域可能会受到这种进展延迟的影响。
然而,我们不应该把这看作是一个完全的停止,我们可以把它看作是一个学习的机会。通过找出ChatGPT 4出现问题的原因,科学家们可以更多地了解人工智能的工作原理。这种理解可以帮助他们在未来创造出更好的人工智能,保持活跃和聪明。
尽管人工智能的未来可能不会像我们想象的那么神奇,但ChatGPT 4的困难提醒着我们前方的道路仍很艰难。通过认识和应对这些挑战,我们可以用更好的知识和护理更接近真正的人工智能。











