在ChatGPT给我们带来了各种便利的过程中,也出现了一些反作用。
比如现在已经有学生在使用ChatGPT进行作弊,既然GPT的提问与回答过于宽泛,那么总会有人将ChatGPT用在不正之道。
因此,不仅我们需要GPT为我们解决问题,也需要我们为GPT解决一些问题,从根源的角度出发,就是找到能够对ChatGPT的文本进行检测的仪器,并且这一需求变得越来越明显。
但有点可惜的是,作为ChatGPT背后的人工智能研究公司-OpenAI,它仅发布了一个不完美的免费工具来解决这个问题。
OpenAI的“分类器”工具。它只能正确识别26%的AI编写的文本,并具有“可能是AI编写的”名称。此外,它在9%的时间内提供误报,错误地将人类编写的工作识别为AI生成的工作。
虽然工具不足以检测ChatGPT生成的文字,但一项研究表明,人类也许能够通过“礼貌”来检测 AI 编写的文本。具体是什么意思呢?
研究结果表明,ChatGPT的写作风格非常有礼貌。与人类不同,它不能产生包括隐喻、讽刺或讽刺的反应。
也就是说,只要不强行赋予它一些“反人类”的人设,GPT就会一直保持着这份礼貌待人。(我不建议你真的去尝试赋予GPT一些奇怪的人设嗷~)
那么ChatGPT的出现究竟是好事还是坏事呢?
ChatGPT是一种先进的人工智能产物,既有可能让人们的生活更轻松,又能帮助完成日常繁琐的任务,例如写电子邮件或浏览网络寻找答案。
但是,在广泛使用某些技术细节以防止负面结果(例如错误信息的传播)之前,必须弄清楚某些技术细节。通常,AI和机器学习(ML)模型依赖于大量训练和微调才能达到理想性能水平。
那么,人工智能正在接管世界吗?也许还没有,但OpenAI的Altman肯定认为AI中的人类智能现在已经不远了。
在回应马斯克关于危险强人工智能的评论时,阿尔特曼在推特上写道:
“我同意这是接近危险的强人工智能,例如构成巨大的网络安全风险。我认为我们可以在未来十年内达到真正的AGI,所以我们也必须非常认真地对待风险。“
他还指出:“有趣的是,看着人们开始争论强大的人工智能系统是否应该按照用户想要的方式或他们的创造者想要的方式运行。
我们将这些系统与谁的价值观保持一致的问题将是社会有史以来最重要的辩论之一。