沃德
沃德

人工智能 | 高新科技 | 全球市场

茶几新闻 | 杀死茶几(ChatGPT)

(编辑过)
狂欢之后,开始出现另一个极端 ——— 封杀。

「茶几」是我给ChatGPT取的中文名。谐音,也合意。聊天嘛,一般是坐在沙发上围着茶几而聊,所以叫她茶几意思上也比较贴切。

ChatGPT现在这么热,形成了一种现象级文化,不妨称为「茶几文化」;关于茶几的新闻天天有,姑且把这些新闻叫「茶几新闻」。

说实话一开始很多人都没想到茶几会这么热的,也没想到会有那么多实际用处的,至少不会这么快又实际用处。这当然包括我,包括很多人,因为毕竟只是个版本的提升,并不是一个全新的东西。

但很快人们就发现茶几有很多实际用处。她不仅会聊天,还会搜索、翻译、检查语法、写诗、写文章、写代码,甚至帮你参加考试...... 在我的Medium主页上,ChatGPT简直霸屏,人们发明数不清的用法,很多都挺实用。

所以什么叫「量变到质变」呢,这就是一个活生生的例子。

恐怕茶几的创造者OpenAI自己也没想到她走红会如此迅猛,以至于刚出来的时候OpenAI也显得手忙脚乱,服务非常不稳定。直到最近几天才比较稳定了,同时修正不少错误,还增加了一些贴心的功能,比如自动给对话线索添加一个题目。

言归正传,讲讲茶几被追杀的事情。

茶几虽然一鸣惊人,但也是一开始就备受质疑的。最早就是Stack Overflow对其进行了封禁,官方表示因为它生成的答案正确率太低,发布由 ChatGPT 创建的答案对网站和查询正确答案的用户来说是非常有害的。

最近几天,更多的封杀出来了,以下是三则相关新闻。

① 顶会 ICML 禁止使用ChatGPT写论文

几天前,国际机器学习会议 ICML 宣布:禁止投稿论文使用大型语言模型(LLM,如 ChatGPT)生成,除非生成的文本是作为论文实验分析的一部分而呈现出来。

Source:https://icml.cc/Conferences/2023/llm-policy

根据 ICML 的说法,ChatGPT 等这类语言模型虽然代表了一种未来发展趋势,但随之而来的是一些意想不到的后果以及难以解决的问题。

ICML 表示,ChatGPT 接受公共数据的训练,这些数据通常是在未经同意的情况下收集的,那么如果出了问题谁负责?

还有就是作者身份问题,是谁「写」的论文?机器还是人类?

不过, ICML 仅禁止 AI 完全生成的文本。会议组织者表示,他们并不禁止使用 ChatGPT 等工具编辑或润色作者撰写的文本,并指出许多作者已经使用语法校正软件 Grammarly 等半自动编辑工具来润色文章。

此消息一出,在社交媒体上引发了一场大讨论。

AI大佬Yann LeCun 转发并评论道:「大型语言模型不能用,那么中型和小型语言模型是不是还可以用?」

微软研究院 ML 基础团队的负责人 Sebastian Bubeck 则称该规则是「目光短浅」 ,并在推特上写道:「ChatGPT 及其变体是未来技术发展的一部分。禁止绝对不是最优的答案。」

ICML 表示,明年将重新评估对 AI 生成文本的禁令。

实际上,几乎不会有论文作者会真的使用 AI 语言模型来生成学术论文。因为学术论文的要求是非常严谨的,一般在发表前作者都会反复核对论文内容。如果使用 AI 生成的论文出现错误,所有署名的论文作者的声誉都会受到严重影响,关系到论文作者的整个职业生涯。

② 纽约市学校禁止访问 ChatGPT

几乎同一时间,ChatGPT 遭到学校的封禁。由于担心 AI 工具会破坏教育公平,纽约市教育部已经在其网络和设备上阻止对 ChatGPT 的访问。

该部门的发言人 Jenna Lyle 表示:此条禁令主要是担心 ChatGPT 对学生的学习产生潜在负面影响,以及对 ChatGPT 生成内容的安全性和准确性有所担忧。虽然该工具可以提供快速简单的答案,但它无法培养批判性思维和解决问题的能力,而这对于学生的学业和终身成功至关重要。

除此以外,ChatGPT 也存在其他语言模型所存在的问题。因为其训练数据来自互联网,所以它经常在答案中重复和放大性别歧视和种族偏见等。这类语言模型还倾向于编造信息,从历史日期到科学规律,但别人一般发现不了它在胡编乱造。

正是这些事实性错误,让教育工作者特别担心这个工具。许多老师表示,像 ChatGPT 这样的软件基本上不可能起到测试学生写论文的能力。如果 ChatGPT 可以在几秒钟内帮助学生完成写作,他们就不愿花心思去写了。

然而,另一些人认为,教育系统将不得不适应这种技术的出现 —— 就像它适应早期的颠覆性技术,如谷歌搜索和维基百科一样。但大家对 ChatGPT 适应,显然还需要点时间。

无论是人为制定和执行文本编写规范,还是使用一些方法分辨文本是否为 AI 生成,都说明人们意识到急需规范 ChatGPT 等文本生成模型的使用。ChatGPT 的使用场景和价值仍有待定义。

③ 几零:杀死茶几

同样几乎与此同时,一款叫做GPTZero的应用诞生了。

我们不妨叫它「几零」吧,就是说它可能想把茶几抹零。

GPTZero 是由普林斯顿大学大四华裔学生 Edward Tian 开发的,使用两种不同的指标来评估文本是否由 AI 模型编写:费解性(perplexity)和突发性(burstiness)。这可能就是用「模型」打败「模型」吧。

Tian同学发布的关于自创工具GPTZero的推文也成了热门,广受来自世界各地教师的赞誉,Tian同学说很多远在法国和瑞士的老师发信联系他表示感谢。1月5日,新程序面世第三天,Tian在Substack资讯上公布,目前已有超过1万人在应用创建和托管平台Steamlit上使用了自己新程序的公开版本。


Tian同学写这个程序的初衷,是为了快速有效地判断一篇文章究竟是活生生的人写的,还是机器/人工智能代写的。Tian表示,“一段文字到底是人写还是机器写的,人类有权利知道。“

对于Tian同学打造的这一甄别文字是否系AI写作的新程序,推特上的舆论褒贬不一,以教师为代表的成年人大多喜闻乐见,而青少年一代却讽刺Tian是“学术缉毒警察 (narc)” 。

Tian同学在普林斯顿学的是计算机科学专业,又同时辅修新闻学。通过新闻专业的学习,特别是从美国作家约翰·麦克菲 (John McPhee) 的课堂上受到启发,让Tian坚信,“人类所写文章的那种美妙质感,是机器无论如何也没法模仿出来的”。

为了亲测GPTZero好不好用,美国新闻媒体BuzzFeed News的记者,先用AI代写的ChatGPT工具写了一个高中生作业中最容易找AI作弊代写的一个题目:描述哈姆雷特的主题。Tian的GPTZero给这段AI生成的回答打分如下:“费解性”10分,“突发性”19分。Tian解释道,这两项得分都很低,说明文字很有可能出自AI之手。

在成功侦测出AI写作痕迹之后,BuzzFeed News的记者为了对比,特地将自己采访Tian所写的新闻稿前半段输入到Tian的GPTZero程序中,得分情况是:“费解性”39分,“突发性”387分,显示这段文字出自人类之手。

当然,GPTZero的成功率究竟是多少目前尚无定论,有一位推特用户评论GPTZero没能检测出几段让AI写的文字是机器写的。Tian在1月5日表示已经对GPTZero做了更新和改善,由此显著降低了误报率。

Tian的新程序在很多领域有不错的应用前景:教育从业者可以查看学生论文是否抄袭或代写;企业招聘也可以用Tian的程序来审查求职者的资料到底是申请人自己写的还是AI代写的;甚至大学招生录取过程中,也可以借此来审核申请人的文书是人写还是机写。

很多IT领域的投资家敏锐地嗅到了其中的商机,Tian的新程序得到了来自 A16Z、 Menlo Ventures和Red Swan等知名风投的关注。


CC BY-NC-ND 2.0 版权声明

喜欢我的文章吗?
别忘了给点支持与赞赏,让我知道创作的路上有你陪伴。

加载中…
加载中…

发布评论