左右互博?ChatGPT爆火引发AI伦理担忧 开发商祭出官方鉴别利器

时间:2023-02-01 16:56:41       来源:科创板日报


(资料图片)

ChatGPT开放注册两个月后,如今已成为AI圈“顶流”,不仅获微软大手笔“带货”,在美股和A股市场上,更是出现上市公司“沾ChatGPT即涨”。

然而,随着技术门槛的降低和可及性的提升,技术滥用的问题也引起了人们的警惕。当地时间周二,ChatGPT背后的公司OpenAI推出了一款新检测器AI Text Classifier,可帮助辨别文本是由人工撰写还是AI生成。

实际上,近期随着ChatGPT蹿红,这一聊天机器人(行情300024,诊股)生成的内容已然渗透至美国议员国会讲稿与学术研究,更直接登上了学术论文作者栏。

美国众议员杰克?奥金克洛斯近日在众议院宣读两段讲稿,稿件由ChatGPT生成。他的工作人员表示,这是首次由AI捉刀代笔的讲稿在美国国会被宣读。

而在去年12月发布的一篇雷帕霉素抗衰老应用的论文中,ChatGPT就曾被列为一作,引发业内争议。

而在学生群体中,使用ChatGPT帮助撰写论文、生成代码、完成作业等情况更为普遍。

在线课程供应商Study.com一项针对1000名美国大学生的调查显示,超过89%学生使用ChatGPT完成家庭作业;48%用ChatGPT完成小测,53%用ChatGPT写论文。

另外,北密歇根大学的一位学生还依靠ChatGPT,写出全班最高分论文。更有意思的是,“露馅”原因在于,导师发现该学生提交的论文“逻辑过于连贯、结构过于合理”。

据了解,AI Text Classifier检测器包含一个文本框,用户可输入至少1000个字符长(约150 - 250 个单词)的文本。点击提交后,AI Text Classifier也会给出不同程度的判定答案,包括“非常不可能”、“不太可能”、“难以判断”、“疑似”由AI生成。

不过,这一工具也存在局限,Open AI表示,结果并不能保证完全准确,工具仍然在研发优化中,使用过程中可能会出错。数据显示,该检测器在针对英文文本的训练评估中,成功将26%的AI生成文本判定为“疑似AI生成”,但将却有9%的案例中,将人工撰写脚本标记为AI生成。

另外,检测器主要针对成人书写的英语内容进行训练,有可能会错判儿童写的文本和非英语文本。而用户还可以简单编辑AI生成的文本,以避开检测。

但实测发现,即便全文照搬一篇ChatGPT关于“如何识别AI生成文本”的回答,这一检测器给出的答案也仅仅是“难以判断是否由AI生成”。

另外,若将莎士比亚《麦克白》戏剧第二幕第一场贴进文本框,则结果同样为“难以判断是否由AI生成”。

(《麦克白》原文来源:shakespeare.mit.edu/)

ChatGPT并非无所不能 走捷径也有风险

根据《自然(Nature)》此前的一篇文章,ChatGPT发布后,伊利诺伊州西北大学一个研究小组便展开研究,若使用ChatGPT生成医学论文摘要,是否能识别。而结果显示,这些由AI操刀的摘要全部通过抄袭检测器;在人工审核环节,仅32%的摘要被判断为“由真实人类完成”。

除了冒用/抄袭风险,ChatGPT等AI生成的文本难以保证正确性,进一步还可能影响论文研究结论。以ChatGPT来说,Nature团队及多家出版商均认为,其无法对学术论文的完整性与内容本身负责。

同时,新闻媒体领域的一个案例或许也可以作为佐证。自去年11月以来,科技媒体CNET发布了70余篇由AI生成的文章。但Futurism报告显示,这些文章中其实暗藏着多处错误,包括数据测算不准确、名词解释混淆等。

麻省理工Tech Review曾发布一篇文章,目的在于研究微软如何将ChatGPT用于必应搜索引擎。该文指出,像ChatGPT这样的模型,很擅长生成华美的语言,读起来仿佛由人类撰写。但它们对自己生成的东西缺乏真正理解,在阐释正确事实与假话时,抱有同样的自信。

从ChatGPT的走红也能看出,AI技术的使用和触达门槛也不再遥不可及。但积极拥抱AI的同时,人类也在提防着AI。

以积极为ChatGPT“带货”的微软和亚马逊为例,两家巨头允许员工使用ChatGPT,但也禁止员工向ChatGPT分享敏感数据,以防后者的输出包含或出现类似公司机密信息。

而AIGC的另一代表性应用“AI换脸”也存在诸多法律风险,相关诈骗案、侵权纠纷并不鲜见。

诚然,AI技术对人类社会影响深远,但“技术中立”并不能成为规避责任与义务的理由。不仅技术服务提供方需要规范,使用者也需对自身有所约束。

关键词: ChatGPT