ChatGPT 总是会自己胡编乱造一些看起来正确的答案,俗称一本正经的胡说八道。然而并不是所有人都像你一样这么优秀,还是有些人不了解这些技术的限制,其中就包括律师 Steven A. Schwartz。一名名叫 Roberto Mata 的男子起诉阿维安卡航空公司 Avianca,他聘请了 Schwartz 来为其辩护。Schwartz 义正言辞地提交了一份 10 页的摘要文件,然而尴尬的是,其中引用的 6 个相关案例并不存在。原来,这些案例都是 Schwartz 咨询 ChatGPT 时生成的,Schwartz 并不知道 ChatGPT 有可能捏造事实,他甚至还让 ChatGPT 自我检查了一遍这是不是真实的案例,ChatGPT 跟他打包票说:「是的」。事情发生后,Schwartz 承认自己未意识到程序提供的内容可能是错误的,并向法庭表示懊悔和保证以后不再使用该程序。大学禁止学生使用 ChatGPT 做作业的案例屡见不鲜,但大学老师 C.W. Howell 反其道而行之,让他的学生全都使用 ChatGPT 来完成他布置的作业。C.W. Howell 称他受到了 Gary Marcus 的启发,他让他的学生们按照他给定的提示词来生成一篇文章,学生的任务是找出文章的错误,例如虚假的应用、误解的来源和错误的分析。结果出乎意料,所有 63 篇文章都有错误的内容,如此高的错误率让 C.W. Howell 感到震惊。C.W. Howell 称这场实验是为了让学生们意识到 ChatGPT 的不可靠性,一些学生还由此对人工智能有了更深的思考,例如 AI 缺乏批判性思维能力等等。C.W. Howell考虑撰写一篇文章,对这个话题进行更深入的探讨,并分享他们的研究结果。