相信不少作者也是較爲了解ChatGPT這一(yī)AI軟件的,可以說科研圈,快被ChatGPT生(shēng)成的論文吞沒了!近日,就有一(yī)篇數學論文被發現ChatGPT痕迹,慘遭撤稿。
一(yī)篇收錄于期刊上的論文,提出了一(yī)種複雜(zá)數學方程的全新解決方案。本來是一(yī)件皆大(dà)歡喜的事,但直到在論文的第三頁出現「重新生(shēng)成回複」(Regenerate Response)這一(yī)短語。讓人意識到是較爲熟悉的ChatGPT這一(yī)智能軟件。果然論文作者承認在寫作論文稿件時确實使用了ChatGPT。
而這篇論文在5月被提交,7月發出了修訂版,在兩個月的同行評審期間,都沒有人發現其中(zhōng)的異常。現在,決定撤回這篇論文,理由是作者在提交論文時,并沒有聲明自己使用了ChatGPT。期刊的同行評審和研究誠信主管Kim Eggleton表示,「這種行爲違反了我(wǒ)們的道德政策。」
當然以上這隻是冰山一(yī)角,其實從今年4月以來,有十幾篇論文都留下(xià)了ChatGPT的使用痕迹——「Regenerate response」或「作爲一(yī)個語言模型,我(wǒ)……」
而對于寫論文時究竟可不可以用ChatGPT?這一(yī)問題,Elsevier(愛思唯爾)和Springer Nature(施普林格·自然)在内的許多出版商(shāng)都有明确規定:大(dà)語言模型工(gōng)具用是可以用的,隻要作者聲明自己使用了即可。不過目前看來,大(dà)部分(fēn)使用了ChatGPT的同行評審論文,都沒有聲明這一(yī)點。
另外(wài),在愛思唯爾期刊中(zhōng),也發現了一(yī)些典型的ChatGPT「黑話(huà)」。
比如一(yī)篇8月3日發表在上的論文,主題是電(diàn)子商(shāng)務對發展中(zhōng)國家化石燃料效率的影響。其文章裏有些方程完全就是不知(zhī)所雲。不過最大(dà)的可疑之處在于,在某張表格上方,出現了這樣一(yī)行字:「請注意,作爲一(yī)個語言模型,我(wǒ)無法生(shēng)成具體(tǐ)的表格或進行測試……」
對此,Elsevier的一(yī)位發言人表示,他們已經發現了這個問題,正在對這篇論文進行調查。
如今的學術圈,可能已經充斥着一(yī)大(dà)批AI生(shēng)産的「垃圾」論文。我(wǒ)們根本無從分(fēn)辨,哪些是經過認真研究産生(shēng)的嚴肅學術成果,哪些是AI炮制出來濫竽充數的「垃圾」。而出現這一(yī)問題的原因,有人問了,爲什麽那些由AI生(shēng)成的假論文,能屢次通過如此嚴格的同行評審?
同行評審:時間緊,人不夠
一(yī)方面,ChatGPT這類的技術還比較新,并不是所有人都能有效辨别;另一(yī)方面,同行評審可能根本沒有時間來檢查這個問題。對此,期刊中(zhōng)那些由此生(shēng)成且未被發現的論文,指向了一(yī)個更深層次的問題:同行評審往往足夠多的沒有時間,來徹底檢查稿件中(zhōng)的可疑之處。
以上就是對學術圈使用ChatGPT生(shēng)成器這一(yī)論文造假行爲的現象說明,對此可閱讀了解一(yī)下(xià)。如果有相關SCI發表疑問的,都可随時聯系本站學術顧問。