本文作者:吞吞

1 個月寫 4 篇論文是什麼體驗?怕是茶飯不思、夜不能寐、廢寢忘食、夜以繼日,也不一定趕得出來。

當科室裡有位大佬,在 4 個月的時間裡產出瞭 16 篇論文,讓人真的忍不住想問,「恁這是咋弄(nèng)的嘞?」

「無他,唯 ChatGPT 爾。」大佬緩緩張開手心,但卻不是想和你擊掌,「已經發表瞭 5 篇。」

自 ChatGPT 及其他人工智能工具問世以來,就不斷有學者嘗試將其應用到學術領域。各大高校、頂刊也從一開始的明令禁止,到逐漸開放使用。

人工智能,會改變科研的「遊戲規則」嗎?

使用 ChatGPT,4 個月寫瞭 16 篇論文

這位「高產」的醫生名為 Som Biswas,是美國田納西大學健康科學中心的一名放射科醫生。

2022 年 11 月,Biswas 第一次從媒體上瞭解到 ChatGPT,當做研究的老本行遇上人工智能的新潮流,緣分從這一刻就開始瞭。「如果 ChatGPT 可以用來寫故事和笑話,為什麼不能用它來研究或發表嚴肅的文章呢?」[1]

圖源:參考資料 2

說幹就幹,Biswas 嘗試讓 ChatGPT 編寫瞭一些關於放射學醫學寫作的片段,這恰好是 Biswas 本就熟悉的領域。經過幾次來回嘗試,Biswas 在撰寫每個段落前給 ChatGPT 一些指示,最終產出瞭一篇完整的論文。

今年 2 月,這篇論文被發表在 Radiology (IF= 29.146),題為 ChatGPT and the Future of Medical Writing。

Biswas 在這篇論文的前言部分中表示,「人工智能已經有與人類作傢不相上下、甚至更勝一籌的水平,具有讓醫療寫作領域發生革命性變化的潛力。」[2]

從那時起,ChatGPT 似乎給 Biswas 打開瞭一扇新世界的大門,從 1 月到 5 月,四個月時間裡,Biswas 已經用 ChatGPT 編寫瞭至少 16 篇論文,其中 5 篇發表在 4 種不同期刊上。[1]

今年 4 月,他在 Pediatric Radiology 上發表瞭一篇關於 ChatGPT 應用的文章,通過舉例展示瞭 ChatGPT 能夠給出平均有效輻射劑量、CT 參數等信息,且能夠根據臨床實際情況進行調整。[3]

論文截圖

Biswas 也從不避諱,在提交論文時都會聲明該文章是由 ChatGPT 全部或部分撰寫的,他本人的觀點及討論則會標註來自「人類作者」。一位期刊審稿人表示,許多論文作者即使借助瞭人工智能的幫助也並不會承認,「至少 Biswas 承認瞭自己在使用 ChatGPT,我們應該給他相應的認可。」[4]

不過,嘗到甜頭的 Biswas 漸漸開始「跨界」,論文主題不再局限於放射科。他承認,自己使用 ChatGPT 編寫瞭有關軍事、教育、農業、社交媒體、保險、法律和微生物學等領域的論文,其中部分也得到瞭發表,包括一篇關於計算機編程的論文,以及關於全球變暖和公共衛生的兩封致編輯的信。[4]

頂刊解除禁令,但「硬傷」無法忽視

Biswas 並不是唯一一個利用 ChatGPT 實現論文高效率寫作的人。Nature 一篇報道中,兩位科學傢借助人工智能工具 ChatGPT,在不到一個小時的時間內完成瞭數據收集、編寫數據分析代碼、解釋結果、並生成一篇完整論文[5]。

不過,隨之而來的一項擔憂是,不少使用者都發現 ChatGPT 存在虛構內容、參考文獻的行為。

一項研究審查瞭 ChatGPT 生成的放射學文章(與已發表或正在同行評審中的文章進行對比),經過兩名放射科醫生獨立分析,發現 5 篇文章中有 4 篇內容明顯不準確,且引用瞭虛構的文獻;另一篇論文質量較好,介紹和討論部分完成度都非常高,然而所有的參考文獻都是虛構的。該研究作者在文中警告稱,這些虛構的內容「對沒有經驗的讀者來說可能看起來是真實的」。[6]

論文截圖

另一方面,「高產」也讓人擔心期刊的投稿會被大量低質量的文章淹沒[5]Annals of Biomedical Engineering 期刊的主編表示,自 ChatGPT 被應用以來,投稿數量指數上升,「給編輯的信」從以往幾乎為零,到現在每周兩三封,「但有時 10 篇內容都長得一模一樣,隻是改瞭幾個用詞。」[4]

不過,學界對 ChatGPT 的態度似乎正在放松。

今年 3 月,牛津、劍橋、佈裡斯托、愛丁堡等 8 所羅素大學成員宣佈禁止使用 ChatGPT。但 7 月,牛津大學、劍橋大學、伯明翰大學等 24 所英國頂尖高校組成的羅素大學集團又宣佈解除 ChatGPT 使用禁令,並推出瞭詳細的使用原則,支持和規范學生和研究人員使用生成式 AI。

圖源:羅素大學集團網站截圖

同樣地,今年 1 月,Science 系列期刊曾在編輯政策中明確規定,論文中不得包含任何 AI 工具生成的文本、數字和圖像,AI 程序也不能被列為作者,違反相關政策的行為等同於篡改圖像和剽竊等學術不端。

而當地時間 11 月 16 日,Science 系列期刊發佈新的編輯政策:對於論文中的圖像和文本,隻要在「方法」部分按要求披露,即可使用生成式人工智能(AI)和大語言模型。

圖源:Science 網站截圖

在學術領域,ChatGPT 的應用可能也不止於撰稿。

還是那位高產的 Biswas 醫生,今年九月,他又在 Yale Journal of Biology and Medicine 發表瞭一篇使用 ChatGPT 進行同行評審的可行性研究。

對比 ChatGPT 生成的評論以及人工評論,該研究認為,ChatGPT 具備能夠提升審稿效率、確保審稿標準一致性等優勢,但同時 ChatGPT 可能難以深入理解高度專業化的主題,不具備充分評估復雜研究結果的科學有效性或準確性的專業知識,目前也無法審查圖像數據。

11 月 8 日, 預印本平臺 bioRxiv 宣佈瞭一試點項目,使用名為 large language models(LLMs)的文本生成神經網絡來給出網站上所有新預印本的概述,針對從一般到專傢的不同閱讀水平創建瞭三個簡短的摘要。

bioRxiv 聯合創始人表示,如果該試點成為一項成熟的服務,bioRxiv 可能會考慮定期讓作者參與內容的校對和批準[9]。目前,為瞭盡量減少錯誤帶來的後果,該項目尚未推廣到 medRxiv。

策劃:yuu.|監制:carollero、gyouza

題圖來源:視覺中國

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部