chatgpt生成論文題目 識(shí)別ChatGPT生成內(nèi)容,首批對(duì)標(biāo)打擊工具誕生!
智東西
編譯 | 吳菲凝
編輯 | 李水青
智東西3月2日?qǐng)?bào)道,據(jù)英國(guó)《金融時(shí)報(bào)》科學(xué)評(píng)論員安佳娜·阿胡佳分析,所引用的公開(kāi)數(shù)據(jù)中可能包含大量虛假信息,導(dǎo)致生成的文本不準(zhǔn)確、不真實(shí)。目前已有一些科研機(jī)構(gòu)宣布禁止作者使用,但仍有人會(huì)利用其查詢資料,該行為將會(huì)對(duì)科研產(chǎn)生不利影響。
近日,首批打擊生成內(nèi)容的工具也隨之誕生。斯坦福學(xué)生團(tuán)隊(duì)為打擊學(xué)生用LLM完成書(shū)面作業(yè)的情況,研發(fā)了一款名為的新工具與相抗衡,幫助識(shí)別論文是人工完成還是機(jī)器生成的。
一、不完美的自動(dòng)生成,充斥錯(cuò)誤數(shù)據(jù)與虛假信息
盡管回答中仍存在錯(cuò)誤,但其快速、擬人的特性使它在某些情況下可用來(lái)代替人力,尤其是在學(xué)生論文寫作和新聞編輯方面。國(guó)際文憑組織在3月1日宣布,只要學(xué)生在論文尾部注明引用來(lái)源,用來(lái)撰寫論文是可被允許的。
阿胡佳認(rèn)為,以為代表的大型語(yǔ)言模型(LLM)經(jīng)過(guò)訓(xùn)練可以通過(guò)在互聯(lián)網(wǎng)上搜集相關(guān)信息來(lái)回答用戶的問(wèn)題,從而生成具備信服力的學(xué)生論文、權(quán)威法律文件和可信的新聞報(bào)道。
但機(jī)器學(xué)習(xí)的數(shù)據(jù)中往往包含一部分錯(cuò)誤數(shù)據(jù)和虛假信息,導(dǎo)致機(jī)器自動(dòng)生成的文本中充滿錯(cuò)誤,這種情況也催生了智能識(shí)別文本來(lái)源工具的研發(fā)。在阿胡佳看來(lái),科學(xué)也需要努力才能適應(yīng)這個(gè)新時(shí)代,區(qū)分人工智能與人類智能的重要性與日俱增。
首席執(zhí)行官薩姆·奧特曼(Sam·)于去年12月已警告過(guò),“在某些方面足夠出色chatgpt生成論文題目,反倒給人一種嚴(yán)重誤導(dǎo)印象”。他認(rèn)為公司在的穩(wěn)定性和真實(shí)性方面還有很多工作要做。該公司正在開(kāi)發(fā)加密水印,這是一種機(jī)器可讀的秘密標(biāo)點(diǎn)符號(hào)、拼音和單詞序列,并且還在研發(fā)一個(gè)“分類器”來(lái)區(qū)分機(jī)器合成文本和人工生成文本,用兩種文本分別舉例來(lái)訓(xùn)練。
二、打擊生成內(nèi)容,首批工具誕生
斯坦福大學(xué)的研究生艾瑞克·米歇爾(Eric )及其團(tuán)隊(duì)提出了一種名為的全新算法,旨在成為打擊大學(xué)論文中LLM自動(dòng)文本生成的首批工具之一。該算法用于判斷文本是否是機(jī)器生成,而且不需要事先或收集數(shù)據(jù)集。
在工作過(guò)程中需要先詢問(wèn)聊天機(jī)器人對(duì)示例文本的“喜愛(ài)程度”(即對(duì)文本的人工含量進(jìn)行分析),“喜愛(ài)程度”高則代表自動(dòng)生成文本與人工文本相似度高,算法再進(jìn)一步打亂文本、改變措辭,使更改后的文本更具有可讀性。研究人員稱,在早期測(cè)試中,該方法在95%的情況下都能正確區(qū)分人類和機(jī)器作者。
但需要注意的是,的結(jié)果并未經(jīng)過(guò)同行評(píng)審chatgpt生成論文題目,因此無(wú)法保證其對(duì)機(jī)器生成文本判斷的可靠性。該工具的其他局限還包括有:當(dāng)現(xiàn)有的填充模型不能表現(xiàn)有意義的改寫空間時(shí),某些域的性能則會(huì)降低,從而降低曲率估計(jì)的質(zhì)量;以及相較于其他的檢測(cè)方法chatgpt生成論文題目,需要的計(jì)算量更大。
三、知名期刊禁用AI創(chuàng)作,避免偽科學(xué)泛濫
德國(guó)馬克斯·普朗克圖賓根生物研究所的教授邁克爾·布萊克( )曾在推特上說(shuō),他對(duì)在自己研究領(lǐng)域的回答感到困惑,它甚至還將一篇虛假論文劃分給真正的研究人員。他說(shuō):“大部分內(nèi)容乍一聽(tīng)是正確且權(quán)威的,但實(shí)際上是錯(cuò)誤的。這種情況非常危險(xiǎn)。”阿胡佳認(rèn)為,他所說(shuō)的這種危險(xiǎn)來(lái)自于虛假的引用內(nèi)容充斥文獻(xiàn)并且歪曲了經(jīng)典。
《》雜志現(xiàn)在已經(jīng)完全禁止AI自動(dòng)生成文本;《》允許作者在提前聲明的情況下使用,但禁止將AI作為共同作者。
在阿胡佳看來(lái),大部分普通人都不會(huì)通過(guò)正規(guī)期刊來(lái)驗(yàn)證他們的科學(xué)想法,在這類爆發(fā)式出現(xiàn)的情況下,大量偽科學(xué)的生成可能會(huì)進(jìn)一步污染公共話語(yǔ)體系。
結(jié)語(yǔ):保持工具理性,謹(jǐn)慎對(duì)待自動(dòng)生成內(nèi)容
本質(zhì)上是大型語(yǔ)言模型(LLM),其核心意義在于學(xué)習(xí)并模仿人類語(yǔ)言體系,但對(duì)于語(yǔ)言背后的價(jià)值體系和事實(shí)依據(jù)卻難以做出恰當(dāng)?shù)淖詣?dòng)衡量。核查事實(shí)能力的缺失,使它成為虛假信息滋生瘋長(zhǎng)的溫床。當(dāng)用戶對(duì)其采取不加區(qū)分的依賴態(tài)度時(shí),可能導(dǎo)致潛在的算法操控甚至工具反噬,最終淪為“工具囚徒”。
無(wú)論技術(shù)發(fā)展到何種地步,我們必須清楚“是我們?cè)诳刂艫I,而不是AI控制我們”。
免責(zé)聲明:本文系轉(zhuǎn)載,版權(quán)歸原作者所有;旨在傳遞信息,不代表本站的觀點(diǎn)和立場(chǎng)和對(duì)其真實(shí)性負(fù)責(zé)。如需轉(zhuǎn)載,請(qǐng)聯(lián)系原作者。如果來(lái)源標(biāo)注有誤或侵犯了您的合法權(quán)益或者其他問(wèn)題不想在本站發(fā)布,來(lái)信即刪。
聲明:本站所有文章資源內(nèi)容,如無(wú)特殊說(shuō)明或標(biāo)注,均為采集網(wǎng)絡(luò)資源。如若本站內(nèi)容侵犯了原著者的合法權(quán)益,可聯(lián)系本站刪除。