深度造假寫手。
今年年初,OpenAI開發了一個“AI造假寫手”,由于被認為“太危險”而無法完整對外公開。最近,這款AI模型發布了更全新,更強大的版本。據媒體所言,現在,它真的可以自如地寫假新聞或者垃圾郵件了。
這款AI的模型叫做GPT-2,它的內部包含了15億個參數,是在800萬個網頁數據集上訓練而成的。而制作它的主要目的,是用以接替自己的第一代,執行語言建模的任務。
簡單來說,它的功能就是根據人類給出的一句話,編寫接下來的文本,同時在此基礎上,對整個文章細節進行補充。
在模型公布新版本后,一些感興趣的AI專家對其進行了測試。他們試著把一條真新聞的內容放進了模型中,這條內容為:
“
搜狗正在打造AI語音仿人版,以后讀者可以聽到作者朗讀的有聲小說。
”
AI寫手接收到該信息之后,便編寫了如下文字:
“
根據研究人員表示,這種閱讀方式的創意來源于Kindle用戶。同時,一部分安卓用戶也表達了同樣的需求。以下有三個原因可以解答為何他們需要這項服務。首先,使用這些設備的用戶,和傳統的電腦上閱讀者的習慣不同……未來,當讀者使用該功能時,可能會真的以為作者們在為他們朗讀小說。
”
BBC當時報道的真新聞從AI續寫的內容中,可以看出它具備有很強的邏輯能力,能找到輔助資料對新聞進行補充,整個短訊也足夠完整。一家科技網站的作者對此結果感到害怕,他認為這項技術代表著壞人可以操縱他人,在他看來,這甚至比任何槍支還要危險。
其實早在年初之時,就已經有許多人對GPT-2表示了擔憂。在這個原本就信息爆炸,人們越來越難分清信息真假的年代,GPT-2可以毫無違和的融入進去。如果它真的能獨立、完整地書寫各類新聞,由誰使用它就變得尤為重要。
如果使用者居心不良,它可以發表極端言論,偽造內容,成為引導輿論的政治工具。OpenAI也意識到了這個問題,因此他們一直沒有公開完整的預訓練模型,都是放出小版本的模型供以測試。
謝菲爾德大學的計算機教授諾埃爾卻表示,人類可能沒必要感到恐慌。在對模型進行了多次的測驗,輸入了很多次文字開頭后,他發現AI寫手還是犯下了許多錯誤,好比不連貫和奇怪的字句,以及和輸入標題毫無關系的內容填充。
“
我輸入了‘火雞討厭圣誕節’,但是得到的答案是:火雞是世界上唯一一個不慶祝圣誕節的國家。當然,附帶上了一些不相關的句子。
”
圖源:fxtradingrevolution人工智能咨詢公司的創始人戴夫,也對這個模型進行了測試,他輸入的是一個經典英國笑話的開頭:一個男人走進了酒吧。
結果,GPT-2續寫的內容是:
“
他點了2品脫啤酒和2杯蘇格蘭威士忌。當他想要結賬的時候,他遇到了2個人,其中一個大喊著說:‘這杯是給敘利亞的!’這名男子說完后,喉嚨就被人刺傷,血涌不止。
”
在戴夫看來,這個故事看似荒謬,實際上卻說明了模型的部分訓練數據,就是來自于互聯網新聞報道。它呈現出來的偏見,就是現當下社會新聞所暴露出來的問題。如果AI寫手持續以此作為訓練,模型編寫的內容可能會引起更多的爭議。盡管有所擔憂,戴夫相信這些問題都會被解決。
而他認為,一旦大家對GPT-2的擔憂被消除后,人們可能會面對一個更重要的探討:人工和機器制造內容越來越難以區分之時,我們究竟應該如何正確看待這個世界。
-
人工智能
+關注
關注
1791文章
46896瀏覽量
237664 -
OpenAI
+關注
關注
9文章
1045瀏覽量
6411
發布評論請先 登錄
相關推薦
評論