使用 AI 通用模型來完成代碼生成這類非常具體的任務可能會帶來問題。人工智能生成的代碼就像是陌生人的代碼,它們可能并不符合你的代碼質量標準。這種情況下,創建專業或專用的模型不失為一條出路。
Luise Freese 和 Iona Varga 在 2023 年的 NDC Oslo 大會上探討了 AI 模型的實踐困境和倫理相關問題。
Varga 提到,“人工智能”這個詞給人一種智慧的感覺,雖然這個名字實際只是代表了這些模型的構建方式。以節點相連的形式模仿人腦中神經元與突觸連接而成的網絡,這類模型因此而得名“人工網絡”或“人工智能”。
Freese 補充道,抽象來說,計算機是完全依賴于或開或關的晶體管,通過這些開關的組合,我們得以操縱比特。由于晶體管之間沒有相互的糾纏,這些開關最終會帶來這樣的結果:
因此,計算機并不會思考,不過是我們的人工智能算法賦予了它們個性和特征,比如“讓我考慮一下”這類禮貌說辭。AI 僅僅是利用統計數據對事物進行預測、分類或組合。
Varga 提到,AI 的問題在與使用極其通用的模型或是基礎模型完成非常具體的任務。大語言模型(LLM)的工作原理是先分析問題、創建一兩個詞語,再根據統計數據預測下一個標記的最佳匹配。此外,LLM 本身是無法對事實進行核查的,因為這類模型的設計目的是生成而非驗證。
如果我們試圖建立一個能解決所有 AI 問題的 AI 模型,那么我們將會創造出一種自我放大的螺旋式下降,Freese 補充道。若想實現螺旋式上升,那就應該少用基礎模型,多用更為具體的模型,后者中有一部分實際就是搭建在基礎模型之上的。
AI 或許能生成代碼,但這些代碼是否能安全地使用,是否能滿足我們對質量的標準要求?Varga 認為這些問題只能由真正的人類來回答,這一過程并不容小覷。歸根結底,就像是代碼的編寫一樣,調試陌生人的代碼遠比自己從頭到尾參與其中的代碼更為困難。
一般模型的理解能力也更為通用,這在代碼生成問題上可能會帶來問題,正如 Varga 所解釋的:
舉例來說,React v17 或 v16 這些可能沒有直接反應在模型的上下文中,但模型也能了解這些代碼庫。或許你會發現自己生成的一個函數中會混雜有兩個版本的代碼。
Varga 認為,多數情況下 AI 都是解決問題的好幫手。但使用 AI 就意味著你要去檢查、驗證、修改、編輯或重寫部分內容,而這一部分可能才是我們低估 AI 工具帶來工作量的地方。
InfoQ 針對人工智能所帶來的挑戰問題采訪了 Luise Freese 和 Iona Varga。
InfoQ:什么因素會造成 AI 的失敗?
Iona Varga: 一般來說,AI 并不是命中注定要失敗的。我是醫學物理出身的,我也見過很多優秀的 AI 工具,它們能出色地完成波彈性成像的實時剪切。
但由于虛假數據和扭曲事實問題的存在,這些結果并不完全可信。舉例來說,川普就職典禮上,實際的到場人數是要少于最初公布的數據。試著問模型就職典禮的公園有多熱鬧,你大概會得到一個出乎意料的答案。但同樣,數據的來源時至今日也有頗具爭議的歷史背景,它們可能會出于政治劇本或標準等原因而被修改。
InfoQ:倫理道德如何才能幫助我們解決 AI 所帶來的問題?
Luise Freese:倫理道德作為工具本身是幫不上太多忙的。倫理只是一種工作的方式,就像是 DevOps 一樣。一旦你有了規劃,知道該做什么了,“倫理道德”就是你對“完成”的定義。我所用的數據是否覆蓋了所有產品使用相關的人或事?通過這些道德的檢測,我們的工作方式將會在可訪問性、包容性和避免偏見方面得到改善。
本文轉載自InfoQ公眾號
-
AI
+關注
關注
87文章
30122瀏覽量
268407 -
代碼
+關注
關注
30文章
4747瀏覽量
68349 -
大模型
+關注
關注
2文章
2324瀏覽量
2480
發布評論請先 登錄
相關推薦
評論