當AI如ChatGPT在2022年末突然嶄露頭角時,不僅展現了AI的驚人進步,還描繪出了一個充滿可能性的未來,重新定義著我們的工作、學習和娛樂方式。盡管AI的潛力對許多人來說顯而易見,但其中隱藏了一些棘手的倫理和風險問題。
應對這些風險就像解開一幅巨大的拼圖,這幅拼圖定義著我們的時代。因此,許多AI領域的專家正積極倡導制定一些基本規則,以確保AI的使用受到約束。畢竟,AI的應用不僅僅是口號,它已經變得至關重要。
我們正在深入研究專家們的見解,解開圍繞他們的道德困境,并研究如何影響人工智能和其他技術的未來。
倫理與偏見
人工智能系統需要使用數據進行訓練。但數據集往往是由有偏見或不準確的人制作的。因此,人工智能系統會使偏見長期存在。在招聘實踐和刑事司法中尤其如此,管理這些偏見可能很困難。
IEEE高級會員Kayne McGladrey表示:“我們可以手動或自動審計軟件代碼中的隱私缺陷。同樣,我們可以審計軟件代碼的安全缺陷。但是,我們目前無法審計軟件代碼是否存在道德缺陷或偏見,即將出臺的大部分法規將對人工智能模型的結果進行歧視性篩選。”
改變工作方式
隨著生成人工智能的興起,公司正在重新構想如何完成工作。雖然很少有人認為需要創造力和判斷力的工作可以完全自動化,但人工智能可以提供幫助。例如,當作家陷入困境時,生成型人工智能可以提供對話想法。它不能充當你的律師,但一個好的律師可以利用生成人工智能來撰寫動議的初稿,或進行研究。
IEEE會員Todd Richmond說:“我們需要共同弄清楚什么是“人類的努力”,我們愿意把什么交給算法,比如制作音樂、電影、行醫等。”
在全球技術領袖的調查(https://transmitter.ieee.org/impact-of-technology-2024/)中,其中50%的受訪者表示,將AI整合到現有工作流程中存在困難,是他們對于在2024年使用生成式AI的前三大擔憂之一。
準確性和過度依賴性
生成型人工智能可以”自信”地闡述事實,但問題是這些事實并不總是準確的。對于所有形式的人工智能,很難弄清楚該軟件究竟是如何得出結論的。 在調查中,59%的受訪者表示,“過度依賴人工智能和其潛在的不準確性”是他們組織中人工智能使用的首要問題。 部分問題在于訓練數據本身可能不準確。 IEEE終身會士Paul Nikolich說:“驗證訓練數據很困難,因為來源不可用,且訓練數據量巨大。” 人工智能可能越來越多地被用于關鍵任務、拯救生命的應用。 “在我們使用人工智能系統之前,我們必須相信這些人工智能系統將安全且按預期運行,”IEEE會士Houbing Song說。 在2024年及以后,預計將大力確保人工智能結果更加準確,用于訓練人工智能模型的數據是干凈的。
-
AI
+關注
關注
87文章
30146瀏覽量
268421 -
人工智能
+關注
關注
1791文章
46859瀏覽量
237579 -
數據集
+關注
關注
4文章
1205瀏覽量
24644
原文標題:面對未來的AI:三大挑戰
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論