Charlotte Han 是一名技術專家和人工智能戰略家。居住在德國的 Han 是 Rethink.Community 的創始人。她熱衷于為善和人類設計人工智能。在此問答中,Han 回答了我們有關 AI 的問題。
Q:從技術發展的方式來看,未來五年哪些業務領域最有可能大規模引入人工智能?
A:我們需要跟著錢和數據去尋找這個問題的答案。公司通常將 AI 應用到他們的業務中,因為他們要么希望通過提高效率來增加收入或降低成本。
數據是人工智能的生命線。AI沒有數據就不行,所以改變首先發生在有數據的地方。
這些線索將我們引向業務的第一線:銷售和營銷。這些部門更快地采用人工智能,不僅因為它們對收入有直接影響,還因為它們希望更好地了解客戶:誰訪問了網站,誰下載了白皮書,誰與銷售代表交談,何時,以及他們為什么放棄購物車?AI 可以自動確定銷售線索并在適當的時間提示銷售代表跟進潛在客戶。人工智能還可以幫助為每個客戶提供個性化的內容和消息,并預測客戶需求。銷售和市場營銷也是實施 AI 的低風險業務領域,因為采用 AI 不需要對其他業務功能進行太多更改。
密切相關且不容忽視的是客戶支持部門。如果公司已經開始收集數據以了解客戶行為,那么只有利用從銷售和營銷中獲得的洞察力來提供更好的客戶支持才有意義,因為客戶保留會增加客戶的生命周期價值。讓現有客戶滿意并與公司保持長期關系比公司獲得新客戶更容易。雖然目前的虛擬座席無法取代真實座席的支持,但虛擬座席可以全天候不懈地工作并縮短響應時間。
另一個明顯的業務領域可能是供應鏈,因為它不斷被檢查并被要求提高績效和生產力。隨著邊緣計算(或邊緣人工智能)的興起,分析立即可用,邊緣計算機可以在本地做出決策,而無需將所有數據傳輸回中央服務器進行處理,然后再傳輸回來。這大大減少了延遲。
例如,通過在制造業中引入機器人技術和異常檢測軟件,在供應鏈中采用人工智能可以快速簡化流程并提高準確性。就像人工智能如何幫助預測客戶對銷售和營銷的需求一樣,它也可以應用于供應鏈,以更好地平衡更大范圍的供需。這不限制實物商品。能源公司對實時預測需求越來越感興趣,以預測電網激增并優化綠色能源。
處理供應鏈中的數據隱私風險的機會也更少,因為大部分數據是由流程或機器而不是個人數據生成的。我們還可以爭辯說,在 COVID-19 大流行之后,控制穩健的供應鏈將是迅速從經濟衰退中復蘇的秘密武器。不幸的是,這就是采用人工智能的落后者將遭受損失的地方。
問:在該時間范圍內優化引入人工智能的影響需要哪些技術進步?
答:我認為我們不需要仰望遙遠星系中的星星來夢想我們在地球上從未見過的先進技術來實現人工智能,但我們需要使人工智能的使用民主化數據。
云計算在某種程度上有所幫助,但當 5G 網絡廣泛可用時,邊緣計算將推動人工智能在各地的采用。邊緣計算機通常價格低廉,進一步消除了訪問 AI 的障礙。
企業內部也有工作要做。遺憾的是,一些高管仍然認為在他們的 iPad 上擁有 Tableau 儀表板就等同于擁有數據。
采用人工智能的基礎是創建允許數據流過管道的基礎設施。在理想的世界中,它會像自來水一樣按需提供:在您需要的時候出現。當企業中高達 80% 的數據是非結構化數據時,擁有數據管道或基礎設施尤為重要,因此擁有能夠從多個來源收集和攝取數據的正確架構,無論數據是結構化的還是非結構化的,都將是任何公司開始利用 AI 力量的第一步。借助此架構,您將能夠根據需要快速處理和移動數據,并獲得可加速業務發展的洞察力和分析。
公司高管采用AI的另一個痛點是內部AI人才短缺。因此,AutoML 或 AI 即服務的重要性只會增加。他們可以幫助公司在為業務投資正確的 AI 計劃之前進行實驗和概念驗證。
問:由于學習 AI 取決于可用數據的數量和質量,我們需要什么來使這些數據盡可能保持中立和公正?我們是否需要使用遞歸 AI 來“清理”主要 AI 的輸入?
答:這是一個艱難的過程,因為即使你有一個訓練有素且表現最佳的模型,該模型也可能會變得陳舊,并且可能會發生所謂的“概念漂移”。概念漂移是指輸入和輸出數據之間關系的不可預測的變化,它從根本上改變了模型做出“預測”的準確性。
最重要的是,如果人工智能是用深度神經網絡訓練的,因為 DNN 中有太多的隱藏層,人類就不可能理解或解釋 DNN 是如何得出這個結論的。這就是我們所說的黑盒 AI。因此,解決方案不是創建另一個 AI 來使第一個 AI 工作,如果兩者都無法理解的話。好消息是,許多研究人員正在研究幫助人工智能自我解釋的工具。這也是為什么可解釋人工智能領域是機器學習的一個新興領域,旨在幫助團隊開發可解釋和包容的模型。
直到現在,我們仍然主要依賴人類標記,所以這個問題的最佳答案實際上是我們人類。
從事人工智能項目的人需要意識到可能存在的偏見問題,并盡可能多地收集無偏見的數據。當人類在訓練過程中發現數據集中存在偏差時,人類將需要將數據集中的偏差歸零。團隊還需要讓他們的項目或產品接受更多的透明度和審計流程,以便我們能夠盡早發現問題。擁有不同的測試數據集以幫助您確保您的系統沒有偏差是很重要的。這項確保系統“最新”的工作正在進行且持續不斷。
我們是人類,我們每個人都有自己的偏見。如果AI團隊來自不同的背景,我們都可以成為彼此的制衡,那么我們就更有可能消除彼此的盲點。
也許我們還可以訓練 AI 檢查人類標記數據以發現異常并指出不一致(如果有)。
問:將一套固定的道德準則實施到具有重寫自己代碼能力的學習型 AI 中是否可行?考慮到不同工業社會的不同價值體系,這是否更可???
A:請放心,我們離AI編程本身、失控還很遠。
雖然擁有某種由國際社會商定的高水平道德準則很重要,就像我們擁有不擴散核武器條約一樣,但認為每個人、組織和實體都會點我和交叉是不現實的同一套 AI 道德規則中的所有細節都是如此,僅僅是因為每個人都有不同的議程。
當我自豪地擁有一輛自動駕駛汽車時(盡管那時我們可能不再需要擁有汽車),我可能不希望汽車決定轉動方向盤以避免撞死狗過馬路,結果在這個過程中殺了我。但是,如果我知道我的車不會在殺死一條狗時眨眼,作為車主,我會在道德上感到自在嗎?最后,我是否會從一家決定占據道德制高點并設計汽車以拯救馬車中嬰兒的制造商處購買汽車,但最終可能會殺了我?我不確定。當然,這就是著名的電車問題。
即使我們有一套規則,它仍然不適用于 AI。讓我們看看英語:沒有一種完美的方式可以說“最好的英語”,因為在現實中,語言不斷地被使用它的人有機地改變。沒有人真正遵守所有的語法規則。
AI 也隨著它所訓練的數據而發展。
基于規則的人工智能無法擴展,因為不可能寫出所有的規則。AI旨在探索所有可能性以找到最佳優化策略。按照設計,他們被訓練來尋找漏洞。我們寫的規則越多,AI 發現的漏洞就越多。
我認為道德價值將體現在每個公司或組織創造的產品的設計理念中,消費者將用他們的錢投票。也許這是一種非常幼稚和資本主義的思考方式。
政府的作用仍然很重要,盡管他們對新技術的理解通常太慢,無法對其進行適當的監管。然而,我們確實需要來自全球社區的政府在我們這個時代創造“人工智能武器的不擴散”,除了條約實際上是為了規范人類。
審核編輯黃昊宇
-
人工智能
+關注
關注
1791文章
46859瀏覽量
237579
發布評論請先 登錄
相關推薦
評論