提問者:Marcel Consée,貿澤電子 問:按照您對技術發展的看法,哪些業務領域在未來五年里最有可能大規模引入AI? 答:我們將需要順著資金和數據的路子來找出這個問題的答案。公司在其業務中采用AI通常有兩種原因,或者是希望增加營收,或者是希望通過提高效率來降低成本。 數據是AI的生命線——沒有數據,AI便無法工作,因此變革將首先發生在有數據的地方。 這些線索將把我們引向業務的最前沿:銷售和營銷。這些部門會更快地采用AI,不僅是因為其對營收的直接影響,而且還在于這些部門希望更好地了解客戶:誰訪問了網站?誰下載了白皮書?哪些人在何時與銷售代表進行了交談?他們為什么放棄了購物車中的產品? AI可以自動確定銷售線索,并適時提示銷售代表跟進潛在客戶。AI還有助于為每個客戶提供個性化的內容和消息以及預測客戶需求。銷售和營銷也是實施AI的低風險業務領域,因為采用AI不需要對其他業務職能進行太多改動。 密切相關并且不容忽視的一個部門是客戶支持。如果公司已經開始收集數據來了解客戶行為,那么利用從銷售和營銷部門獲得的見解來提供更好的客戶支持是有意義的,因為留住客戶就增加了客戶終身價值。對于公司來說,讓現有客戶滿意并保持與公司的長期關系,要比獲得新客戶來得容易。盡管目前虛擬座席無法替代人工座席提供的支持,但虛擬座席可以不知疲倦地全天候工作,并縮短了響應時間。 其他顯而易見的業務領域可能還有供應鏈,因為它不斷受到考查,要求改進表現和提高效率。隨著邊緣計算(或邊緣人工智能)的出現,不僅可即時提供分析,還可以由邊緣計算機完成本地決策,而不必將所有數據傳至中央服務器進行處理后再傳回, 大大減少了延遲。 以在制造中引入機器人和異常檢測軟件為例,在供應鏈中采用AI可以快速簡化流程并提高準確性。正如AI能夠幫助銷售和營銷部門預測客戶需求那樣,它也能應用到供應鏈,在更大規模上更好地平衡供求關系。這并不會將實體商品限制在外——能源公司對實時預測電網浪涌和綠色能源優化的興趣度越來越高。 供應鏈中出現數據隱私風險的可能性也會減少,因為數據大多由流程或機器生成,而不是個人數據。我們還可以認為,在新冠疫情過后,擁有可控制的強大供應鏈將是迅速從經濟衰退中恢復的秘密武器。遺憾的是,這也將是尚未采用AI者所要經歷的。 問:為了優化在這個時間框架中引入AI的影響力,需要哪些技術進步? 答:我并不認為實施AI需要什么遙不可及的先進技術,但我們將需要實現數據使用的民主化。 云計算在某種程度上曾帶來幫助,但是當5G網絡變得廣泛可用時,邊緣計算將推動AI在各方各面的普及。邊緣計算機通常成本低廉,這進一步消除了采用AI的障礙。 企業內部也有工作要做。遺憾的是,一些高管仍舊認為在他們的iPad安裝了Tableau儀表板就等同于擁有了數據。 采用AI的基礎是創建允許數據在管線中流動的基礎設施。在理想世界中,它會像觸手可及的自來水一樣,可以隨時按需提供。如果業務中多達80%的數據均屬于非結構化數據,那么擁有數據管線或基礎設施就尤顯重要,因此擁有能夠從多個來源收集和提取數據(無論是結構化還是非結構化數據)的正確架構將是任何公司開始利用AI力量的第一步。借助這種架構,你將能夠根據需要快速處理和移動數據,并獲得可加速業務發展的見解和分析。 公司高管采用AI的另一個痛點是內部AI人才的短缺。因此,AutoML或“AI即服務”的重要性只會增加。它們可以幫助公司先進行試驗和概念驗證,然后再投資于滿足業務需要的正確AI計劃。 問:由于學習型AI取決于可用數據的數量和質量,我們需要用什么來讓這些數據盡可能保持中性無偏? 我們是否要使用遞歸性AI來“刷洗”主要AI的輸入? 答:這個很難做到,因為即使你有經過完美訓練的模型,是模型中的佼佼者,這個模型也可能會過時,會發生所謂的“概念漂移”。概念漂移是指輸入和輸出數據之間關系不可預測的變化,這種變化在根本上改變了模型作出“預測”的準確性。 此外,如果用深度神經網絡訓練AI,會因DNN中有太多的隱藏層,而無法理解或解釋DNN為何能得出這種結論。這就是我們所說的黑箱AI。因此,并不能通過創建一個無法理解的AI去解釋另一個無法理解的AI。好消息是,許多研究人員正在開發讓AI實現自我解釋的工具。這也是為什么可以解釋AI是一個新興的機器學習領域,來幫助團隊開發可解釋并且包羅廣泛的模型。 直至今日,我們依舊在很大程度上依賴于人工標記,因此這個問題的最佳答案實際上是我們人類。 從事AI項目的人類需要意識到可能存在的偏倚,并盡可能多地收集無偏數據。人類在訓練過程中發現數據集中的偏倚時,需要將數據集中的偏倚歸零。同時還需要讓他們的項目或產品經過更多的透明度和審核流程,這樣就可以盡早發現問題。擁有不同測試數據的數據集非常重要,可確保系統不出現偏倚。這項旨在確保系統“保持最新”的工作需要一直不間斷地運行下去。 作為人類,我們每一個人都有著自己的偏見。如果AI團隊來自不同的背景,我們可以互相制衡,就更有可能消除彼此的盲點。 或許我們也能夠訓練AI去檢查人工標記數據,以找出存在的任何異常和不一致之處。 問:在具有重寫自身代碼能力的學習型AI中實施一套固定的道德準則是否可行? 鑒于不同工業社會價值體系的差異,這種做法是否可取? 答:盡管放心,我們離實現AI自我編程和擺脫控制還很遙遠。 雖然制定某種高水平的道德準則是很重要的,就像雖然制定了《不擴散核武器條約》一樣,但每個人都有著不同的打算,所以認為每個人、每個組織和實體都會一絲不茍地遵循同一套AI倫理規則中的各項細節并不現實。 當我擁有一輛自動駕駛汽車時(盡管那時我們可能不再需要擁有汽車了),我不希望汽車為了避讓一只橫穿馬路的狗而猛打方向盤,結果讓我自己送命。但作為車主,如果知道我的車會撞死一只小狗,我的良心會過意的去嗎? 最后,如果汽車廠家決定采取最高道德準則,設計的汽車優先保護推車中嬰兒的生命,但卻有可能導致我送命,我還會不會買這輛車? 我可沒那么大的把握。這就是著名的電車難題。 即使我們有了一套規則,這對AI而言也仍然不可行。比如英語這種語言,并沒有“最佳”的表達方式,因為在現實中,語言是由不斷使用它的人有機地改變的。沒有人真正遵循所有語法規則。 AI也會隨著訓練數據而發展。 基于規則的AI無法擴展,因為不可能寫出所有存在的規則。AI的目的就是探索全部可能性,以找到最佳的優化策略。設計決定了它們經過訓練會去尋找漏洞。我們寫下的規則越多,AI將找出的漏洞也就越多。 我認為道德價值將反映在每個公司或組織所創造產品的設計理念中,消費者會用他們的錢來投票。也許這是看待這個問題的一種非常單純和資本主義的方式。 雖然政府通常對新技術了解得太慢,無法進行正確監管,但其扮演的角色仍舊十分重要。但是,我們確實需要國際社會中各國政府在我們這個時代創立《不擴散AI武器條約》,只不過這個條約是用于對人的監管。 文章來源:貿澤電子 作者簡介:Charlotte Han致力于處理數據以及制定品牌和數字策略。在亞洲長大的她,在硅谷取得美國國籍后現定居歐洲,這種不平凡的經歷讓她學會了不要把任何事物視為理所當然,而是要把看似無關的事物聯系起來。她對所有的科學技術都很感興趣,尤其是那些能改善人類生活的技術。她還喜歡與那些標新立異、不墨守成規、勇于創新的人一起交流。 |