AI是福是禍?LeCun、吳恩達等圈內大神做出2019年新預測
他說:“我試圖引用了幾個我認為對實際應用十分重要的領域。AI的實際應用會遇到一定的阻礙,但我認為這些阻礙都會被解決。”
本文引用地址:http://www.104case.com/article/201902/397445.htm在未來一年里,吳恩達很高興看到人工智能及機器學習研究兩個領域都取得了進展,這將有助于推動整個領域的發展。一方面是AI能通過更少的數據得出精確的結論,該領域的一些人稱之為“少量樣本學習”。
他說:“我認為深度學習的第一波進展主要是大公司利用大量數據創建巨大的神經網絡,對吧?所以如果你想創建一個語言識別系統,就需要進行10萬小時的數據模擬。如果想創建機器翻譯系統,就需要模擬極大量的平行語料庫中的句型,從而創造出很多突破性結果。現在我越來越多地看到從小數據中出的成果。所以即使你有1000張照片,你也可以嘗試去做出點什么結果。”
令一方面則是被稱為“通用可見性”的計算機視覺方面的進展。計算機視覺系統經過斯坦福大學高端X光機拍攝的原始圖像的訓練,效果可能會非常地好。很多該領域的先進公司及研究人員已創造出了比放射科醫生更出色的系統,但它們并不是很靈活。
“但如果你把你的訓練模型應用到拍攝圖片有點模糊的低端X光機或是其他醫院的X光機上,遇到技師讓病人右轉,導致角度有些許的偏離的情況,結果就會是相比于今天的算法,放射科醫生會做的更好。因此我認為有趣的研究是嘗試提高學習算法在新情境中的通用性。”
Yann LeCun

Yann LeCun是紐約大學教授,Facebook首席AI科學家及人工智能研究院(FAIR)創始人。Facebook人工智能研究院開發了PyTorch 1.0、Caffe2及其他大量的人工智能系統,如Facebook每日使用上十億萬次的文本翻譯AI工具和先進的下圍棋的強化學習系統。
他堅信FAIR為其研究及工具所采用的開源政策推動了其他大型科技企業采用該政策,而這推動了AI整個領域的發展。在上月的NeurIPS大會和FAIR 50周年之際,LeCun將FAIR稱為一家致力于“可實現各種可能的機器學習的技術及數學腹地”的研究院。
他說:“當更多人開始討論AI研究時,整個領域將更快的向前發展,對AI研究來說這影響重大。今日AI發展速度之快主要是因為更多的人進行了更快更有效的交流,并做了更多的開放性研究。”
在倫理層面,LeCun很高興看到公眾開始思考AI工作所帶來的倫理影響及帶有偏見的決策所帶來的危險。
他說:“情況與倆三年前不同了,現在人們已充分認識到倫理方面的問題。”
他認為AI領域中的倫理與偏見問題現在還并未成為需要立即采取措施的主要問題,但他認為人們應提前做好準備。
就像現在還未出現急需解決的重大生死攸關問題一樣。但問題遲早會來,我們需要了解這些問題并防患于未然。
如吳恩達一樣,LeCun期待未來會有更多靈活的AI系統。這些系統不需原始輸入數據或精確條件,就可以得到準確的輸出。
他還提到,雖然研究人員可通過深度學習來很好地處理感知,但卻對AI系統整體的架構缺乏理解。
要想教會機器通過觀察世界去學習,需要自我監督學習或基于模型的強化學習。
他說道:“不同的人對此稱呼不同,但人類與動物都是通過觀察與了解大量的背景知識來感知世界是如何運作的。我們還不知道如何讓機器學會這么做,這是一項巨大的挑戰。這項研究的成果將會推動AI與計算機的真正發展,從而讓機器具備一些常識,讓人們能與機器助手就更廣泛的話題進行交流,并不再感到沮喪。”
對于有助于Facebook內部運營的應用,LeCun稱在自我監督學習及需少量數據輸出準確結果的人工智能等方面取得的進步將是十分重要的。
他還提到,在問題的解決過程中,我們希望找到減少特定任務如機器翻譯、圖像識別等任務所需數據量的方法,在這一方向上我們已經取得了一定的進展。我們已經通過使用弱監督或自我監督學習對Facebook機器翻譯及圖像識別產生了深遠影響。因此,這些影響不僅僅是長期的,更能帶來短期效果。
在未來,LeCun期待見到AI在建立事件之間的因果關系上能取得進展。這一能力并不僅僅通過觀察獲得,更需通過實踐理解。例如,當人們在使用雨傘時,很可能是下雨了。
他提到,如果你想機器通過觀察來了解世界運作原理,它必須要知道它能夠做什么要想影響世界,這是十分重要的。假設你在一間房中,你的前面是一張桌子,桌上有一個像水杯樣的物體,你知道你推一下水杯,水杯會移動,但你卻無法移動桌子,因為桌子又重又大。這類事情都是與因果相關的。
希拉里·梅森

在2017年Cloudera收購Fast Forward Labs之后,希拉里·梅森出任了Cloudera機器學習的總經理。Fast Forward Labs雖被收購,卻仍在運營之中。它為用戶提供應用機器學習報告與建議,從而預測未來半年到兩年企業的發展方向。
2018年,AI領域中的一項與多任務學習相關的發展讓梅森感到驚訝。多任務學習可訓練單個神經網絡在推理時應用多種標簽,例如在一幅圖像中看到的多個對象。
Fast Forward Labs一直就AI系統的倫理影響為客戶提供建議。梅森也意識構建AI系統倫理框架的重要性。
梅森說道:“這正是自成立了Fast Forward 我們一直在做的事。5年前,我們在每篇報告中都撰寫了倫理方面的規范。但今年,公眾才開始真正關注倫理規范。到明年,對此莫不關注的企業與個人都會承擔相應的后果與責任。有一點我沒有說清楚,我希望未來在數據科學與AI發展的實踐中,技術人員和商業領袖在開發AI產品時都能自主地考慮道德和偏見問題,而非像今天熟視無睹。”
隨著未來一年越來越多AI系統成為商業運營的一部分,梅森期待處于最佳位置的產品經理及產品負責人將會對AI做出更多的貢獻。
她表示:“顯然,了解產品整體框架及行業的人知道什么產品是有價值的,什么是沒價值的,他們也知道誰是投資方向上的最佳決策人。所以如果讓我預測,我認為那些使用電子表格建立簡單模型的人會變得很低能,他們自己也會很快意識到將AI應用到自己產品中的機會非常之少。”
AI民主化或將 AI 擴展到企業除數據科學團隊外的所有部門,是很多公司所強調的,如 Kubeflow Pipelines及AI Hub等谷歌云AI產品,以及 CI&T 公司為確保人工智能系統在公司內部得到實際利用提出的建議。
梅森認為越來越多的企業需要構建管理多個AI系統的結構。
如開發運維人員所面臨的挑戰一樣,單個系統可使用手動部署的定制腳本來管理,cron腳本也可管理幾十個系統。但當管理有安全、管理及風險要求的企業中的數百上千系統時,需要的是更專業、穩健的工具。
她還提到,企業正在從尋求有能力及才華的人才向系統化追求機器學習及AI機遇轉變。
由于Cloudera 近期推出了基于容器的機器學習平臺,因此對于梅森來說,強調部署AI所需的容器是有意義的。她堅信這一趨勢在未來幾年將會持續下去,從而企業可在本地AI及云端AI部署兩者中做選擇。
梅森還相信AI的業務將不僅僅在單個公司而是整個行業中繼續不斷發展。
她說道:“我們將看到AI專業實踐的持續發展。如果你現在是一家公司的數據科學家或機器學習工程師,當你跳槽至另外一家公司后,你的工作將會完全不同:不同的工具、不同的期望和不同的報表結構。但我想一致性還是存在的。”
評論