中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

Yann LeCun、吳恩達等的2019年AI趨勢預測

2019-01-10    來源:raincent

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

本文介紹了 Yann LeCun、吳恩達、Hilary Mason 和 Rumman Chowdhury 對 2018 AI 領域的總結以及對 2019 年發(fā)展趨勢的預測。

 

從左到右依次是:埃森哲 Responsible AI 全球計劃負責人 Rumman Chowdhury、Cloudera 機器學習負責人 Hilary Mason、Facebook AI 研究院創(chuàng)始人 Yann LeCun、谷歌大腦聯(lián)合創(chuàng)始人吳恩達。

 

人工智能是孤注一擲的選擇,它要么拯救世界,要么摧毀世界。

近日,VentureBeat 與一些專家進行了對話,包括谷歌大腦聯(lián)合創(chuàng)始人吳恩達、Cloudera 機器學習負責人 & Fast Forward 實驗室創(chuàng)始人 Hilary Mason、Facebook AI 研究院負責人 Yann LeCun 和埃森哲 Responsible AI 全球計劃負責人 Rumman Chowdhury。他們講述了自己心中的 2018 年重要里程碑,以及對 2019 年的展望。

其中一些專家說道,他們很欣慰關于 AI 終結者說法越來越少,更多的人開始理解 AI 能做與不能做的事。但是專家們還強調,該領域的計算機和數據科學家仍然需要在推動人工智能發(fā)展的過程中,繼續(xù)采取負責任的倫理觀。

Rumman Chowdhury 博士

 

 

Chowdhury 博士是埃森哲應用智能服務部門的董事總經理,也是 Responsible AI 的全球領導者。2017 年,她被 BBC 列入「全球最有影響力的 100 位女性」名單。

Chowdhury 表示,她很高興看到 2018 年公眾對人工智能的能力和局限性的理解有所提高,并發(fā)現人們對人工智能威脅的討論也更加均衡——不再局限于電影《終結者》中機器將統(tǒng)治人類世界的恐懼!鸽S之而來的是,越來越多的人開始關注隱私和安全問題,以及人工智能在塑造我們以及后代方面所扮演的角色!

然而,Chowdhury 認為,公眾對于 AI 的這些認知還不是最重要的。更重要的是,在 2019 年,她希望看到更多的人利用教育資源來理解 AI 系統(tǒng),并能夠利用自己的智慧質疑 AI 所做的決定。

AI 生態(tài)系統(tǒng)中的科技公司和人們開始考慮其工作的倫理影響,這讓她感到驚喜。但她希望 AI 社區(qū)更進一步,能夠「從道德提醒到實際行動。」

「至于倫理和 AI 領域——除了電車難題,我希望大家能夠深入研究 AI 將帶來的難題——那些還沒有明確答案的問題。如何在人工智能與物聯(lián)網監(jiān)控之間取得『正確』的平衡?這種監(jiān)控必須安全,但不應該強化現有種族歧視的懲罰性監(jiān)控狀態(tài)。我們應該如何調整先進技術的收益再分配,從而不會進一步加大貧富差距?應該將孩子暴露在什么程度的 AI 環(huán)境中才會讓他們成為『AI 土著』而不被操控或同質化?我們如何用 AI 擴展教育并將其自動化,但仍讓孩子的創(chuàng)造力和獨立思考能力得到充分發(fā)展?」她問道。

2019 年,Chowdhury 預計全球將有更多的政府對技術進行審查和監(jiān)管。

「全球科技巨頭所擁有的 AI 及其力量引發(fā)了很多關于如何監(jiān)管產業(yè)和技術的問題。2019 年,我們要開始想辦法解決這些問題——當一種技術是多用途工具且結果受特定環(huán)境影響時,你如何監(jiān)管?如何建立監(jiān)管條例并確保它不會抑制創(chuàng)新或偏袒大公司(可以承擔合規(guī)成本)而非小公司?我們要監(jiān)管到什么地步?國際,國家還是地區(qū)?」

她還希望看到人工智能在地緣政治事務中繼續(xù)發(fā)揮其作用。

「AI 不只是科技,它還是經濟、社會的塑造者。我們在這項技術中反思、擴展和實施我們的價值。我們需要加深對技術及其影響的理解。」要做到這一點,我們對 AI 行業(yè)的理解不能再局限于常見觀念。

「我希望監(jiān)管者、技術專家和研究人員意識到,AI 競賽不僅僅是算力和技術敏銳度,就像冷戰(zhàn)不僅僅是核力量一樣。我們應該以更公平、公正、平等的方式去重建這個世界,盡管這樣的機會很稀有。逝者如斯夫,不舍晝夜。不要浪費時間。」

從消費者的角度來看,她認為 2019 年將會有更多的家庭使用人工智能。很多人會更加習慣使用如 Google Home 和 Amazon Echo 這樣的智能語音助手以及其它智能設備。因此,她也很期待本月將于拉斯維加斯舉辦的國際消費者電子展(Consumer Electronics Show,CES)上是否會有什么有趣的東西出現。通過這個展會,人工智能可能會進一步融入人們的日常生活。

「我想我們可能都在等一位機器人管家的出現!顾f。

吳恩達

 

 

吳恩達是斯坦福大學計算機科學系教授、谷歌大腦聯(lián)合創(chuàng)始人、Landing AI 創(chuàng)始人(該公司旨在幫助企業(yè)在業(yè)務流程中融入 AI)。此外,他還是很多流行的在線機器學習課程的講師,他還創(chuàng)辦了 deeplearning.ai,并寫了一本書《Deep Learning Yearning》。2017 年,他從百度離職,后創(chuàng)辦了人工智能創(chuàng)業(yè)投資機構 AI Fund,他也是自動駕駛汽車公司 Drive.ai 的董事會成員。

吳恩達認為 2019 年有望出現進展或改變的地方是:AI 將應用于技術或軟件公司以外。他認為,AI 最大的待開發(fā)潛力在軟件行業(yè)之外,并引用了麥肯錫報告:到 2030 年,它將會創(chuàng)造大約 13 萬億美元的 GDP 增長。

「我認為 2019 年在軟件業(yè)之外的 AI 應用方面會發(fā)生很多故事。在行業(yè)中,我們已經幫助谷歌、百度、Facebook、微軟等企業(yè)做了很多工作,而 Square、Airbnb、Pinterest 這樣的公司也開始利用 AI。我認為下一波創(chuàng)造價值的浪潮將出現在制造業(yè)公司、農業(yè)設備公司或醫(yī)療企業(yè),這些企業(yè)可能會利用 AI 來開發(fā)多項解決方案幫助其發(fā)展業(yè)務。

和 Chowdhury 一樣,吳恩達也對 2018 年人們對 AI 能力的理解感到驚訝。

「我嘗試審慎地列舉一些我認為對實際應用非常重要的領域。我認為 AI 的實際應用存在很多障礙,而在這些問題的有些方面有很大進展!

對于 2019 年,吳恩達希望看到 AI/ML 研究中兩個特定領域的進展。一個是 AI 能在數據量少的情況下獲得較高的準確率,即「few shot learning」。

「我認為深度學習發(fā)展的第一波浪潮是擁有海量數據的大公司訓練非常大的神經網絡。如果你想要構建語音識別系統(tǒng),在 10 萬小時的數據上進行訓練。想要訓練機器翻譯系統(tǒng)的話,就在大量平行語料庫的句對上進行訓練,從而創(chuàng)造出大量突破性的結果,F在,我看到在小數據集上出現越來越多的成果,即使你只有 1000 張圖像,你也可以嘗試做出點什么!

另一個是計算機視覺領域的進展,即「generalized visibility」。一個計算機視覺系統(tǒng)可能在使用斯坦福大學的高端 X 光機拍攝圖像時效果很好。很多該領域的先進企業(yè)和研究人員已經創(chuàng)造出超過人類放射科醫(yī)生的系統(tǒng),但它們并不是很靈活。

「但是如果你將訓練好的模型應用到低端 X 光機或不同醫(yī)院拍攝的 X 光片上(圖像比較模糊,或者角度有偏差),那么人類放射科醫(yī)生的表現會比現在的學習算法泛化性能好得多。因此我認為有趣的研究是嘗試改善學習算法在新場景中的泛化性!

Yann LeCun

 

 

Yann LeCun 是紐約大學教授、Facebook 首席 AI 科學家、Facebook AI 研究院(FAIR)創(chuàng)始人。

LeCun 認為 FAIR 執(zhí)行的開源策略幫助推動其他大型技術公司的開源之路,他認為開源可以促進 AI 領域的發(fā)展。

「開源促進整個領域更快地發(fā)展,因為更多的人可以就研究進行溝通交流,這會產生非常大的影響。今天大家所看到的 AI 領域發(fā)展速度主要是因為更多人更加迅捷、高效地互相交流,同時做了更多的開放性研究!

關于倫理,LeCun 很高興地看到大家能夠考慮研究的倫理影響以及帶有偏見的決策的風險性。

「人們應該注意倫理問題,這在現在已經成為共識。而兩三年前情況完全不同!

LeCun 稱,他認為 AI 領域的倫理和偏見不是需要立即采取行動的大問題,但是人們應該為此做好準備。

「我認為……有一些亟待解決的關乎生死的大問題,但是倫理和偏見問題終有一天會到來,我們需要……理解這些問題,并在它們發(fā)生之前防患于未然。」

和吳恩達一樣,LeCun 想看到更多靈活、魯棒的 AI 系統(tǒng),它們不需要特定質量的輸入數據或固定條件也能獲得準確的輸出。

LeCun 表示,研究者已經可以很好地利用深度學習管理感知,但缺乏對完整 AI 系統(tǒng)整體架構的理解。

他認為,教會機器通過觀察世界來學習需要自監(jiān)督學習或基于模型的強化學習。

「不同的人對此的稱呼不同,但本質上人類嬰兒和動物通過觀察和分辨大量關于世界的背景信息來學習世界的運作原理,我們不知道如何讓機器學會這么做,而這是一項重要挑戰(zhàn)。AI 和機器真正取得進步的一個重要標志是具備常識,以及虛擬助手可以更流暢自然地談論更多話題、參與更多討論。」

對于幫助 Facebook 內部運營的應用,LeCun 稱自監(jiān)督學習的巨大進步以及僅靠少量數據也能返回準確結果的 AI 系統(tǒng)將非常重要。

「在解決整個問題的過程中,我們希望能夠找到一些方式來減少任意任務所必需的數據量(如機器翻譯或圖像識別任務等),我們在這個方向已經有所進展。我們已經通過弱監(jiān)督或自監(jiān)督學習對 Facebook 所用的機器翻譯和圖像識別系統(tǒng)帶來了好的影響。所以這些并不是長期的,它們在短期內就可以帶來效果。」

LeCun 希望未來能夠看到 AI 在建立因果關系方面有所進步。這一能力不只是通過觀察習得,而需要對事物有實際的理解。例如,如果有人打傘,那就有可能下雨了。

「這非常重要,因為如果你想讓機器通過觀察學得世界模型,那么它必須能夠了解它對改變世界狀態(tài)的影響以及有些事情不能做。如果你在一個房間里,面前有一張桌子,桌上有一瓶水,那么你知道你推一下水瓶,它就會移動,你不會想去移動桌子,因為桌子又大又重,這樣的事情都與因果關系有關!

Hilary Mason

 

 

2017 年 Cloudera 收購 Fast Forward 實驗室之后,Hilary Mason 成為 Cloudera 的機器學習負責人。雖然已經被并入 Cloudera,但 Fast Forward Labs 還在繼續(xù)運營,為用戶提供應用機器學習報告和建議,幫助他們看到未來半年到兩年的發(fā)展方向。

2018 年令 Mason 感到驚喜的人工智能進展與多任務學習有關,利用這種技術可以訓練單個神經網絡在推理時應用多個標簽,如在一幅圖像中看到的多個對象。

Fast Forward 實驗室為用戶提供的建議也包含 AI 系統(tǒng)的倫理影響。Mason 越發(fā)意識到創(chuàng)建 AI 倫理框架的必要性。

「自從五年前 Fast Forward 創(chuàng)立以來,我們的每一份報告都包含倫理內容,但直到 2018 年,人們才真正開始重視這個問題。我認為,2019 年我們將開始看到結果,以及針對對此熟視無睹的公司或個人的問責機制。」Mason 說道。「有一點我沒說清楚,就是我希望數據科學和 AI 的實踐應該按某種方式演進,即科研人員和商界領袖都能在利用 AI 創(chuàng)造產品時將倫理、偏見以及這些產品的發(fā)展考慮在內,這在今天還不是慣例!

2019 年,更多 AI 系統(tǒng)將成為商業(yè)運營的一部分,Mason 希望產品經理及主管可以為 AI 的前沿發(fā)展做出更多貢獻,因為他們的職位提供了最大的便利。

「顯然,對整個產品了如指掌而且懂商業(yè)的人知道什么樣的產品有價值,他們處在可以決定投資方向的最佳職位。如果讓我預測,我認為那些使用電子表格一類的東西進行簡單建模的人會變得非常低能,他們很快也會在發(fā)現自己產品中的 AI 機會方面變得非常低能。」

AI 民主化,或者說將 AI 擴展到企業(yè)數據科學團隊以外的部門,是一些企業(yè)所強調的,包括 Kubeflow Pipelines 和 AI Hub 等谷歌云 AI 產品,以及 CI&T 公司為確保人工智能系統(tǒng)在公司內部得到實際利用所提出的建議。

Mason 還表示,越來越多的公司將需要構建管理多個 AI 系統(tǒng)的結構。

與之前描述運維人員所面臨的挑戰(zhàn)類似,Mason 說道,可以使用手動部署的自定義腳本來管理單個系統(tǒng),cron 作業(yè)可以管理幾十個系統(tǒng)。但當你在一個具有安全、管理和風險要求的企業(yè)中管理數十或數百個系統(tǒng)時,你需要專業(yè)而強大的工具。

企業(yè)正從招攬有能力或才華的人才轉向系統(tǒng)地追求機器學習和 AI 機會。

由于 Cloudera 最近推出了基于容器的機器學習平臺,所以對 Mason 來說,強調部署 AI 所需的容器是有意義的。她認為,這一趨勢將在未來幾年持續(xù)下去,因此企業(yè)可以在本地 AI 和云端 AI 部署之間做出選擇。

最后,Mason 認為 AI 的商業(yè)化將會持續(xù)下去,而且將涉及整個行業(yè)的慣例,而不是單個公司。

「我想我們將會看到 AI 專業(yè)實踐的繼續(xù)發(fā)展,F在,如果你在一家公司做數據科學家或機器學習工程師,然后你跳槽去另一家公司,你的工作將會完全不同:不同的工具、不同的預期、不同的報告結構。但我想我們還是會看到一致性!顾f。

參考鏈接:https://venturebeat.com/2019/01/02/ai-predictions-for-2019-from-yann-lecun-hilary-mason-andrew-ng-and-rumman-chowdhury/

標簽: Google 安全 谷歌 腳本 網絡

版權申明:本站文章部分自網絡,如有侵權,請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:Submarine:在Apache Hadoop中運行深度學習框架

下一篇:人們需要了解正在快速發(fā)展的綠色數據中心行業(yè)