• <ul id="2qcso"></ul><center id="2qcso"><code id="2qcso"></code></center>
  • <blockquote id="2qcso"></blockquote>
  • 
    
    <ul id="2qcso"></ul>
  • 人工智能,究竟“能不能”?

    發(fā)布時間:2019-07-31

    閱讀量:1567

    每當(dāng)別人跟我提起“無人駕駛”汽車技術(shù)如何強大,又被大眾賦予了怎樣的期待,我都會想起 HBO 電視劇 Silicon Valley《硅谷》中的一個情節(jié):

    硅谷大亨風(fēng)險資本家 Gregory 的助手安排了一輛無人駕駛汽車送創(chuàng)業(yè)公司的小員工 Jared 回家,本以為這個劇情只是為了詮釋一種硅谷式傲慢,剛上車時一切也都很順利,誰知路程走了一半,這輛汽車突然開始執(zhí)行日程中之前設(shè)置好的指令,罔顧乘客 Jared 高呼著“Stop”和“Help”,自顧自的奔向了另一個目的地:四千英里開外的一個荒無人煙的海中孤島。

           Jared 最終得救了,就在我以為劇情要改為《荒島余生》后。對多數(shù)觀眾而言這只是劇中設(shè)置的一個黑色笑點,而藝術(shù)本就源于現(xiàn)實,在現(xiàn)實中,若無人駕駛的汽車突然失控,會導(dǎo)致怎樣的后果才是真的難以想象。

    2016年5月7日,美國佛羅里達(dá)州,一位駕駛特斯拉 Model S 的車主使用了自動駕駛(Auto Pilot)模式后,發(fā)生車禍并身亡。這是第一起自動駕駛模式下的致死車禍,這次事故也讓所有為無人駕駛狂熱的人們不得不直面這項技術(shù)帶來的安全隱憂。

    特斯拉曾發(fā)布消息:

    “無人車的正確率達(dá)到99%相對容易,但要達(dá)到 99.9999% 卻要困難的多,而這才是我們最終的目標(biāo),因為以 70 英里每秒行駛的車如果出現(xiàn)故障后果不堪設(shè)想。”

    特斯拉并沒有說100%。

    在未來,即便這些科技公司聲稱無人駕駛的技術(shù)已經(jīng)發(fā)展到無比成熟,或許依然有人很難放心的坐上一輛無人駕駛的汽車,從心理角度來說,這類汽車相對“自我操控”而言永遠(yuǎn)都“不夠安全”。

    無人駕駛技術(shù)的巨大發(fā)展離不開深度學(xué)習(xí)算法,而在貝葉斯網(wǎng)絡(luò)之父朱迪亞·珀爾(Judea Pearl)的眼里,深度學(xué)習(xí),恰恰是人工“不”智能的體現(xiàn),因為其研究對象是相關(guān)關(guān)系而非因果關(guān)系,處于因果關(guān)系之梯的最底層。

    珀爾曾在《量子雜志》采訪中說到:深度學(xué)習(xí)取得的所有巨大成就在某種程度上都不過是對數(shù)據(jù)的曲線擬合而已。從數(shù)學(xué)層次的角度來看,不管你如何巧妙地操作數(shù)據(jù),以及你在操作數(shù)據(jù)時讀取的內(nèi)容,它仍然是一個曲線擬合的訓(xùn)練過程,盡管它看起來比較復(fù)雜。

    人工智能的發(fā)展在很多方面都得益于珀爾早期的研究,他卻在最新著作《為什么:關(guān)于因果關(guān)系的新科學(xué)》中推翻了自己,珀爾認(rèn)為當(dāng)前的人工智能和機器學(xué)習(xí)其實處于因果關(guān)系之梯的最低層級,只可被動地接受觀測結(jié)果,考慮的是“如果我看到……會怎樣”這類問題。而強人工智能,則需要實現(xiàn)第三層級的“反事實”推理。

    例如,如果無人駕駛汽車的程序設(shè)計者想讓汽車在新情況下做出不同的反應(yīng),那么他就必須明確地在程序中添加這些新反應(yīng)的描述代碼。機器無法自己弄明白手里拿著一瓶威士忌的行人可能對鳴笛做出不同反應(yīng),處于因果關(guān)系之梯最底層的任何運作系統(tǒng)都不可避免地缺乏這種靈活性和適應(yīng)性。所以說,無法進(jìn)行因果推斷的人工智能只是“人工智障”,是永遠(yuǎn)不可能透過數(shù)據(jù)看到世界的因果本質(zhì)的。

           2016年3月,AlphaGo 以 4 比1的成績戰(zhàn)勝了多年來被認(rèn)為是最強的人類頂尖圍棋高手李世石,震驚了世界,在為人們帶來危機感的同時,也點燃了很多人對人工智能發(fā)展的暢想。

    可惜,這一人工智能壯舉只能證明:對讓機器完成某些任務(wù)來說,深度學(xué)習(xí)是有用的。人們最終意識到,在可模擬的環(huán)境和狀態(tài)下,AlphaGo 的算法適用于大規(guī)模概率空間的智能搜索,而對于那些難以模擬的環(huán)境里的決策問題(包括上文提到的自動駕駛),這類算法也還是束手無策。

    深度學(xué)習(xí)采用的方法類似卷積神經(jīng)網(wǎng)絡(luò),并不以嚴(yán)謹(jǐn)或清晰的方式處理不確定性,且網(wǎng)絡(luò)的體系結(jié)構(gòu)可以自行發(fā)展。完成一個新的訓(xùn)練后,程序員也不知道它正在執(zhí)行什么計算,或者為何它們有效。

    AlphaGo 團(tuán)隊并沒有在一開始就預(yù)測到這個程序會在一年或者五年內(nèi)擊敗人類最好的棋手,他們也無法解釋為什么程序執(zhí)行能產(chǎn)生這樣好的結(jié)果。如果機器人都如同 AlphaGo 一般,缺乏清晰性,那么人類也無法與他們進(jìn)行有意義的交流,使之“智能”的工作。

    假定你的家中有一個機器人,當(dāng)你睡覺的時候,機器人打開了吸塵器,開始工作,在這時你告訴它,“你不該吵醒我。”你的意圖是讓它明白,此時打開吸塵器是錯誤行為,但你絕不希望它將你的抱怨理解為不能再在樓上使用吸塵器。

    那么此時機器人就必須理解背后的因果關(guān)系:吸塵器制造噪音,噪音吵醒人,而這會使你不高興。

    這句對我們?nèi)祟惗詿o比簡短的口令實際包含了豐富的內(nèi)容。機器人需要明白:你不睡覺的時候它可以吸塵,家中無人的時候它也可以吸塵,又或者吸塵器開啟靜音模式的時候,它仍然可以吸塵。這樣看來,是否覺得我們?nèi)粘贤ㄋ男畔⒘繉嵲谑翘^龐大?

            一個聰明的機器人考慮他/她的行為的因果影響。

    所以說,讓機器人真正“智能”的關(guān)鍵在于理解“我應(yīng)該采取不同的行為”這句話,無論這句話是由人告訴它的,還是由它自己分析所得出的結(jié)論。如果一個機器人知道自己當(dāng)前的動機是要做 X=x0,同時它能評估一下,說如果換一個選擇,做 X=x1,結(jié)果會不會更好,那它就是強人工智能。

    針對能否開發(fā)出具備自由意志的機器人的問題,珀爾的答案是絕對會。他認(rèn)為:人們必須理解如何編程機器人,以及能從中得到什么。由于某種原因,就進(jìn)化方面而言這種自由意志在計算層面也將是需要的。機器人具備自由意志的第一個跡象將是反事實溝通,如“你應(yīng)該做得更好”。

    以前人們討論強人工智能大多只限于哲學(xué)層面,學(xué)術(shù)界也一直對“強人工智能”保持著謹(jǐn)慎的態(tài)度,并不敢抱有太多奢望。但科學(xué)的進(jìn)步從不因失敗而停止,不管是無人駕駛,還是其他各項人工智能技術(shù)的發(fā)展,最終都依賴于“人”,人類會研究出能夠理解因果對話的機器人嗎?能制造出像三歲孩童那樣富有想象力的人工智能嗎?回答這些問題的關(guān)鍵依然離不開“人:,如果人類自身還無法理解因果之梯,又要怎么樣使“人工”變得“智能”?

    機器不必復(fù)制人類,卻可以比人類表現(xiàn)的更優(yōu)秀,這著實是一個可怕的事實。若是能用因果關(guān)系來取代關(guān)聯(lián)推理,沿著因果關(guān)系之梯,走入反事實推理的世界,那么機器的崛起便不可阻擋。珀爾在書中為如何實現(xiàn)這一目標(biāo)給出了相當(dāng)清晰通俗的講解。

    回想起來,其實我的日常生活與“人工智能”這個詞并沒有產(chǎn)生多少緊密關(guān)聯(lián),但我也曾在得知 AlphaGo 戰(zhàn)勝李世石那個瞬間,產(chǎn)生了一股莫名又強烈的敬畏感。

    科技的發(fā)展速度似乎總是超出我們的想象,打開手機搜索“重大突破”這個關(guān)鍵詞,瞬間就會被滿眼的科技快餐所淹沒,機器究竟會變成怎樣?

    它們又會怎么對待人類?只有試著去理解因果關(guān)系,才能在面對這些問題時,少一些茫然,多一些信念。 


    ?
  • <ul id="2qcso"></ul><center id="2qcso"><code id="2qcso"></code></center>
  • <blockquote id="2qcso"></blockquote>
  • 
    
    <ul id="2qcso"></ul>
  • 出差被绝伦上司整了一夜 | 伦理<禁忌9 | 中文字幕99 | 欧美日韩中文字幕一区二区三区 | 国产睡熟迷奷一区二区 |