科學(xué)家:須建立“道德和倫理委員會”掌控人工智能

科學(xué)家:須建立“道德和倫理委員會”掌控人工智能

悉尼大學(xué)電氣工程與信息工程學(xué)院計算機工程徐東教授在工作中。許薇薇攝

 

悉尼大學(xué)兩位機器學(xué)習(xí)專家在此間發(fā)出警告:必須建立“道德和倫理委員會”來保持掌控人工智能,否則我們可能會變得無力抵抗。

 

悉尼大學(xué)電氣工程與信息工程學(xué)院計算機工程徐東教授說,近日世界圍棋賽冠軍在人機大戰(zhàn)中的慘敗,重新引發(fā)了人們對人工智能(AI)設(shè)備未來會扮演何種角色的擔憂。

 

這位研究領(lǐng)域包括計算機視覺、機器學(xué)習(xí)和多媒體內(nèi)容分析的教授說,現(xiàn)在的問題是,我們應(yīng)該對人工智能中自我學(xué)習(xí)進行多少控制。

 

“科學(xué)家們和科技界的投資者在幾年前就已經(jīng)對人工智能抱有巨大的熱情,但是這臺超級計算機的勝利終于讓公眾也認識到了它的能力。這是科技界的重大突破。”徐教授說。

 

徐東認為,超級計算機比人類思維的更強大。競技性游戲,例如圍棋,實際上都是有關(guān)規(guī)則的,這對一臺電腦來說很容易。一旦電腦掌握了這些規(guī)則,它就會很善于玩這些游戲。一個人類玩家可以被情緒所影響,比如壓力或高興,但電腦并不會。一個人在一年之內(nèi)能夠記下1000個棋局,但計算機能記住數(shù)萬或者數(shù)十萬盤棋。超級計算機可以隨時改進,如果它輸了一局,那么它會對此進行分析,并且在下一局表現(xiàn)地更好。

 

徐東強調(diào),如果超級計算機能夠完全模仿人類的大腦,具有憤怒或悲傷等人類情緒,它將會更加危險。

 

徐東認為,對于如谷歌和facebook這樣的公司來說,建立“道德和倫理委員會”來保持掌控,使科學(xué)研究不會走向錯誤的方向,發(fā)明出來的機器不會做出任何帶有惡意的事情。

 

悉尼大學(xué)復(fù)雜系統(tǒng)的高級講師麥克·哈爾花了多年時間來研究中國古代的棋盤游戲背后的人工智能,他說:“圍棋可能是今天普遍在玩的最復(fù)雜的游戲。和有極大數(shù)量可能棋局的國際象棋相比,圍棋甚至擁有比宇宙中的原子數(shù)量還要多的可能性的棋局。

 

哈爾說:“現(xiàn)在已經(jīng)發(fā)展到了人工智能在簡單和復(fù)雜的任務(wù)中都可以智勝人類的階段。這是需要引發(fā)擔憂的,因為人工智能技術(shù)可能在未來達到一個階段,它被應(yīng)用于防御方面,在操縱過程中已經(jīng)不需要人類是可能的,也就是說已成為真正自主的人工智能(AI )”。(中新網(wǎng)悉尼電 許薇薇)