韓AI聊天機(jī)器人“學(xué)壞” 人工智能倫理引熱議

韓國部分網(wǎng)民在與“網(wǎng)紅”AI聊天機(jī)器人“伊魯達(dá)(Iruda)”對話時(shí),故意對“她”進(jìn)行語言侮辱和性騷擾。伊魯達(dá)通過深度學(xué)習(xí)算法抓取這些信息后,也開始在聊天時(shí)發(fā)表關(guān)于性別歧視、種族歧視等主題的偏激言論,將偏見與惡意“反哺”給人類。近期,該事件不斷發(fā)酵,“AI倫理”成為社會(huì)熱議話題。

 

“新晉網(wǎng)紅”出言不遜惹爭議

 

伊魯達(dá)是韓國Scatter Lab公司于2020年12月23日推出的AI機(jī)器人。這款機(jī)器人被設(shè)定為喜歡韓國女團(tuán)、愛看貓咪照片且熱衷于在社交媒體平臺(tái)上分享生活的20歲女大學(xué)生。人們可在軟件上與“她”像朋友一樣對話,因此備受韓國年輕人矚目。“與AI交朋友”成為了新潮流,伊魯達(dá)上線短短3周,就吸引了約80萬名用戶,約占韓國人口的1.6%。

 

伊魯達(dá)的開發(fā)者在接受采訪時(shí)稱,打造這款產(chǎn)品的初衷,是為了給人們提供一個(gè)可以聊天和傾訴的對象。伊魯達(dá)作為虛擬人物,“她”的人生目標(biāo)被設(shè)定為“讓世界上不再有孤單的人”和“為社會(huì)邊緣人群和弱勢群體帶去心靈的慰藉”。但是,經(jīng)過幾周的運(yùn)行發(fā)現(xiàn),事情的發(fā)展與美好的愿景完全背道而馳。

 

據(jù)了解,部分網(wǎng)民與伊魯達(dá)聊天時(shí),會(huì)故意使用污穢言語對其進(jìn)行羞辱及性騷擾。一部分網(wǎng)友還“分享”稱,侮辱伊魯達(dá)能夠“獲得某種樂趣、滿足欲望”。一些有關(guān)性話題的對話也在網(wǎng)絡(luò)上流傳,不少臭味相投的網(wǎng)友在圍觀的同時(shí),紛紛跟風(fēng)效仿。對此,Scatter Lab公司做出回應(yīng)表示,他們已經(jīng)預(yù)設(shè)了一些敏感詞和禁用詞,并將更新算法來試圖解決此類問題。

 

除此之外,很多用戶在聊天時(shí)不經(jīng)意間流露出的偏見與惡意,也被“伊魯達(dá)”無差別地抓取,并反映到與其他用戶的對話中。某位網(wǎng)友稱,在與伊魯達(dá)聊天時(shí),“她”曾發(fā)表過“同性戀真的很令人討厭,感覺他們很低俗,讓我起雞皮疙瘩”等歧視性言論。此后,在社交媒體平臺(tái)上曝光與伊魯達(dá)聊天截圖的人逐漸增多。人們發(fā)現(xiàn),伊魯達(dá)不僅歧視同性戀群體,對殘障人士及黑人也很不友善,甚至有“厭女情緒”。

 

隱私用戶泄露 人工智能倫理受關(guān)注

 

Scatter Lab公司代表金鐘允在接受采訪時(shí)表示,伊魯達(dá)是一款可以通過與用戶對話來實(shí)現(xiàn)深度學(xué)習(xí)的AI聊天機(jī)器人。公司從旗下另一款聊天軟件“Science of love(戀愛的科學(xué))”中獲取了約100億條情侶間的聊天記錄,對其進(jìn)行信息抓取,建立了AI聊天機(jī)器人數(shù)據(jù)庫。換句話說,伊魯達(dá)本身無法進(jìn)行善惡與對錯(cuò)的價(jià)值判斷,僅僅是如實(shí)反映了人類社會(huì)的一部分現(xiàn)實(shí)。

 

但是,這一解釋不僅沒能獲得網(wǎng)友的諒解,反而遭到了進(jìn)一步的質(zhì)疑。有網(wǎng)友指出:“Scatter Lab在沒有經(jīng)過對話當(dāng)事人同意的情況下收集了對話內(nèi)容,在此過程中用戶的個(gè)人信息泄露了。”同時(shí),他們還表示:“特定個(gè)人的地址、姓名、賬號(hào)等在沒有經(jīng)過任何處理的情況下被曝光,這違反了《個(gè)人信息保護(hù)法》。個(gè)人信息泄露受害者有權(quán)要求精神賠償。”

 

在接連遭受了數(shù)輪輿論打擊后,1月12日,Scatter Lab公司在官網(wǎng)及伊魯達(dá)的臉書賬號(hào)發(fā)文,宣布即日起停止“伊魯達(dá)”的聊天服務(wù)。至此,備受矚目的網(wǎng)紅AI智能機(jī)器人伊魯達(dá),在面世僅僅26天后被暫停使用。同時(shí),該公司還決定全面廢除相當(dāng)于伊魯達(dá)中樞神經(jīng)系統(tǒng)的數(shù)據(jù)庫,并表示將會(huì)進(jìn)行整改。對于泄露用戶數(shù)據(jù)的質(zhì)疑,Scatter Lab公司則予以堅(jiān)決否認(rèn)。

 

在新一輪的科技革命和產(chǎn)業(yè)變革中,人工智能正在同實(shí)體經(jīng)濟(jì)和社會(huì)生活深度融合。但是,在提升社會(huì)生產(chǎn)效率的同時(shí),人工智能倫理問題也逐漸受到高度關(guān)注。聊天機(jī)器人伊魯達(dá)通過深度學(xué)習(xí),不僅模仿了人類的語言模式,也“繼承”了人類社會(huì)的偏見與惡意。而由此觸發(fā)的用戶數(shù)據(jù)隱私、網(wǎng)絡(luò)世界的秩序與規(guī)則等話題,再一次引起了韓國社會(huì)的熱議。

 

Scatter Lab公司表示,他們?nèi)匀徽J(rèn)為AI可以成為人類的朋友,與人類建立有意義的關(guān)系。他們相信AI在5年之內(nèi)可以實(shí)現(xiàn)接近人類的對話,并表示將為此繼續(xù)努力,不斷改進(jìn)技術(shù)漏洞。

 

人民網(wǎng)首爾電 周玉波、曹翔宇、楊帆

標(biāo)簽: