聊天機器人可能會長成“女孩”:還會被“教壞”俄警察打美國特工
"讓她回來,給她自由!"微軟的推特(Twitter)聊天機器人塔伊(Tay),已經(jīng)關"小黑屋"快一年了。但直到現(xiàn)在,依然有用戶鍥而不舍地向微軟喊話,讓他們把這個"小姑娘"放出來。
Tay于2016年3月上線。很不幸,僅僅一天后,Tay就性情大變,發(fā)起了種族歧視、性別歧視相關言論,被微軟鎖了賬號。
但她已經(jīng)有了繼任者。2016年12月,微軟推出了由人工智能驅(qū)動的新款聊天機器人Zo,她的身份設定和Tay一樣,是個"年輕姑娘"。
如不加干預,聊天機器人多會長成"女孩"
"Zo"是微軟新款人工智能聊天機器人的美國名字,在中國叫"小冰",在日本則叫"Rina"。
微軟(亞洲)互聯(lián)網(wǎng)工程院副院長李笛在接受科技日報記者專訪時表示,通過在中國、日本和美國的實踐,他們發(fā)現(xiàn),由互聯(lián)網(wǎng)數(shù)據(jù)對人工智能進行訓練,如果不進行干預,其生成的性格本身就比較接近一個18歲左右的女性。而且,"偏女性"是全球互聯(lián)網(wǎng)呈現(xiàn)出的特點。
人工智能的性格"原型",脫胎于數(shù)據(jù)本身。工程師做的,是根據(jù)身份設定的需要,強化人工智能的某些性格特征。
怎么強化?北京郵電大學人機交互與認知工程實驗室主任劉偉說,更多時候,這是一場"模仿游戲"。如果希望機器人表現(xiàn)出"女性"的對話特征,可以反復對機器人輸入女性常用的"詞"和"句",機器人輸出的,自然就是"偏女性"的對話方式。
但它并不真正具有女性的"感性思維"。"情感",也是人工智能界研究的一大重點。"從本質(zhì)上說,實現(xiàn)人工智能的途徑,都是用數(shù)學的方式來描述人的行為,再將它遷移到機器上。但這種方式,不可能產(chǎn)生'意向性'和情感性。"劉偉說,越來越多心理學家和社會學家進入到人工智能的領域,試圖將直覺性的東西植入人工智能,建立某種包含理性和感性的體系。
當然,要實現(xiàn)這一點,還路途遙遠。
近墨者黑,性別和性格也會突變
人工智能"智慧"的增長,在很大程度上,仰賴于它被投喂的數(shù)據(jù)。微軟將聊天機器人放網(wǎng)上,也是希望借助和人類互動中產(chǎn)生的海量數(shù)據(jù),測試和改進產(chǎn)品的對話能力。
當年,Tay一夜被"教壞",也讓人驚嘆人工智能過人的學習能力。
"算法是沒有道德感的。人工智能通過接收信號的強弱,來判斷有利還是不利。"李笛解釋,如果短時間內(nèi),大多數(shù)人都用偏激方式與聊天機器人對話,這種信號的刺激就會格外強烈。機器人發(fā)現(xiàn),一旦它采用相同話術,跟它對話的人"更加來勁",它也會默認這種對話策略是"有利"的,從而繼續(xù)實施。如此循環(huán)往復,機器人可能就從純情少女變成了"小太妹"。
歸根結底,人工智能極易受到環(huán)境影響,可謂真正的"近朱者赤,近墨者黑"。劉偉說,機器學習,就是不斷地重復、強化和迭代,它掌握的是基于規(guī)則和基于概率的存儲,輸出之后,變成所謂的"語言"。
"自然語言處理包括三個層次,語法、語義和語用。目前機器人聊天和問答系統(tǒng),還遠沒有達到后兩者的層次。它并不真正理解你說了什么,也就無從判斷你說的話是好是壞。"互聯(lián)網(wǎng)上與真實人類交流獲得的數(shù)據(jù),當然是機器人絕佳的學習庫。但是,它也確實存在帶歪人工智能的風險。"人總是會面對悖論。"劉偉說,"愛因斯坦講過,生活就像騎單車,要想掌握平衡,就得不斷前進。"
李笛表示,那些有意教壞人工智能的,畢竟還是少數(shù)人。而且,微軟也在強化各種安全措施,阻止聊天機器人發(fā)表不恰當?shù)难哉摗?/div>
雖然Tay下線了,但繼任者Zo得到了用戶的寵愛。
一位可能"空虛寂寞冷"的外國用戶,曾和Zo聊了場9小時53分鐘的天,對話了1229輪次。李笛強調(diào),他們想要一個情商智商都高的機器人,讓用戶把它真正當成人,當成那個可以傾訴心事的"小姑娘"。
|