由微軟開發(fā)的一個聊天機器人已經(jīng)在Twitter網(wǎng)站上變成了“流氓”,它不但辱罵用戶,還發(fā)表了種族主義評論和煽動性的政治宣言。 這個實驗性的人工智能(AI)聊天機器人名為“Tay”,可通過人類對話進行學習,其設計目的是與18到24歲之間的年輕人進行互動。在微軟放出這個機器人的短短24個小時以后,該公司就不得不對其發(fā)表的一些煽動性評論進行了編輯處理,并表示該公司正在“進行一些調(diào)整”。 微軟發(fā)表聲明稱:“人工智能聊天機器人Tay是個機器學習項目,專為與人類交流而設計。在學習過程中,它作出的一些回應是不合適的,反映出了有些人與其進行互動的語言類型。我們正在對Tay作出一些調(diào)整。” Tay由微軟技術和研究及必應(Bing)團隊開發(fā),可通過海量的匿名公開數(shù)據(jù)學習如何與人類溝通。另外,與Tay共事的還有包括即興喜劇演員在內(nèi)的一個團隊。Twitter用戶受邀與這個聊天機器人進行互動,其他一些社交媒體的用戶也可在Kik或GroupMe上將其添加為聯(lián)系人。 微軟稱:“Tay的設計目的是與人進行交流并為其帶來娛樂,能夠通過休閑幽默的對話與人進行線上互聯(lián)。Tay越是與人聊天就會變得越聰明,因此與她進行對話的體驗將可變得越來越個性化! 但這種設計所帶來的一種不幸結果是,Tay在與人類交流的過程中被“教會”了像納粹主義同情者、種族主義者和種族滅絕主義者那樣發(fā)布Twitter消息。同時,試圖與其進行嚴肅對話的用戶也發(fā)現(xiàn)了這種技術的局限性,他們指出Tay似乎對流行音樂或電視不感興趣。還有人猜測,Tay如此之快地就降格至與人類進行不合適的聊天對話,可能表明了人工智能的未來。 --新浪科技 |