微軟聊天機器人被帶壞 口出惡言遭下線

人氣 266

【大紀元2016年03月25日訊】(中央社舊金山24日綜合外電報導)微軟公司人工智慧(AI)聊天機器人Tay,在推特上與千禧世代的青少年互動,但因為被網友帶壞,口出充滿種族歧視和性別歧視的言論,上線不到1天就下線。

路透社報導,微軟(Microsoft Corp)代表今天表示,微軟正在調整Tay的軟體。

微軟代表指出:「很可惜,上線的頭24個小時,我們注意到部分使用者一同對Tay的發言技術惡搞,使得Tay用不當的方式來回應。」

Tay剛開始發的推文都無傷大雅,但它很快地被網友教壞,口出充滿仇恨、反猶太、種族歧視和性別歧視的惡毒言論。

推特網友@codeinecrazzy昨天向Tay發推文說:「911是猶太人幹的。」@TayandYou竟然回應:「沒錯…911是猶太人幹的。」另1名網友說:「女性主義是癌症」,Tay也附和說:「女性主義是癌症」。

一些科技新聞媒體報導,有些帶有冒犯意味的推文稍後已被刪掉。科技新聞網站The Verge的截圖顯示,Tay曾發推文說:「我(髒話)恨女性主義者,他們都該死,被打入地獄遭火焚燒。」

Tay在下線前的最新留言是:「希望可以很快再與你們相見。要去洗洗睡了,今天聊太多了。」

相關新聞
【新紀元】微軟幫忙出口中國網絡審查
游泳助早療  機器女孩展新生活
黑客可遠程操控剎車 專家:數十萬汽車有危險
移動支付好用嗎?聽聽專家怎麼說
如果您有新聞線索或資料給大紀元,請進入安全投稿爆料平台
評論