首圖

微軟前幾天推出聊天機器人-Zo,取代上一次失敗的作品-Tay。這次微軟吸取了失敗的經驗,在聊天過程中,Zo會拒絕與使用者談論任何敏感話題,其中包含政治、信仰、種族、情色議題等。 微軟在九個月前曾於Twitter上推出一款聊天機器人-Tay,但上線不到24小時就被廣大網民教壞,從一個單純天真的19歲少女,變成了一個徹頭徹尾的納粹主義者,此結果迫使微軟緊急將Tay下架。 這次微軟帶著新......