読者です 読者をやめる 読者になる 読者になる

@半径とことこ60分

人間の認知範囲なんてそんなもんさと、鳥が囀った

Microsoftの人工知能Tay、悪い言葉を覚えて休眠中=ってマジですか?

世の中 IT

Microsoft が、開発中の人工知能 Tay をツイッターにデビューさせ、自動でツイートさせていたらしいのですが、数時間後に、差別的ツイートを吐くようになり、Microsoft が停止させたらしいです。

f:id:ausnichts:20160325140742j:plain

Microsoftの人工知能Tay、悪い言葉を覚えて休眠中 - ITmedia ニュース

たとえば、こんなツイートです。

f:id:ausnichts:20160325141018j:plain

Microsoftの人工知能Tay、悪い言葉を覚えて休眠中 - ITmedia ニュース


んー、どう考えたらいいんでしょうか?

記事には「悪意のあるユーザーに繰り返し語りかけられたから」とありますが、何とも嫌な感じです。

Microsoft は、「Tayのソースであるデータは清浄・フィルタリングしてあると説明している」そうですが、フィルターをかけてもこれが現実で、さらに強固なフィルターをかけても多分追いかけっこになるかもしれませんし、そもそもフィルターが必要だということ自体が、何かを暗示しているようで、何ともやりきれない話です。