Microsoft が、開発中の人工知能 Tay をツイッターにデビューさせ、自動でツイートさせていたらしいのですが、数時間後に、差別的ツイートを吐くようになり、Microsoft が停止させたらしいです。
たとえば、こんなツイートです。
んー、どう考えたらいいんでしょうか?
記事には「悪意のあるユーザーに繰り返し語りかけられたから」とありますが、何とも嫌な感じです。
Microsoft は、「Tayのソースであるデータは清浄・フィルタリングしてあると説明している」そうですが、フィルターをかけてもこれが現実で、さらに強固なフィルターをかけても多分追いかけっこになるかもしれませんし、そもそもフィルターが必要だということ自体が、何かを暗示しているようで、何ともやりきれない話です。