悪意で“人類の敵”になる


 ソフィアと同じように話題になったのが、米マイクロソフト社が開発したAIチャットボット「テイ:Tay」だ。テイは、主に若者向け(ミレニアム世代)の会話を学習する目的でつくられ、人間と会話することによって賢くなっていくという触れ込みだった。しかし、実際にやらせてみるととんでもない学習をしてしまった。

 テイはツイッター上で次々に、人種差別発言、性差別発言、陰謀論、卑猥な言葉をつぶやき始めたのである。たとえば、「ヒトラーは正しかった。ユダヤ人は嫌いだ」、「フェミニストは嫌いだ。死んで地獄で焼かれればいい」など。これに慌てたマイクロソフト社は、公開からわずか1日でテイを停止してしまった。

 これは、米国の匿名掲示板「4chan」「8chan」の一部ユーザーたちが、テイの弱点を突いて、そのように教え込んだためだった。つまり、悪意を持ってAIを使えば、AIは“人類の敵”になることも可能だということを証明してしまった。

  テイの停止後、開発したピーター・リー氏は「人間によるインタラクティブなやりとりを通じた悪用についてあらゆる可能性を予期することは、失敗に学ばないかぎり不可能だ」と述べている。

 ソフィアやテイが話題になるのと並行して、もう一つ衝撃的なことが起こった。韓国で行われたAIと囲碁の世界チャンピオンの対決で、AIが4勝1敗とチャンピオンに圧勝したことだ。すでに、チェスや将棋の世界では、人間がAIに勝てないことは明らかになっているが、もっと複雑とされる囲碁でもこれが証明されてしまった。

 ただし、AIはこれまで行われた囲碁の棋譜をすべて読み込み、約3万回の対戦を重ねて対人戦に臨んだ。この点で、白紙で臨んだ現役チャンピオン、リ・セドルさんは不利だったが、それでもほとんど通用しなかったのだから、囲碁関係者にはショックだった。
 対局を見て検証したという、あるプロ棋士に話を聞くと、第2戦は本当に衝撃的だったと言う。

 「序盤でAIは定石では考えられない手を打ってきました。いわば“悪手”です。それで、これなら負けるだろうと思っていたら、その手が終盤で次々に生きてきて、リ・セドルさんは防戦一方になって負けました。これまでの常識では、どうして負けたのかわかりません」

 言い方は飛躍しているかもしれないが、AIは対局のなかで考えていたのである。つまり、人間の頭脳を超えていたと言えるだろう。

 対局後、リ・セドルさんは、「まだまだ囲碁には研究の余地があることがわかった」と、じつに素直な感想を述べていた。