先述の通り、ユーチューブ自身が「ユーチューブでは、ユーザーの皆さまがそうと知らずにポリシーに違反してしまう場合があることを理解しており、警告に期限を設けています」と述べておきながら、舌の根も乾かぬ内に、深夜の数時間の内に三段階目の停止まで進行するのであるから、ユーチューブのシステム上の欠陥が悪意をもって利用されたことは明らかである。

 一連の削除に至る流れの中で私が感じたのは、ユーチューブは人間が確認して削除作業をしていないということである。

 まず、短時間の内に三本の動画が削除されると自動的にアカウントが停止されるという仕組みであるから、アカウント停止自体は、人間が判断せず、自動的に停止されるものと見られる。

 次に、番組を削除する判断も、果たして必ず人間が確認作業を行っているか疑わしい。この政治キャンペーンでは、何千人ものユーザーが、数百のアカウントの無数の動画に対して、夥(おびただ)しい数の通報を行っていると見られる。この動画一本一本を、日本語を理解する者が動画を見て判定しているとは考えにくい。

 例えば、1カ月に1000人が100件ずつ通報したら、10万件の通報があったことになる。仮に1件当たり判定に3分間を要した場合、その作業に30万分、つまり5000時間を要する。これは、フルタイムの従業員31人が1カ月の間付き切りで作業をしないと捌(さば)けない仕事量に該当する。

 ユーチューブはこの通報ラッシュに対応するために、米国で日本人スタッフを急きょ31人振り分けたのだろうか。恐らく、簡単な日常会話ができる程度の非日本人、あるいは人工知能(AI)に判定させたか、あるいは通報が多い動画については内容を検討せずに自動的に削除したかのいずれかに違いない。

 また、私のチャンネルの場合、3本の動画が削除されたのは日本の深夜帯に当たるため、日本の事務所で日本人が確認作業をしているとは考えにくい。つまり、米国で米国のビジネスアワーに、米国人が作業していると考えるのが自然である。

 具体的にどの箇所がどのような違反に該当するか問い合わせても、ユーチューブから返答はなかった。おそらくアカウントを停止された人が何百人もユーチューブに問い合わせをしているはずだが、それに対応するにはさらに何人もの専用スタッフが必要になる。私の番組のチームがいくら連絡しても、一切反応しないところから、ユーチューブの削除を担当する部署には十分なスタッフが配置されていないと考えられる。
写真はイメージです(iStock)
写真はイメージです(iStock)
 そもそも、私は特定の民族を差別する発言はしていない。中国や韓国の政府や特定の民族に対して政治批判をすることはあるが、出身民族の差別は絶対していないと断言できる。

 ユーチューブのガイドラインには「悪意のある表現と見なされるかどうかは紙一重で決まります。例えば、一般的に民族国家を批判することは許容されますが、出身民族だけの理由で差別を扇動することが主な目的のコンテンツはユーチューブのポリシーに違反すると見なされます」と明記している。