AIと人間の欲望


 AI技術における何が人間にとって脅威となりうるだろうか?これは技術一般について言えることであるが、ポイントは、その技術が人間のコントロール下に置かれているのか、それともその技術がなんらかの「自立性」を持っているのかである。前者であれば、その技術は人間にとっての道具であり、人間は安心感を得ることができる。しかし、後者であれば、その技術は、勝手に振る舞い始めて、暴走するリスクを生み出かもしれない。AI技術でも、問題は、この二つの極のあいだにある。つまり、AIによるビッグデータの解析の場合は、ツールであり、AIは人間の経済活動の強力な武器となる。しかし、ハイパーAIのようなものが出現すれば、それは「自立性」を得て、人間の脅威となる。

 もっと詳しく言えば、同じAI技術であっても、人間が学習サンプルを与え、分析カテゴリーを指定するなどして、人間のコントロールが強化された形で使用する場合もあれば、機械に自動的に学習させて極力機械に一任する方式もあるであろう。したがって、AIという同一の技術も、人間のコントロール下に置かれる場合と、自動化ひいては自立化する場合という二極に分かれ、実際のところ、この二極の間を揺れ動くというのが現状であろう。そしてAIという技術が自分たちのコントロール下に置かれている場合、人間は安心してそれを使用し、その驚異的な威力を讃嘆するが、しかし、自動化・自立化したAI技術が、人間のコントロールの範囲を逸脱するリスクが感知される場合には、人間は脅威や不安の念を禁じえなくなる。当然ながら、こうした二極性は技術一般に当てはまることでもある。