記事

ビッグデータはビッグブラザーにはならない〜超管理社会のゆくえ(上)

「ビッグデータ」という言葉が、最近あちこちで使われている。その定義は比較的曖昧だが、一般的には「Google、Amazon、iTunes、各種SNSに蓄積されたデータ」などがビッグデータを備える典型的な存在として語られることが多い。共通するのは、ユーザーがこれらを利用することで、当該サーバーに個人に関する情報(文字、画像、映像、音声等)がリアルタイムで次々と蓄積されていき、膨大な情報量になるというもの。こういったシステムによってわれわれが恩恵を受けているのが、例えばAmazonのアカウント・サービスだ。ここでは、これまで閲覧・購入した履歴がサーバーに蓄積され、これが同様にアマゾンを利用したユーザーのデータと照合、解析されて「おすすめの商品」を紹介してくる。つまり、個人の閲覧・購入した「パターン」が次々と蓄積され、そこから統計的に同質のパターンを抽出し、次いで、その同質パターンに従いながら、新たなユーザーのパターンを予測する。新たなユーザーが新しいパターンを作っていたり、既存のユーザーが新たなパターンを構築すると、やはり同様にこれがフィードバックされ、このパターンが更新されていく。

こういったビッグデータの特徴に対し、しばしば危惧の念を持って語られるのが、ビッグデータが悪用されるのではないかという不安だ。Googleであれ、Amazonであれ、facebookであれ、膨大な個人データが1カ所のサーバーに集積されるわけで、そうなると、このビッグデータを特定の人間や組織が独占してしまい、これを自由に操作することが出来れば、これらデータを利用して個々の人間をコントロールできる。そして、もしそういった行為をする人間や組織がヒトラーやナチスのような野望を抱いていたら、世界は一部の人間によって完全に支配されてしまう。まさにG.オーウェルが小説『1984』の中で描いた中央制御的コンピュータ、ビッグ・ブラザーによる人間の支配が可能になる。これは恐ろしいことではないのか?

こういった懸念、僕は「楽観的な悲観主義」と考える。ちょっとシステムを単純に考えすぎているのではないか?しかも、悲観的な側面でという意味合いなのだけれど(いわゆる”陰謀史観”的な被害妄想と同様の心性だ)。実は、こういった懸念、結構杞憂に過ぎない、そしてこのシステムの恐ろしいところはもっと別のところにあると僕は考えている(オマエこそ楽観的で単純すぎるというツッコミが入りそうだが)。では、なぜこういった見解を採るのか。このことをメディア論的に説明してみたい。

コンピュータ、実は何も考えていない

スマホをお持ちの方は、音声認識アシスタントの機能を利用されている方も多いのではないだろうか。iPhoneなら「Siri」、docomoなら「しゃべってコンシェル」なんかがそれだ。日本語で「近くのラーメン屋は」で話しかけると「この周辺には10ヶほどのラーメン屋があります」といった具合に返してきて、店舗のリストをずらっと並べてくれる。まあ、それなりに気の利いた答えを返してくる。これのおもしろいのは、正確なところは驚くほど正確だが、トリビアなところは全然ダメなところだ。

そしてもう一つ特徴的なのは、回線に繋がっていないと使用不可能なこと。こうなるのは、実はこの音声アシスタントシステムがビッグデータをエンジンとして機能しているからだ。スマホで音声認識アシスタントに話しかけると、回線を通じてネットサーバーにそのデータが送られ、解析される。つまりあなたの話しかけた言葉はスマホが処理しているのではなくて、クラウド上に、いわば「外注」され、処理されているのだ。つまり音声認識アシスタントシステムは膨大な情報があって初めて可能になるのであって、スマホはその端末として機能しているに過ぎない。で、こういったかたちでユーザーがこのシステムを利用すると、使うたびにデータがメインサーバー上に送られ、そこで分析が行われる。ただし、コンピュータが考えているというのではなく、アルゴリズムに基づいてパターン解析をしているにすぎない。つまり、あなたの尋ねてくるデータと類似したデータをパターン化して行く。つまり統計的にパターンを処理していくわけだ。

コンピュータはオウムと同じ

音声アシスタントシステムは、こうやって不断に学習=パターン解析を続けることで、次第に正確性を増していく。ただし、これ、実は考えているわけではない。比喩的に説明すれば、これはオウムや九官鳥のおしゃべりと同じメカニズムに基づいている。

オウムは言葉を覚えさせると、そのシチュエーションでキチッと返事をする。これはだいぶ昔の話だが、僕が高校の頃、玄関でオウムを飼っている友人がいた。この友人を「鈴木」という名字としよう。で、この友人宅に行きドアをノックし「鈴木さ~ん」と声をかけようとすると、こちらが名前を呼ぶ前に、扉の向こうから「鈴木さ~ん」と声が聞こえてくるのだ。そう、オウムは扉のノックと「鈴木さ~ん」という声を条件反射、つまり刺激ー反応図式で学習してしまったのだ。この時、オウムはノックと鈴木さんの関係を全く理解していない。そして「鈴木さん」の意味も理解していない。ただ単にパターンを認知=知覚(cognition)したに過ぎないのだ。

で、これをものすごい記憶量と処理能力で可能にするのがサーバー上のコンピュータに他ならない。つまり、あなたがSiriと話をしているように見えても、相手はこちらのことなど全く理解しておらず、こういった「オウム返し」のパターンを膨大な数だけ記憶し、こちらが喋ったことに対してパターン解析し、統計的に割り出されたパターン的に近似のものの回答を返してくるだけなのだ。
ということは、ユーザーが使い込めば使い込むほどパターン認知は正確性と多様性を備えるようになり、さながら「考えている」かのように、こちらに対応することが可能になる。つまり文字化すればチューリング・テストに合格するようなコンピュータが登場するのだ(逆に言えば、トリビアな情報については、こういった「ユーザーとサーバー上のやりとり」がほとんど行われないので、返すパターンをコンピュータが知らず全く使いものにならない)。

だが、これは言い返せば、コンピュータは何ら判断能力を持ちあわせていない、言語学的に表現すれば意味論的世界についてはなにもわからないということでもある。例えれば「味の成分は分類できるし、おいしい料理を作ることは出来るけれど、自分はその味が決してわからない」というのがコンピュータの脳なのだ。いわば「人工無能」。Siriは”Speech Interpretation and Recognition Interface”(=発話解析認識インターフィス)の略称だがrecognition=認識の定義を「本質を理解し正しく判断すること。また、そうした心の働き」とすればSiriは全く認識能力を備えていないことになる(recognitionをcognitionと変更して発話解析認知インターフェイス、つまり”Sici”とすれば、適切な名前ということになるだろう)。

ということは、まずコンピュータの方が勝手に世界を理解して判断し、自ら主体的に思考し、行動し始めると言うことは現状では考えられない。『2001年宇宙の旅』に登場するHALのように、人を殺したり、判断を誤ったりするようなことは決してない。(判断を誤ったとしたら、それは純粋にプログラミングミスだ。人を殺すとするならば、殺してよい条件がパターンとしてプログラムらされていなければならない。そしてそれを入力するの人間の側だ。だが、それに対してはA.アシモフが定義した「ロボット三原則」のようなこれを否定するメタプログラムがパターン化されることになる。もっともろロボット三原則の第一条は絶対法則で「人間に危害を加えてはならない」だが)。

快適な「人工無能」

ただし、こういったかたちで夥しい数のデータが日々蓄積されると、われわれはこうやって作り上げられたパターンに抗うことが難しくなっていく。それはビッグデータが作り上げたパターンがわれわれを強制すると言うより、われわれの行動の集積がパターン化された「集合知」となるためだ。そして、統計に基づいて不断にこの集合知がヴァージョンアップされるためだ。

J.スロウィッキーはネット上で集合知が生まれることを指摘した。つまり、はじめは間違った情報がアップされても、いろんな人間がこれに改訂を加えることでだんだんと正確なものになっていくと指摘したのだが、残念ながら人間において、これは不可能だ。問題はフィルター・バブルが発生するからだ(これについては後述)。人間の場合、いくら情報を集積してもあっちこっちからツッコミが登場してまとまらない。様々な認識が様々な見解を生むので、結果として”喧々囂々”の議論になってしまう。つまり「人間は意味的世界に生きており、アタマがいいのでまとまらない」。

ところがコンピュータはバカであり、愚直だ。ひたすらデータを集め続け、アルゴリズムに基づいてこのパターンを見いだす作業を続ける。だから、どんどん統計的な確率が上がっていき、正確になっていく。いいかえればコンピュータに関しては「みんな意見は案外正しい」、いや「みんなの意見は正しい」ということになる。ただし、間違えてはいけないのは、やはり個々のデータに価値判断が含まれてはいないということ。集合的に解析したパターンを抽出しているだけなので、いわば「多数決の結果、趨勢を占めたものが正しい」という判断しか下せないのだ。投票した人間全員が間違っていても、それはコンピュータにとっては正しいものとなる。つまり「コンピュータは統計的世界に生きており、アタマが悪いのでまとまる」。

価値判断を全く下すことができない、でもチューリングテストには合格してしまう「人工無能」=コンピュータ。しかし、これに従うことによって、われわれは快適な生活が約束されることになる。たとえば前述のAmazonの「おすすめ」を思い浮かべてもらいたい。次々と商品を提示してくるが、かなり気が利いている。自分が読んだ本の作者の新作などをいち早く提示してくれるからだ(で、思わずポチってしまうのだけれど)。

また、これは交通システムのことを考えてみてもよくわかる。現在、交通システムの発達によって渋滞はかなりの程度低減されてはいる。おそらく現在の交通量を鑑みれば、この渋滞の少なさは高く評価してもよいだろう(以前のシステムなら、慢性的な渋滞に陥っているはずだ)。これが可能になったのは、要するにクルマを運転している「個人」ではなく、クルマの流れという「交通量」のみに注目し、統計的に処理したから。ただし、現状でも渋滞は発生する。じゃあ、これはどうやったら解消できるか。なんのことはない、よりデータを集積し統計的に処理しパターンを厳密化し、アルゴリズムに基づいてパターンを解析し、交通システムを配備すればよいだけの話なのだ。たとえば、何十年後かに高速道路の自動速度制御システムのようなものが完成すれば、渋滞は全て解消し、交通事故は激減し、クルマの利用者は安全かつ快適に目的地に到達することが出来るようになる。それは、膨大な数のクルマの流れをフィードバックし統計的に処理することによる必然的結果だ。そしてこの時、われわれの交通事情についての満足的は相対的に上昇する。つまり快適レベルについての幸福度が上がる。渋滞でイライラすることも居眠り運転の危険性もなくなるのだから。だから、われわれは、この「人工無能」に抗うことが出来ない。

だが、これは要するに究極の管理状態、つまり「超管理社会」の出現を意味する。われわれはコンピュータ社会の「飼い慣らされた羊」となる。ただし羊飼いに鞭を打たれるのではなく、やさしく管理されて。

ところが、この「快適さ」、実はかなり危険なものでもある。ではそれは何か?(続く)

【関連記事】
ビッグデータはビッグブラザーにはならない〜超管理社会のゆくえ(下)

あわせて読みたい

「ビッグデータ」の記事一覧へ

トピックス

ランキング

  1. 1

    韓国への防衛協力を即時停止せよ

    和田政宗

  2. 2

    女芸人 大御所もセクハラはダメ

    たかまつなな

  3. 3

    照射問題に前防衛相「怒り示せ」

    佐藤正久

  4. 4

    SPA!に抗議した女子大生は危険

    小林よしのり

  5. 5

    高須氏がローラに理解示す 涙も

    田中龍作

  6. 6

    交渉拒む韓国 反撃するしかない?

    MAG2 NEWS

  7. 7

    ルノーが数日中にゴーン氏解任か

    ロイター

  8. 8

    無闇なインフル通院に医師が警鐘

    中村ゆきつぐ

  9. 9

    金持ちの道楽でない左翼が必要

    常見陽平

  10. 10

    ゴーン氏庇えぬ仏 裏に対露外交?

    やまもといちろう

ランキング一覧

ログイン

ログインするアカウントをお選びください。
以下のいずれかのアカウントでBLOGOSにログインすることができます。

コメントを書き込むには FacebookID、TwitterID のいずれかで認証を行う必要があります。

※livedoorIDでログインした場合、ご利用できるのはフォロー機能、マイページ機能、支持するボタンのみとなります。