How long the day of break-through./侏儒雑感

はてブホッテントリにこんなのが上がってた。

王様の箱庭「『攻殻機動隊』『電脳メガネ』どころではない拡張現実感技術の現在」

読んでみたけど「ああ、やっぱりこのくらいまでは進んでいたんだなぁ」というのが感想。

上の記事中でも出ていますけどニコニコ動画に画像認識技術を使って、指で動かす「スーパーマリオブラザーズ」のプレイ動画がアップされていたのを10日くらい前に見かけて衝撃を受けました。

これほど気軽に扱えるまでに映像認識が進歩・普及していたのか、と。

僕の理解する範囲では、人工知能の研究が滞った原因の一つが外界の認識にあったと思います。

知能は論理的な概念と経験的な概念とから成っており、人間を理解するには人間というインターフェイスが発する情報を全て把握できなければならない。それが人間的コミュニケーションには必要だからです

音声認識音声認識ソフトの普及によって、ある程度のハードルは超えたと思っていました。

後は、声質の違いを把握する必要があると思います。声質の違いから男性・女性の推測、感情の推測を行うためです。今のソフトの利用目的からは必要とされないので、人工知能の側で進めないとダメでしょう。

画像認識はウェアラブル・コンピュータの開発の延長線上で発達するでしょう。

これらを組み合わせて、「しとしと」と「ざあざあ」の違いを判断したり、画像から「悲しい表情」を把握したりする、また、そういえばアニメーションを自動で作成するソフトを使えば、ディスプレイに表情を描くこともできるでしょうし、音声合成もCrypton社のCVシリーズを見ている限りかなりのレベルに達しています。

これらを組み合わせれば体は別として五感の内の視覚と聴覚を用いてコミュニケーションする人工知能はあと10年前後でできてしまうのではないだろうか?と期待してしまいます。

人間の頭脳の容量はTBのレベルだったと思うので、こちらも達成可能なレベル。頭脳であるCPUの速度に関しては、そろそろ十分ではなかろうか?

おそらく、記憶を最適化することが忘却に当たる作業になると思う。

最初の人工知能は手足が無くて動けないので(視差を利用したカメラアイが軸を持って回転することはあっても)、記憶する画像の中に動かない部分が出てくる。その部分を下地としてその前面を人間が動くという認識を持たせるためには、下地の部分を一枚絵として保管し思い出すときは認識した人間などの動きのある映像をその下地の上で動かすようにして再現するという作業をさせる。要は記憶容量の圧縮なんだけど、単純な圧縮ではなく擬似的な忘却になる…とか。

手足についてもそんなに遠い話じゃないかもしれない。同じくらいにできてしまうかも。

ただ、こちらは人工知能が先行しないことには有用性が見出せなさそうで、推進力が得にくい気がします。

で、こうやって作ったコンピュータは間違いは犯さないかというと、やっぱり間違うと思うんですよね。HAL9000じゃないけど、把握できる情報に限界がある限り知性が導きだす推測には誤りが含まれる。ただ、コンピュータベースの知能の方が記憶を喪失しないという意味でより精確な推測を可能とするかもしれない。

しかし、その時に障害となるのはやはり感情なのだろうと思う。

希望的観測をするコンピュータとか面白いと思うけど、需要は低いよなぁ。

しかし、人工知能が実現しても『甲殻機動隊』のような電脳の実現は別の話になりそうな気がする。構成物が違うし、電脳の研究によって頭脳の理解は進むだろうけど、問題は有機的な神経パルスをどうやって半導体の神経パルスに置き換えるかという技術的な問題で、記憶をコンピュータに移すというのもそれがハードルになるのではと思う。思考というのは「光を感じさせ」たりとか「単純な行動を支持し」たりとかとは異なるハードルがあるのだと思う(期待を含んだ言い方になっているが)。

感覚的には人間の記憶は「AとBが強く関連付けられている」という状況以外に、「AとBがCを通じて強く関連付けられている」という状況があり、そしてその連鎖が創造的発想に一役買っているのではないかと思うからです(茂木先生の言うクオリアってやつもこれなのかも知れない。本読んでないからわかんないけど)。

…とか、土木に属している人間が書いても全く説得力は無い話でしたね。

つーか、SFはこのあたりの話をどの程度まで具体的に描けるようになっているのだろう?

外付けハードディスクみたいにして記憶を持ち歩く世界の話は数年前に翻訳された書物がえらいプッシュされているのは見たけど…。あ~あ、読書速度の遅さが致命的だなぁ。どんどん時代の先端から置いてかれてってるorz