1998年度 インターネット講座

メディア・情報・身体 ―― メディア論の射程

第9回
メディアと身体 (3)
ユーザー・インターフェースの「感覚性」?

(99/01/03 更新)

技術メディア・身体性・インターフェース

前回は、「音声言語」の段階(これについては量はわずかでしたが)と「文字言語」の段階でのメディアと身体との接続について取り上げましたが、今回は、技術メディアと身体との関係ということになります。

技術メディアと接続した身体がどのような感覚変容を受けるかについては、すでに第7回の講義で電話・テレビ・コンピュータを例にして導入的に触れました。それはどちらかといえば、一時的な感覚変容ですが、根本的な意味での感覚変容についても、マクルーハンについて紹介した際にすでにある程度述べています。(第2回講義 資料5資料6参照)ここでは、そういったことを踏まえながら、話を進めていきたいと思います。

技術メディアと身体との関係について述べるためには、やはりインターフェースからはじめるべきでしょう。そもそもインターフェースという言葉はコンピュータ用語であり、これまで述べてきたようなインターフェースとしての感覚器官とか、インターフェースとしての文字というのは、本来はコンピュータと身体との接続において見られるものを転用して使っているのにすぎません。あらためて言うまでもなく、インターフェースというのは、二つの異なるもののあいだにあり、そこにおいてその異なる領域どうしのあいだに疎通が可能となるような界面を意味します。その二つの異なる領域とは機械的なものどうし(コンピュータ内の構成要素どうし、あるいは周辺装置とをつなぐさまざまなバス)でもありますが、ここで問題としているのはとりわけ、たとえばキーボードやマウス、モニターといった、機械と身体との接続の界面を形成しているものです。このインターフェースにおいて、コンピュータにおける0と1だけの世界という完全な離散性と人間の身体的感覚性という両極が、いわばお互いに歩み寄って架橋されているのです。

コンピュータの進歩として少なくとも外面に現れているもっとも顕著なものは、なによりもインターフェースの進歩のうちに集約されていると思われます。パーソナルコンピュータが一般的なユーザに普及しはじめた頃(80年代)から考えても、最初は単にDOSの言語をキーボードで打ち込むことにより、さまざまな設定やファイル管理などを行っていましたが、じきにマウスが入力装置として加わり、さらにそのマウスを用いて文字ではなく、グラフィックによるアイコンを触覚的に操作する(押す・つまむ・移動する)ようになっていきました。そういったソフト面での「ユーザ・インターフェース」の改良は、ハード的な入出力のインターフェース(モニタ・プリンタ・スピーカ・マイクなど)の改良・追加をともないながら、たとえば音声による入力や、キーボードによるのではなく文字や図形(アイコン)をクリックすることによる入力などを一般のユーザーにとっても可能にしていきました。

パーソナルコンピュータのレベルでこういった感覚性が最も追求されている領域は、ゲームではないかと思われます。そのためのインターフェース(たとえばジョイスティック)によって肉体的な動きが入力され、われわれが目や耳で世界を体験するのを模倣した形で、モニターやスピーカという出力側のインターフェースを通じて、仮想的な出来事が体験されます。人間の肉体的な運動の入力、それに対するインタラクティブな反応がやはり感覚性に訴える形で出力されるという、いわゆるヴァーチャル・リアリティーは、技術メディアと身体との接続がきわめて高度に進みつつある領域であり、その意味でここでのテーマに本来ならば最も沿った問題であるかもしれません。しかし、私がこの講義で取り上げようとしているのは、現在どういったことが技術的に達成されているか、という事柄そのものではなく、それがどのような意味を持ちうるか、そしてとりわけ、私のような人文系の研究者にとってやはり最も中心にある「文字言語」の文化段階が、現在のようなデジタル・メディアの文化段階にいたったとき、どういったことがそこで起こっているかということなので、技術的な話を期待していた人にはちょっとお気の毒ですが、そういった話は別の本に譲ることにしたいと思います。(参考:「バーチャル・リアリティ」についての一般的な文献

 さて、こういったインターフェースの進歩は、人間が感覚性を犠牲にして機械に歩み寄っていた程度をより少なくし、できるだけ身体的な感覚性に近い形で機械と接することができるために成し遂げられてきたものです。その意味で、コンピュータを使う人が(とりわけ、グラフィックや音声により身体的な感覚性に近い表現を与えられたときに)そこでの感覚的経験の中に入り込んでいくという現象は、メディアを論議する場においてあらためて指摘するまでもなく、コンピュータ(ハード、ソフトとも)をデザインする人がはじめから意図していたことを確認しているにすぎないともいえるでしょう。

 しかし――この点は、コンピュータ上のユーザー・インターフェースのデザインにかかわっている人に私がお聞きしたいことですが――、インターフェースにおいて機械の離散性を人間の感覚性に近づけようとするとき、その感覚性として目指されているものは、単純に「テクスト」以前の段階の感覚性なのでしょうか。もしそうだとすれば、そこにひとつの落とし穴があるといえるかもしれません。第6回講義でも「チューリングの銀河系」の連関で言及したグラスムックが次のように指摘するとき、このことが問題となっていると思われます。

インターフェースは、メディア内メディアである。それは、分離されているものを翻訳し媒介する。以前NECの研究者が、オフィスの様々な機材をデジタル3Dビデオ映像化し、それをデスクトップ・コンピュータのリアルなメタファーとして表現したことがあったが、これはコンピュータをユーザー・フレンドリーなものにする、という信念から行われたものだった。このおそらくは史上もっとも巨大と思われるユーザー・サーフェイスによって、<没入する>という感覚を高め、ビギナーでも<直観的に>即コンピュータを使って作業ができるようになるというのだ。このサーフェイスはしかし、メタファーはより明確化されれば<より現実的に>なる、という誤解に基づいている。ギリシア語の<メタフォラ>もラテン語の<メーディウム>も、語義的には媒介ということを指す。たとえ四次元的な映像リアリズムであっても、記号から事物を作ることはできない。

(グラスムック「チューリングの銀河系」[1] 『InterCommunication』No.12、p.66)

もし技術者が、「直観的に」「より現実的に」という目標でもって、たとえばオフィスの中の機器を目で見て、同僚の会話を耳にし、実際に触れて動かすといった、つまり「テクスト」以前の感覚性に近づくことだけを念頭においているとすれば、コンピュータ上のインターフェースは、そういった感覚性に近いものを確かに提供する一方で、そういった本来的な感覚性とは異なるものを同時に生みだしているということが忘れ去られている(あるいは、非本来的な副産物として無視されている)といえるかもしれません。つまり、上のグラスムックの言葉でいえば、インターフェース上で人間が接するのは、「テクスト」以前の感覚が捉えるような「事物」ではなく、(きわめて感覚的ではあるけれども)あくまでも「記号」であり、人間が接しているのがあくまでも「記号」であるというまさにそのことによって、人間が<世界>と関わりをもつ上で、まったく別の意味が生じうるということです。ここで問題としていることを、もう一度別の言い方でまとめてみましょう。「テクスト」の次の段階のメディアとしてのコンピュータという技術メディアが「直観的」で「より現実的」な感覚性を追求する場合、確かに「テクスト」の間接性に比べて、「テクスト」以前の感覚性に近いものをもつことができるのは事実ですが、それと同時に、その感覚性は「テクスト」以前の感覚性とは別のものを生みだしているのではないでしょうか。あるいは、「テクスト」以前の感覚性に「近づく」という考え方自体が、そもそも問題を孕んでいるのかもしれません。

テレビ・ラジオ・電話の「感覚性」?

 技術メディアとしていきなりコンピュータを引き合いに出してきましたが、それ以前の非デジタル的な技術メディアとしてのテレビ・ラジオ・電話などについても同じことがいえます。書物の文化における文字というインターフェースに接続する場合、「テクスト」というコードを、身体的な感覚器官というインターフェースを介して<世界>

world

を捉える「画像」のコード(つまり「テクスト」以前の感覚性のコード)へと「デコード」するために多大の「イマジネーション」を必要とするような間接性が存在するのに対して、テレビ・ラジオ・電話といった技術メディアに接続する際には、「テクスト」以前の「画像」と同じような感覚性が実現されているように見えます。

「直接的」な感覚 eye arrow world
「間接的」な世界把握 eye arrow text ・・・デコード・・・ world
「直接的」な感覚性? eye arrow television ・・同じ感覚性?・・

テレビを見るときには、本の上のインクの模様を見て、それをさらに「文字」というメディアとして捉えてテクストをデコードするのとは異なり、画面上の視覚的刺激を「テクスト」以前の「画像」と同じように<世界>の把握へと還元していきます。テレビの画面という視覚的な技術的インターフェースと同様に、スピーカーというインターフェースを介して、ラジオや電話は、耳という身体的感覚器官に働きかけ、その聴覚的刺激のデコード自体は同一のものとなっています。つまり、文字メディアから技術メディアへの展開は、テクストの間接性から身体的感覚の直接性への展開と見えます。(これまでの論議でいえば、身体的感覚の直接性といっているものも、実際には直接的ではないのですが、「間接性」と「直接性」の差は、コード化・デコードの能力としての「イマジネーション」が必要とされる程度の差と考えたいと思います。)その意味で、マクルーハンが、電気メディアにおいて口述文化の段階における豊かな感覚の回復を見ていたのも、あまりに楽観的ではありますが、ごく自然なことといえます。このように、技術メディアにおいて、「テクスト」に対して否定的に(逆行的に)働き、身体的要素へとむかうものが含まれていうということは、もちろん見逃しようのない事実です。技術メディアにおいてヴァーチャル・リアリティが経験されるということは、いうまでもなくこのことに関わっています。しかし、他方で、こういった技術メディアとの接続は「テクスト」以前の感覚性とは別種の知覚・認識・思考を生みだしています。現象としては、たとえば大澤真幸氏が『電子メディア論』で例示しているような、電話をしている人、テレビを見ている人が体験する、現実の自己とは別の、メディアに接続した自己という自己の分裂、あるいは「自己における他者性」を挙げることができるでしょう。[註1] つまり、技術メディア上のインターフェースで得ることのできるもの(例えばテレビの画面上の映像、スピーカからの音声など)は、それがいかに感覚的なものであっても、あくまでも「記号」であり、その記号を提供している技術メディアのインターフェースに接続する「自己」と、現実のうちにある「自己」とが分離していく、というのがそこに現れている現象であると考えることができるでしょう。しかも、技術メディアとの接続の際に、感覚性を高めることによって現実へと近づくことを目標にしていながらも、感覚性を高めて技術メディアに「没入」すればするほど、没入した「自己」は、現実の自己とそれだけ顕著に乖離していくという、いわば逆説的な現象がそこで起こっていることになります。

音声言語の段階と技術メディアの段階での感覚性の違い

もう一度まとめてみましょう。例えば川の水が流れているのを見て、その音を聞き、水に触れ、その水を飲むといった、感覚器官を通じた世界の体験は、光や音(あるいはその振動を伝える空気)といった媒体と感覚器官が接続していると見なすこともできますが、そこにまったく媒体・介在するものを意識しないほど、世界を「直接的」に体験していると感じさせるものです。それと比べれば、「文字」というメディアはきわめて間接的な性格を強く持っています。例えば、上に書いてある文字自体を見たところで、実際に体験したようなことはなんら感覚的に再現されません。「読む」というデコードの作業により、仮想的な感覚がようやく再現されますが、それは一般的にいって、実際に「見る」「聞く」よりもはるかに高度なデコードが必要とされています。それに対して、その川が流れている様子をテレビの映像で見て同時に音を聞くとき、そこでの「見る」「聞く」という作業には、とりあえず、実際に「見る」「聞く」ということを行う以上のデコードは必要とされていないように思われます。見ているもの自体はテレビのスクリーンから発する光であり、聞いているもの自体はスピーカから出ている音ですが、それらを感覚器官を通じて体験する仕方は、基本的には、実際に世界を感覚器官を通じて体験する仕方と変わりません。その意味で、技術メディアとの接続は、音声メディアの段階と同じように感覚的であるということができます。

このように、とりわけ文字メディアと比べるときに、音声メディアの身体的な感覚性と技術メディアの身体的感覚性は非常に近いものであると感じられるのですが、ここで強調しなければならないのは、この二つがいかに異なるものであるかということです。二つの点を指摘したいと思います。

一つは、技術メディアに接続して「見る」「聞く」という行為が、現実に(つまり音声言語の段階で)世界を体験する行為と同じものであるように一見見えるけれども、実際にはそうではない、ということです。われわれは当たり前のようにテレビや映画の映像を見て、そこで起こっていることを理解しているけれども、そこでは現実にあるものを見ているのとは異なったデコードが実は行われているのです。そのきわめてわかりやすい例を、「非文字社会の人間は、なぜ相当な訓練を受けないと映画や写真を鑑賞できないのか」という表題でもって、マクルーハンがとりあげています。(『グーテンベルクの銀河系』pp.59)スクリーン自体は平面にすぎませんが、われわれはそこに映し出されるものを三次元的に、遠近法的に理解しています。また、そこで生じている出来事の流れ、時間の分断(場合によっては時間の逆転)をも理解しています。マクルーハンによれば、そういった理解が成り立つのは、われわれが文字文化の論理性・線状性をすでに身につけているからであり、それを土台として獲得された感覚の経験であるということになるでしょう。こういった論議は、むしろ文字を知る前にさんざんテレビに慣れ親しみ、それによって文字文化を獲得することがますます困難となっている現在の状況を考えるならば、疑問を生じさせずに入られませんが、いずれにせよ、テレビや映画を見る、という行為には、独自のデコードの能力を必要とするということは確かなことです。(このことは、いわゆる「メディア・リテラシー」の問題につながっていきます。)

もう一つは、技術メディアによる感覚性で体験しているものは、現実に感覚的に体験しているものとは別のものであるという、あまりにも自明のことです。しかし、この自明なことを強調するのは、すでに述べたことの繰り返しになりますが、技術メディアによる感覚性が、ますます現実の感覚性へと近づくことが目指され、場合によってはそのために、上に引用したグラスムックの指摘にあるように、目標設定自体が誤る可能性があるのではないかと思われるためです。ところで、あるたばこ会社が最近「デジタル・スモーキング」というのを提唱していました。それは実際に火をつけないというだけで、結局たばこを電熱で熱して成分を喫煙するという機械のようで、電熱スモーキングではあれ、決して「デジタル」ではありません。もし「デジタル・スモーキング」というものがあるとすれば、たとえば喫煙したときの味覚、嗅覚、その他の神経に及ぼす作用を、何らかのインターフェースを通じてデジタル情報として身体に与えるような仕組みのことをいうでしょう。現在、身体との接続を行っているインターフェースは、例えばモニターやスピーカがそうであるように、感覚器官とつながるものといえます。しかし、SF的になりますが士郎正宗の『攻殻機動隊』のように、デジタル情報がそのまま神経に接続されるようなインターフェースができたとすれば、われわれが「現実」と考えているものから受け取っている感覚的刺激と、「仮想的」な感覚的刺激の間には、事実上境界はほとんどなくなってしまうかもしれません。映画『トータル・リコール』はそういった混乱へと見ている人を巻き込む心地よい刺激に満ちていますが、しかし、主人公はやはり「現実」を求めることになります。(主人公は、当初の「現実」を拒否しますが、選択したものは当初のものとは異なるとはいえ、やはり「現実」です。)現在、ヴァーチャル・リアリティと呼ばれているものはその形態や目的によっていくつかに分類されていますが、一つの座標軸として実用性と娯楽性の両極を考えることができるでしょう。ヴァーチャル・リアリティをひとつの「仮想」として楽しむ場合(とりわけゲーム)はともかくとして、「現実」に足をしっかりとおろしているはずの実用性が仮想現実感を用いる場合、それは本来、現実の身体的感覚に近づけることによって道具を簡単に使用できるようにするという純粋に実用的な目的をもっているはずですが、それは同時に、現実の身体とは別の自己を生み出すという逆説を生じています。現実の身体性に近いインターフェースに接続することによって、現実ではない別の身体性を生み出すことになります。そういった状況自体をコントロール可能な状態で楽しむのであれば別ですが、これらのメディアを道具として使用する立場にとっては、技術メディアと接続することによって生じるこういった副作用は避けることのできないものなのでしょうか。このことについては、次回、再びフルッサーを引き合いにだしながら取り上げたいと思います。



第10回講義へ インターネット講座目次 HOME