忌火起草
毎日がいっぱいいっぱいで忘れてましたorz
昨日から忌火起草の体験版が配信され始めてるらしい。
1GB近くあるデータ量で、実際には6分弱くらいのワンシーンを3本くらいご紹介、といった感じのものになっている。TGSでプレイアブル提供されていたものと同じものですな。
忌火起草はフルボイスの台詞とテキストのタイミングが絶妙なのと、音声が周囲360度&背後から来るというのが、最大の怖いとこだと思います。
右と左だけじゃないんだもんなあ。あれは反則だよ(つД`)
読み物の本では、設計図として提示した文章から、そこに起きていることを想像して貰う、読者の想像力を徹底的に励起するということをするわけで、読者が想像を膨らませやすい文章=良い文章ということにもなる。
サウンドノベルというのもそれに準じたところがあるんだけど、やっぱり最大の違いは色・動き・音。
ただのゲーマーwに戻って言うならば、色の付いたサウンドノベル、アニメーションのあるサウンドノベル、実写で動きもあるサウンドノベルというのは、それぞれ過去に実現されている。サターン版「街」が初めてリリースされたとき、それ以前のサウンドノベルファンからは、「(゚д゚)ハァ? 実写?」と散々な前評判を受けたものだった。実際やってみると、ザッピングシステムの複雑さ奥深さ、キャラ立ちしている登場人物達というのも相まって、実写であることの抵抗感というのは、あんまりなかった。
「街が最高傑作」「街2を出せ」と期待し続けるサウンドノベルフリークが未だにいるくらいだ。(これに関してはかまいたち最高派、弟切草が原典派などもいるので、どれがベスト・オブ・ベストとは言うまいw)
これまでのサウンドノベルでは、音は擬音効果音的な、ニュアンスを持たない音のみが扱われてきた歴史があった。もちろん、最近では声優さんが豪華に喋るビジュアルノベルもかなりある。
が、忌火起草のボイスがなんのためにあるのかというのをよーく考えてみると、実はあれは演出のためじゃないんじゃないかという気がしている。このへん、シナリオが僕の手から離れた後に開発の人に聞いたわけではないので、これはシナリオライターとしてというよりも、モノカキ+ただの1ゲーマーwとしての見解なんだけど。
我々は、読書をするときに目を使う。文章を目から取り込み、脳内に人物像やストーリー像を結ぶわけだ。読書という行為では、情報は目からしか入ってこない。動きもない。ひたすら文字情報を追い、それを自分の脳内でデコードする。その過程で自分好みの顔立ち、声というのを想像し、脳内補完する。それが読書の楽しみであるし、初期サウンドノベルの情報の流れも基本はこの流れだったと思う。
テレビや映画館では、動画と音声をそれぞれ目と耳から取り込む。動画は「目前の動きを、見たままに」再現し、音声はそれとセットになっている。つまり、動画と音声は解釈を必要としない。これは、リアルタイムに現実風景を「眺めているとき」も同じだと思う。そこに自分が関わっているのではない場合、相対した相手から何かを問われ、自分で考えなければならない、という条件がないのであれば、うつろう風景とそこから聞こえてくる音は、別々のものではなくてやはり「セットで一系統の情報」だと思う。
では、自分がその場に居合わせ、なおかつ誰かと対面して話をしているときはどうか。
そういうとき、我々は相手の顔を眺め、表情を読み、声を聞き、「次に何を喋るか」を考えつつ、相手が喋っている内容を自分の脳内で咀嚼しつつ、どこで言葉尻を捉えて自分が喋り始めようかということを考えつつ、相手の思惑を想像してみたり……というようなことを同時に並列処理している。
これは顔が見えなくても電話なんかもそうで、相手の顔という動画情報がなくても、相手の声色から何かの思惑を類推しつつ、相手の言葉尻の終わりを窺って、自分が喋るきっかけを探したりしている。
そうすると、猛烈に忙しく脳みそは回転し、他人に声を掛けられても気付かなかったりもする。もしくは虚ろな生返事をしたり(^^;) よくない例えだが、自動車運転中に携帯電話を使って事故を起こす人なんかは、やはり電話という行為に脳のリソースを取られてしまう。あれと同じ。
忌火起草は、まず動画や画像で視界を拘束する。そして、心理描写を読ませるという名目で、視点を画面に釘付けにする。視点だけではなく、意識のかなりの部分はテキストを読むことに集中させられる。しかし同時にフルボイスで「台詞」というより、誰かの「会話」も聞かされる。
これが、画面に「今喋っている会話内容と同じものが、テキスト字幕として表示される」のだとしたら、音声はあってもなくても変わらないものになる。つまり、同じ情報を耳と目の両方から取り込むことになっているわけで、聞き漏らしはなくなるだろうけれど、集中力は下がる。集中しなくても2系統から同じ情報が入ってくるからだ。
が、目から入る情報と耳から入る情報がそれぞれ別のモノで、なおかつ双方は連動していて、独立した2系統からの情報が複合的に意味を持つようなものだったとしたらどうか。
動画を見、文字を読み、その意味を考える脇で耳からの「会話」も入ってくる。フルボイスを台詞ではなく会話として捉えると、これが結構忙しいことだと判ってくる。
目と耳から同時に別の形をした情報が入ってきて、それを脳内で処理し、同時に文字では表示されない行間や虚像を脳内に結び……そういうことを同時多発的にやっていると、どうなるか。
先に触れた「生返事」や「交通事故を起こす寸前の携帯電話通話」のように、外部と遮断されやすくなるのではないか。つまり、集中力を無駄に高めるというか、よく言えば「引き込まれやすくなる」というか。もちろん、読み戻し機能はあるにせよ、視覚からの映像と文字情報、会話の断片、そういうものを同時に処理させられるうちに、脳内は現実から遮断されてゲームが提供している情報で一杯になっていく。
これはちょっと怖いw
シナリオの出来とは別の意味で、この同時処理を強要するシステムというのが怖い。と思う。
すでに体験版をプレイした人のblogや、スレwの声などからも「ニコ動っぽい」という声が散見されるが、確かに音声と動画とテキストの同時並列処理の強要wという意味では、ニコ動っぽいかもしれないなとは思った。なかなかうまいことを言う。
例えば弩2のように、断片を見てもさほど怖くないんだけど、全体を通して最後まで読むと読者の脳内がオーバーフローして大変なことになっちゃう……というものを心掛けたのだが、「プレイヤーの脳内をオーバーフローさせて恐慌状態に追い込む」というのが、実はあのフルボイスシステムの狙いなんじゃないかなあ、と、1ゲーマーに戻ってみて改めて思った。
なので、体験版はストーリーを追体験するためのものというよりは、「脳の並列処理を強要するギミック」の手触りを感じるためのものとして受け取ったほうがよいかもしれない。
てな話を純粋ゲーマーwとして想像してみた。
TGSや新宿なんかで触らせて貰ったときの、あの音の立体感はほんと凄かったしなあ。
※繰り返しますが、これはチュンソフトの代弁とか宣伝とかではなくて、ホントに1ゲーマーとして、そして「文字情報しか提示できない、書籍を書いているモノカキ」からのシステム考察ということで。PS3早く買わないとなあ(^^;)