オーディナルスケール 来ました。
本当は、昨日届いたのでフラゲしたんですが?
まぁ、一応発売日までは黙っていようかと思って。
因みに、SAOの中身の話ではなく、ARに着いての検証です。
尚、かなりの量のネタバレを含みますので、あれな人は本編を見た後に読んでください。
以下ネタバレ有り
表示する 消す
前回の考察通り、
やはりARの限界という物はありますね
エイジ氏が、2階か3階ほどの高さから飛び降りたところから変だと思っていたのですが?
本人の身体能力は顕世の制限を超えることは出来ず、結果として武闘派の人の方が有利で有り、運動不足だったキリトが弱かったのは当然でした。
それ以外にもシステム的なアシストもあったようですが、まぁそれはどうでも良いです。
オーディナルスケールのプレイにおいては、ホコ天だったり、何処かの公園だったり、時間が予告されたり、あれこれも有り当然のようにリアルに同じサイズの空間が必要なのは間違いないですね。
路駐の車などは、別のオブジェクトに変換されていましたが、何か、持てそうな物に見えてしまっていた場合はどうなるのか?
と思わなくも無かったですね。
すっころんだキリト君が大して怪我をしていなさそうでしたが、実際にARで転んだりしたら、何も身体を護ってくれる物は有りませんので、アスファルトでひっくり返ればかなり量の擦り傷が出て、多少の出血もしたでしょう。
ARでは色々な意味で役に立つとは思いますが、それを実地でのゲームに利用するのは、かなりリスクがあると思います。
ボス戦でのクライン達が良い感じに盾で敵の攻撃を防いでいましたが
結局それについてはどうなっていたのかが判りません。
ARで完全に映像でしかないボスとの戦闘で、剣の斬撃というイメージに対して、盾での防御としてこちらからの”押す”という動作に対して、どういったフィードバックが発生するのでしょうか?
当たり前ですが、剣との衝撃によって盾が弾かれると言うことは、ARでは有りません。
最後の方で判りますが、何らかのフォースフィードバックがなければ、盾を構えているだけで、何にも刺激を受けないでしょう。
仮に、何らかの方法でフォースフィードバックを受けられたとしても、「走り込んで盾で受ける」という事は、フォースフィードバックの限界を超えています。
1人の人間が走ることによって発生する運動エネルギーというのは、本人の全筋肉を総動員しても瞬間的に立ち止まると言うことは不可能です。
また、当然ながら、
スティック状のデバイスを振るという行為は、剣の重さを感じることは出来ません。
バスタード・ソードなどの重量級の剣を振り回して相手を叩きつぶすという行動は、当然出来ません。
ナーブギアにて行われるVRは人間の認識を狂わせて行っているので、遠心力を感じたり、遠心力に任せて身体ごと振り回したりと言うことが可能なのであって、100gもなさそうなあのデバイスで行うことは不可能です。
リアルの肉体が動くと言うことは、どうしてもリアルの物を持たなければ、同じ動作というのは不可能なのです。
そう言えば、オーグマーの視覚への書込は目の下に有るあれで行っているのでしょうか?
まぁ、なんとなくそう思っただけなのですがね?
アウトロースターを思い出しました。
アウトロースターはまさにレーザーを出して、網膜に直接刺激を送り認識しているようでしたが?
ナーブギアの縮小版であるオーグマーの場合、直接脳の視野に映像を送ることも不可能では無いと思うので、そう言う意味で、目の下に位置するパーツは何のためにあるのかちょっと疑問です。
目がどの部分を見ているのか判別するために付いているのでしょうか?
そして、最後は結局キリト君の十八番であるフルダイブにて事件を解決して終了でした。
それはそれとして、
何処かに、
ナーブギアやオーグマーを作る事は可能だと書いてある記事がありましたが、
あえて言いましょう。
不可能です。
当たり前の話ですが、神経伝達信号を妨害して、身体を動かないようにすることは可能です。
でも、それでも人間の身体は全身で一つのシステムなのです。
首から下を全て止めたら、生きていることは出来ません。
最低限、心臓、肺、内臓などは正常に動作させ続けなければいけません。
それ以外の、手足や背中、首などの筋肉だけ動かないようにする必要があります。
GGO編では、プレイヤーが極度に緊張した場合等は、大量の発汗をしていました。
そう言った当たりの機能も動かさないとダメです。
しかし、それを単純に行うことは出来ません。
SAOの中では、フィールドの気候に合わせて寒さや暑さを感じるのです。
皮膚神経はVRで制御され感じているはずです。
身体の体温の単純上昇だけでは汗はかけないことになります。
ですから、ナーブギアは神経伝達を阻害すると同時に、プレイヤーの状態に合わせて身体を制御する信号を送っていると考えるべきです。
VRで感じる物は、全てせき止めて、VR中も身体を制御するための様々な信号は独自に送る必要がある。
基本的には、寝ているのと同じ状態にすれば良いと思うのですが?
寝ている最中にゴロゴロ動く人が居るように、夢を見ている最中でも動作を完全に防ぐことは不可能です。
コレは、当然ながら身体を動かないようにする以上に大変な事なのです。
また、神経は、大体同じ所に該当の機能がありますが?
全ての人間が、同じ部分に同じ知覚を行う神経があるわけではありません。
もちろん、人それぞれに合わせてキャリブレーションは行うでしょうが?
脳波と称して、波線を出力するしか能が無い現代では不可能ですね。
与えられた刺激に対して、何処の神経が反応するのか、シナプスのマップを作る必要が有ります。
億とか兆とかある全ての神経の制御が行えるのだとしたら、それこそ、完全なるAIを作る事も可能でしょう。
ようするに、今まであれが出来ないコレガ出来ないと言われていた、SFのはなしの大部分が完成するほどの技術が無ければナーブギアを作る事は不可能なのです。
因みにARその物は大した技術ではありません。
見た目が微妙で良ければいくらでも作る事は可能です。
外が見えるための機能と、画像をインポーズするための機能さえ有れば可能です。
アウトロースターの様に直接網膜に書き込んでもいいですし
カメラで撮影した映像の上にインポーズしたのをモニターで見ても良いですし?
でも、どちらの場合も、目の向きを変えたら終わりです。
横を見たかったら、目を向けるのではなく、頭ごと回さないとダメです。
現在あるヘッドマウントディスプレイは全てこの欠点に対応出来ていません。
まぁ、無理でしょうけどね?