ASMRで、ダミーヘッドマイクとかを使って、よりリアルな効果音の録音を行おうとかいうのが流行っていますが、「ASMRの再生音を、もっとリアルにできるかもしれない」という話について書いていこうと思います。
(「ASMRの再生音を、もっとリアルにできるかもしれない」という話)
昔、「Vector」のフリーソフトに、「Bug head Emperor」というWASAPI/ASIO 2ドライバに対応した音楽再生ソフトがあった。
現在は、作者のホームページごと消滅してしまっていて、ダウンロードできない状態になっている。(現在、海外のネットに残っている「Bug head Emperor」ソフトは、ウイルスが入っている事も多いので使用しない事をお勧めする)
((Vector)Bug head Emperor)
https://www.vector.co.jp/magazine/softnews/140109/n1401091.html
実は、この「Bug head Emperor」という、音楽再生ソフトは、既存の音楽再生ソフトとは、まったく違う発想で高音質に聴こえるという画期的な技術のソフトだった。
「高音質にする為に、あえて、ノイズを負荷する」という逆転の発想だった。
実の所、「ハイレゾ」というのが出た時に、世界中のピュアオーディオマニアが、「徹底的に、オーディオマニアのオカルトと言われているいろいろな事をやりまくって、究極の音を、パソコンで再生できるのか?」というのをやっていた時期があって、その時にわかった事が、「Windowsパソコンでは、OSや内部仕様設計が、ピュアオーディオ再生には致命的な欠陥があって、パソコンでは無理だ」という事がわかっただけだった。
それでも諦めなかった人達は、「パソコンのOSとかを極限まで使わせないソフト」という事をやった結果、「ピュアオーディオ再生には限りなく近づけたが、パソコンが2度と起動しなくなるなどの致命的な状態」になったので、この世界中のピュアオーディオマニア路線の方の、ハイレゾ再生ソフト制作が終わってしまった。
現在は、「WASAPI/ASIO」が出た事で、とりあえず、「究極の音」にはいかないものの、「究極の音の8〜9割位のハイレゾは、パソコンでもできる」ように安全に動くようになった。
「Bug head Emperor」関連の過去のネット記事を読むと、「100万円クラスのスピーカーが壊れてしまった」とかいう記事が残っている。
原作者のホームページごと消えてしまった原因と考えられそうな事が、「Bug head Emperor」の「readme」に、作者の住所などの個人情報を自分で書いてしまっていたり、「ユーザーマニュアルのpdf」の方にも、「作者の個人情報のプライベートな履歴書と近況情報まで自分で書いてしまっている」ので、最近の、ネットのプライバシー保護の観点から、サーバー側から危険だからと消された可能性も考えられる。
「作者の近況情報」の自分で書いている中に、最後の方に、「コロナ関連のオカルト情報」と捉えられかねない近況報告が書かれていたりもするので、それで、ホームページごと削除されてしまった可能性も考えられる。
という感じなので、「Bug head Emperor」自体が、パソコンを本来できない領域まで制御してしまう関係で、設定の仕方を間違うと、パソコンやスピーカーを壊してしまうので、このソフトを使う事は推奨できないが、「Bug head Emperorにあった発想自体は、ASMRの再生音を、もっとリアルにできるかもしれない技術」である為に、「新しくもっとリアルなASMR用のソフトを作りたい」人向けに考え方の部分を書いておきます。
(「Bug head Emperor」の「高音質にする為に、あえて、ノイズを負荷する」という逆転の発想の箇所)
「Bug head Emperor」の「高音質にする為に、あえて、ノイズを負荷する」という逆転の発想の箇所を説明すると、昭和の国産パソコン全盛期の時に、「パソコンの性能が上がってきた時に、8色とかしか使えなかった初期のコンピューター時代から、16ビットカラー(65536色)になっていき、もう少しで、写真そのものが、パソコンで扱えそうだ」という時代がきていた。
当時、そういった状況だったので、その状況で、パソコンで写真を扱う時に、「ディザリング」という技術を利用していました。
(ディザリング)(ここのホームページ内の、「ディザリング」をかけた絵というのを見た方がイメージがわかりやすい。これを、「音」に対してやる)
https://ja.wikipedia.org/wiki/%E3%83%87%E3%82%A3%E3%82%B6
https://e-words.jp/w/%E3%83%87%E3%82%A3%E3%82%B6%E3%83%AA%E3%83%B3%E3%82%B0.html
「ディザリング」は、要するに、「減色技術」とかの事で、「画像や音の輪郭の部分を残しながら、デジタルデータ量を減らす」という技術の事で、イラストレーターや、マンガ家だと、「トーン」で描くような技術と説明した方が、イメージしやすい。
「Bug head Emperor」の作者は、この「ディザリング」の「画像や音の輪郭の部分を残しながら、デジタルデータ量を減らす」という技術を応用すれば、「音の輪郭がくっきりと出る」事を発見したようです。
基本的には、これは、「ノイズを加える」という高音質とは逆の事をする発想になるので、多くの人達が気がつかなかった画期的な手法だった。
要するに、「音に対して、うまい具合に調整できる、ディザリングツールを作れば、新しくもっとリアルなASMR用のソフトが作れる」という事です。
基本的には、「画像のディザリング」の状態を見ればわかる通り、「ディザリングを強くかければかけるほど、音の輪郭が際立つが、ノイズも強くなる」
それで、自分は、最近、ホラーネタとかを書いたので、「ホラー用動画の効果音のASMRで録音した効果音」に、この「音に対して、うまい具合に調整できる、ディザリングツールを作れば、新しくもっとリアルなASMR用のソフトが作れるはず」というのを使用すると、「けっこういい感じの、独特のリアルさを持った、ASMR効果音が作れるはずだ」という内容が今回のメインで書きたかった内容になります。
DTMの方で、「ディザリング」ツールというと、「CDは、16bitにしないといけない」決まりなので、ビット数を下げて、CDのマスター音源を作る場合に利用するツールですが、今回、自分が書いている意味の「ディザリング」というのは、そうではなくて、「画像の減色技術のような状態で、画像や音の輪郭の部分を残しながら、デジタルデータ量を減らすという事をする」という意味です。(音の輪郭の部分を、「ディザリング」をかけながら、輪郭がくっきりとわかるように残していくという技術の意味)
そういったわけで、既存の、「DTMで、CDマスターを作る時に使う、「ディザリング」ツール」ではなくて、新しく、そういう別の性質の「ASMRの音を、もっとリアルに聴こえるようにする「ディザリング」ツール」という新しいツールを別に作らないといけない。
(人間の耳は、実は、音の種類によっては、位置がよくわからない)
人間の耳は、実は、音の種類によっては、位置がよくわからないという性質があって、今回、自分が書いた、
・「音に対して、うまい具合に調整できる、ディザリングツールを作れば、新しくもっとリアルなASMR用のソフトが作れる」
という技術の内容は、実は、「障害者福祉」技術とかに使える。
テレビで、目があまり見えない人用の障害者補助技術として、「列車のホーム」などに流れている、「障害者補助用の案内の音信号」という技術を紹介していて、「人間の耳は、実は、音の種類によっては、位置がよくわからない」ので、昔のこの音は、「単純な電子音だったので、どこから鳴っているのか?すらわからない音だった」そうで、それを、今回自分が書いた内容と同等の事をして、「単純な電子音に、ノイズを混ぜると、音の位置関係が目を閉じていても、くっきりとわかるようになる」そうです。
「人間の耳は、実は、音の種類によっては、位置がよくわからない」という音の種類の例としては、「昔の携帯電話の呼び出し音の、単純な電子音」とかは、携帯電話をソファーとかに落としていた場合に電話が急に鳴った時に、「この種類の音は、どこから鳴っているのか?判別ができない欠陥があった」
要するに、「ピー」とかいう単純な電子音は、人間の耳からは、位置関係がよくわからない。
今回の話に関係あるかわからないが、次のホームページで、『フォノン(音子)は「質の悪い壁」で量子状態になるので、「シュレーディンガーの猫」で有名な量子論実験の「量子もつれ」現象の「量子的な重ね合わせ状態」が実現できる』と書いてあって、関係あるかわからないが、「右耳、左耳の2箇所の観測点に対して、フォノン(音子)は「質の悪い壁」で量子状態になるので、それを再現できれば、「量子的な重ね合わせ状態」が実現できるので、結果として、右耳、左耳の2箇所の観測点に対して、観測者側から、くっきりと、どちらか側に届くように分離できている」可能性もある気がする。
(フォノンは「質の悪い壁」で量子状態になる)
https://nazology.net/archives/128293/3
『「シュレーディンガーの猫」で有名な量子論実験の「量子もつれ」現象は、フォトン(光子)の方は、スリットやスプリッターを用いると、実際の実験で実現できた。
では、音のそれ以上分割できない最小単位である、フォノン(音子)で、「量子的な重ね合わせ状態」が実現できるのか?というのを、シカゴ大学が実験で成功した。
研究者たちが手作りで開発した装置「音響スプリッター」は上の図のような設計になっています。
この装置の左右にはフォノンの送信(スピーカー)と受信(マイク)を担う量子ビットが備え付けられており、中央部にはフォトン(光子)の方の実験のスプリッターの「半透明なガラス」と同じ役割をするアルミニウム壁が存在します。
このアルミ製スプリッターは「質の悪い壁」のような特徴を持っており、音をランダムに反射させたり透過させたりします。』
という感じで、今回は、
・『ASMRの再生音を、もっとリアルにしたい場合には、音に対して、うまい具合に調整できる、「音の輪郭」が出るディザリングツールを作れば、新しくもっとリアルなASMR用の音再生のソフトが作れるはず』という音響科学の技術のアイデアについて書いたわけです。
(「リアルな音」は、実際の所、映像クリエイターに使えるのか?)
「リアルな音」は、実際の所、映像クリエイターに使えるのか?という話を書くと、「モノラル」の昭和の時代に、「ステレオ」という新技術が出た時に、「これは凄い!事ができるぞ!音響だけで、情景を全て描ききる事ができる!」というので、「ステレオオーディオドラマCD」というのが、かなり流行った時期があった。
これは、「過度に誇張した、効果音エフェクトや環境音」を巧みに駆使しながら、小説のラノベ風のストーリーが進行していくというもので、現在でいう所の、「音響技術のみで作った、バーチャルリアリティー」のようなものだった。
結構、面白い技術だったが、これを、アニメなどの映像と組み合わせると、「音響のリアルさの方が、絵よりも、かなり強く勝ってしまう」ので、思ったようなイメージ作りがむしろできなくなったので、映画とか以外では、あまり使われなかった。
要するに、「舞台、演劇などは、メインとなる中心人物よりも、効果音とかの方がやたらに目立ち過ぎると変になる(結婚式と同じ)」という事です。
ただ、唯一、「効果音が、リアルに誇張されていても、変ではなく、むしろいい」分野に、「ホラー」動画や、「バーチャルリアリティー」があるので、今回、自分が書いた、
・『ASMRの再生音を、もっとリアルにしたい場合には、音に対して、うまい具合に調整できる、「音の輪郭」が出るディザリングツールを作れば、新しくもっとリアルなASMR用の音再生のソフトが作れるはず』という音響科学の技術のアイデアは、使われる場面もありそうなので書いた。
数年前から、なぜか?「ブルーレイレコーダーでアニメの予告やオープニング、エンディング曲の最後1秒位の音声が消えてしまう問題」が、メーカーや機種によらず起きていた問題について、何となく原因がわかってきたので、書いていきます。
(<原因1>「映像有効範囲」の概念が、デジタル時代とアナログ時代で大幅に違う。番組製作スタッフが、デジタル時代に入れ替わったから)
まず、大きな原因の1つが、
・「映像有効範囲」の概念が、デジタル時代とアナログ時代で大幅に違う事に起因する問題
です。
もともと、アナログ映像編集時代には、「アナログ編集と磁気テープや、アナログフィルムという記録媒体を使っていたので、「映像有効範囲」の概念が、デジタル時代とアナログ時代で大幅に違います」
アナログ編集では、アナログの特徴で、「映像有効範囲」というのがあって、実際に使える範囲が、本当に録れている全体範囲より、だいぶ狭いです。
この原因は、「アナログでは、映像有効範囲外に、だいぶノイズの強い領域がある」ので、そこの部分が使えないからです。
一方で、これは、「アナログ映像編集時代には、映像範囲に余力が大きい」という意味になります。
ですから、現在出ている「ブルーレイレコーダーでアニメの予告やオープニング、エンディング曲の最後1秒位の音声が消えてしまう問題」というのは、「デジタル映像有効範囲の番組製作スタッフの見誤りが原因で起きている」と言えます。
(アナログ映像有効範囲とは、どのようなものか)
(1) 実写映画などのアナログフィルム時代
アナログフィルムで実写映画を撮影していた時代には、「キャスト全員を集めて、実際のリアルの現場を通行止めなどにして撮影許可をもらう」関係で、「撮影は、一発勝負で、後で、撮影し直しができません!」
それで、「とりあえず、監督が思いつく使わないかもしれない伏線も含めて、多めに撮影しておいて、後で、使えそうなシーンをつなげて映画を完成させる」という段取りを使います。
具体例をあげた方がわかりやすいので例を書くと、
『カメラ固定位置で、役者が歩きながら話して右から左に抜けていく。役者が通り過ぎた後に、バックの夕日だけを撮る』
というようなシーンの場合、全部が区切りや途切れなくつながった映像が欲しい場合には、「最後のバックの夕日だけの映像シーンを余力を持って、多めに撮影しておかないといけない」
なぜか?というと、アナログフィルムで実写映画を撮影すると、「アナログフィルム自体を切って、継ぎ接ぎして映像を作る」ので、「余力部分の最後の長さを多めに確保しておく必要がある」からです。
この「映像有効範囲の余力の多さ」が原因で、昔は、このように、映像の最後で音声が途切れるなどの事態は起きづらかったわけです。
(2) 磁気テープ時代のアナログ映像有効範囲
磁気テープ時代のアナログ映像有効範囲というのも、大きい特徴があって、磁気テープは、ビデオテープデッキのヘッドが順番に読み取っていく関係で、「磁気テープの次の読み取り範囲との重なり部分も読み取ってしまう」ので、主に、映像の左右に、かなり広いノイズ幅が常に表示されています。
それで、昔のブラウン管テレビ時代には、テレビの外枠を外した場合には、この「映像の左右の、かなり広いノイズ幅」も実際には、常に表示されていたのですが、テレビ枠の方で隠してしまっていただけなのです。
それで、最近、古い結婚式のビデオテープなどをもうビデオデッキ自体が売っていなくて見れないとかが困るので、デジタル化する時に出ていた症状の「映像の左右の、かなり広いノイズ幅」が出るのは、これは、ビデオテープのカビとかではなくて正常なのです。
これが、「磁気テープ時代のアナログ映像有効範囲」です。
(デジタル時代の映像有効範囲を、番組製作スタッフは、どうすればいいのか?)
こうやって、アナログ時代のベテランスタッフでは、「アナログ映像有効範囲やアナログ編集の特徴をふまえて、余力を多めに作るノウハウがあった」わけですが、最近では、YouTube文化などから、若いデジタル時代の番組製作スタッフが主流になって作っている時代に切り替わったので、「デジタル時代の映像有効範囲」のノウハウができておらず、「YouTube文化で育った若い番組製作スタッフは、デジタルで、1秒の30分の1とかのフレームと呼ばれるギリギリカツカツのラインで、映像と、音声の最後を切ってしまいます」
それで、このような、「ブルーレイレコーダーでアニメの予告やオープニング、エンディング曲の最後1秒位の音声が消えてしまう問題」のトラブルが最近増えてしまったわけです。
ですから、解決策は、番組製作スタッフの方が、「YouTube文化で育った若い番組製作スタッフは、デジタルで、1秒の30分の1とかのフレームと呼ばれるギリギリカツカツのラインで、映像と、音声の最後を切る」ような、素人のような編集の仕方をやめて、「デジタル時代の映像有効範囲」のノウハウ構築が必要だという事です。
自分が、ブルーレイレコーダー録画で、「予告やオープニング、エンディング曲の最後1秒位の音声が消える」シーンで、いろいろな条件で実験してみた所、「余力は、最後の最低0.5秒(15フレーム)あれば、とりあえず、音声の最後が消えてしまう事は無い」事がわかりました。
これが、最低限度の、「デジタル時代の映像有効範囲」という事です。
また、「予告の最後の音声が消える」クレームにビビり過ぎて、最近では、予告の音声自体を入れないアニメも増えてきましたが、それは、間違った映像製作ノウハウで、「アナログフィルム実写映画」で上に書いたように、「キャストを集められるのは、一期一会であるので、キャストを集められた機会に、音声などは、必要な分を全部収録しておく必要があります」
上に書いたように、「予告やオープニング、エンディング曲の最後に、(15フレーム)余力を空ければ、音声が消える事はない」ので、それで調整すればいいだけです。
VTuberを人のモーションで動かす「3tenePro + Live2D」のキャンペーンをやってるようです。
「3tene」というのは、3DCGキャラクターや、Live2Dキャラクターを、VRヘッドセット(HTC VIVE、Oculus Rift)と、両手コントローラー、トラッカー(腰、両足)を使って、人のモーションの動きを直接反映できるようにする技術の事のようです。
ホームページの動作映像を見ると、簡単なダンスなら、人の動きのモーションのトラッキングからできそうな雰囲気です。
今までのVTuber技術と違うのは、ピアプロなどで、自分でイラストが描ける人は、「Live2Dキャラクター」として設定しておけば、Live2Dキャラクターで、自分独自のVTuberを作って活躍できることです。
12月末までは、キャンペーン価格で、「980円」のようなので、興味のある人はやってみましょう!(機材全部で、5万円かも)
詳細は、ホームページを見た方が早いです。
プレイステーション5時代は、こんな感じになるのかもしれません。
(3tenePro + Live2D)
https://3tene.com/pro/
これからのように、「4K2K」とか、「8K4K」とかの「スーパーハイビジョン」のデジタルテレビ放送の時代になると、「電波領域」に限りがあるので、おのずと、データ上限が限られてくるわけで、それを、クリアーしなければいけない伝送手法を考えなければいけない時代だというわけです。
ここで、前に、自分が書いたように、根本から発想を変えてしまって、「フルハイビジョン」→「4K2K」→「8K4K(スーパーハイビジョン)」→「・・・」となっていくにしたがって、再現なくデータ量が増え続けてしまう方式ではなくて、「そもそも、100インチであろうが、10000インチであろうが、1億インチディスプレイであろうが、画素が荒くならない手法」というのが、大昔の、それこそ「8ビット」パソコンの時代から、あった技術にあるので、そういう手法も、1つの手で、これから技術革新が進んでいく分野の1つなのです。
その「8ビット」パソコンの時代から、あった技術の、「1億インチディスプレイであろうが、画素が荒くならない手法」の事を、ベクターグラフィックス(vector graphics)(ベクター形式)と言います。
ベクターグラフィックス(vector graphics)(ベクター形式)というのは、「座標情報」を元にして、「線分」を構築していくという、8ビット時代の「画像」形式のメインだった1つの方式で、昔は、「データ容量」が、ほとんど無い時代だったので、こういった「データ容量」を、ほとんど使わない方式が多く使われていました。
これは、現在の「フォント」なども、そのような仕組みで動いているので、どんなに「拡大」しても、画素が荒くならないわけです。
一方、現在、私達が、メインに使っている手法は、ビットマップグラフィックス(ラスターグラフィックス)(ラスター形式)と言って、「ドット」の情報を考える手法で、今までに、20世紀から、「1ドット」に対して、「65536色」使えるようにするとかいう感じで技術革新を続けてきた領域の話です。
8ビット時代のパソコンは、この「ベクター形式」と「ラスター形式」の2つがメインで、どちらを選ぶのか?という感じだったのです。
8ビット時代のパソコンの「ベクター形式」では、コンピューター性能が低かったので、「何が何だかわからない」程度の表現能力しか持っていなかったのですが、それでも、「ベクター形式」を用いれば、「線分」を、「グニャグニャ」に変形させたりといった、特殊な表現が可能だったので、「ワイヤーフレーム」で作られた「フライトシミュレーター」などで、多く使われていたわけです。
しかし、21世紀の現在になってみると、コンピューターの演算能力が、恐ろしく高速になったので、ベクターグラフィックス(vector graphics)(ベクター形式)で、「アニメ」などの「線分」を作ってしまえば、「セルアニメ」では、労力と手間が多くかかる「髪の毛が、風になびく」、「スカートなどが、揺れたり、風になびく」、「走ってきて、急に止まったり、ジャンプしたりした時の、慣性の法則による、胸の微妙な揺れ方」などが、とても簡単にできてしまうのです。
この考え方を、総合的に発展させた物が、最近、ゲームなどで、多く使われるようになってきた、「Live2D」という技術です。
基本的には、「フラッシュ」アニメに近い感じなのですが、「Live2D」の技術では、「普通の2DCGイラスト並み」のまま、かなり綺麗に動かせるので、「フラッシュ」アニメよりも、かなり綺麗です。
「Live2D」の技術の考え方や、「2DCG」作成時の違いは、
(1)イラストで描く「ライン」部分を、全部、ベジェ曲線などのようなベクターグラフィックス(vector graphics)(ベクター形式)の手法で描く。だけ。(基本的には)
今の「2DCGイラスト」の多くでは、すでに、描く時に、滑らかな曲線を作る為に、ベジェ曲線などを使う事が多くなっているので、「イラスト作成」自体の労力的には、基本的に、あまり変わらないかもしれません。
(2)後の「色塗り」なんかや、エフェクト処理も、だいぶ、「Live2D」で、できてしまう上に、「キャラクター」の顔の向きを変えたとしても、光源処理などの、「影」部分が、自動追随で作成される。
など、かなり、もしかしたら、将来的には、「2DCGイラスト」の多くは、「Live2D」形式が、メインになる可能性もあります。
しかし、まだ、現在の段階では、「2DCGイラスト」を普通に描いた方が、いろいろと綺麗に描けますが、この調子で技術革新が進むと、「Live2D」形式で、「2DCGイラスト」描く時に使う、「絵筆」や、「色合いなどの、エフェクター」機能が、充実してくると、普通の、「2DCGイラスト」を描く場合とまったく変わらない表現ができそうになる程の勢いで、今、進化しているので、将来的には、「Live2D」形式の方が、楽だし、いろいろな追加の表現が、たくさん可能になったり、「表情」を変えれたり、「セルアニメ」では、労力と手間が多くかかる「髪の毛が、風になびく」、「スカートなどが、揺れたり、風になびく」、「走ってきて、急に止まったり、ジャンプしたりした時の、慣性の法則による、胸の微妙な揺れ方」などが、とても簡単にできてしまうので、将来的には、「Live2D」形式は、かなり多くなると思うので、「JPG」などのような、メインの1形式の地位を獲得してしまう時代が来るのは、かなり早い時期だと思います。
(「Live2D」などの、ベクターグラフィックス(vector graphics)(ベクター形式)の利点)
(1)例えば、今から、100年後などに「1億インチディスプレイ」などのようになったとしても、「どんなに再現なく、引き伸ばしても、画像の画素が荒くならない」
どういう事を言っているのか?というと、例えば、「野球の球場」、「コンサートホール」などのような、巨大ディプレイで表示しても、間近で見ても、「まったく、画素が荒くならない」という事です。(「マクロス」の「ミンメイアタック」規模とか、地球サイズに、ディスプレイ領域を広げても、画素が、まったく荒くならない。)
(2)「キャラクターの表情を変える」、「髪の毛が、風になびく」、「スカートなどが、揺れたり、風になびく」、「走ってきて、急に止まったり、ジャンプしたりした時の、慣性の法則による、胸の微妙な揺れ方」などが、とても簡単にできてしまう。
(3)バンディングノイズが、仕様の理論から発生しない。
(現行の「フルハイビジョン」テレビの技術課題)
(1)バンディングノイズ(グラデーションが、縞々になってしまう事)が出てしまう事がある。
(2)現在の映像圧縮方式では、前後の差で圧縮しているので、「前画像との、大幅な差があるシーン」では、「画面が、滅茶苦茶に壊れるノイズ」が、大量に発生してしまう!
この改善策は、とても簡単で、凄腕のテレビ局の映像ディレクターがいると、「ザッと、流して映像チェックしてみて、どうしても、ぐちゃぐちゃなノイズが入るような、映像の切り替わりのシーンの間には、黒1色のフレームを、1フレームだけはさむだけで、まったくノイズが出なくなる」ので、「本当の、綺麗な、フルハイビジョン画質の本領発揮になる!」
ここで起きてくる問題点は、「昔のアニメ」などのように、すでに「長さ」が決まっている場合には、この「1フレーム」分がずれてしまうと、「エンディング曲などの最後まで、音声が流れずに、失敗してしまい変になる」が、この対策も、とても簡単で、この「1フレーム」分などの時間を、うまく調整すればいいだけ。
こういった感じで、将来的な、「4K2K」とか、「8K4K」とかの「スーパーハイビジョン」のデジタルテレビ放送の時代になると、「電波領域」に限りがあるので、おのずと、データ上限が限られてくるわけで、それを、クリアーしなければいけない伝送手法を考えなければいけない時代だというわけです。
自分が思うには、
(1)「ポリゴン」モデルと「モーションデータ」のような方式で、「8K4K」とかの「スーパーハイビジョン」のデジタルテレビ放送では、伝送した方が、効率がいい。
(2)「Live2D」などの、ベクターグラフィックス(vector graphics)(ベクター形式)の方が、データ容量が、かなり少なくて済む。
のように、「スーパーハイビジョン」のデジタルテレビ放送の時代には、テレビは、パソコンに近いような性能を持ってくるのではないか?と思います。
こういったような時代になると、「今までには、まったくできなかったテレビ放送の仕方」も可能になってくるはずで、「まったく違う、21世紀の時代のテレビ放送の仕方」のように、未来の幅が広がるからです。
(PowerDirector 9 Native 64-bit Video Editor )(「64bitネイティブ対応」のフルハイビジョンビデオ処理が可能!)
これからのパソコンは、もう「64bit」の方が主流になっていくのかな?という感じが最近するのですが、まずは、今年の夏以降の「地デジ」化完了によって、今まで中途半端で、ユーザーに差があった「フルハイビジョン」環境の方が、完全に主流に移っていく事です。
当然、今現在のパソコンは、一般のユーザーは「ホビーパソコン」として「フルハイビジョン」を快適に「見る」「編集する」の2つができなければいけないわけです。
大昔のPC-9801などの国産コンピューター主流の時代では「パソコン」と言えば、「ビジネス」向けとか「計算パソコン」を意味していました。
現在では、ほとんどのユーザーが「ホビーパソコン」の使い方ができないと、まったく売れません!(昔のような「計算パソコン」のみの設計にしても、今は、誰も買わない!)
それで、「フルハイビジョン」編集についてなのですが、パソコンの規格の仕様上「32bit」では、もう処理が無理っぽいのです!
しかし!「地デジ」化以降は、ほとんどのユーザーは、「ホビーパソコン」として「フルハイビジョン」を快適に「見る」「編集する」の2つができなければ、買いません!
どこが、「32bit」パソコンの仕様の限界なのか?というと、いわゆる様々な部分における「上限の壁」といわれる物であって、
・「ハードディスク容量の最大上限の壁」
・「扱えるメモリ領域の最大上限の壁」
・「データ転送速度の壁」
など、大量に「壁」にぶちあたってしまうのです!
それでも、「64bitネイティブ対応」という製品は、まだ非常に少ない状況です!
パソコンのソフトウェアに書いてある「64bit」対応と書いてある製品は、主に、まだ「32bit程度の処理能力のままだが、64bitOSでも、かろうじて動かしても大丈夫ですよ」という意味で書いてある事が多いです!
そこで、「本当に、64bitの機能の性能を発揮できる!」という書き方の記述が「64bitネイティブ対応」という風に使い分けている状態です。
そんな中で、きちんと「64bitの機能の性能を発揮できる!」方の「64bitネイティブ対応」の製品で、「フルハイビジョン」ビデオ編集のできるソフトを探していたのですが、どうも、この(PowerDirector 9 Native 64-bit Video Editor)という製品が、「64bitネイティブ対応」の製品のようです!
どのような感じなのか?というと、1番大きな違いは、32bitで扱えなかった膨大なメモリ空間を使って「フルハイビジョン」ビデオ編集ができるので、32bitでは編集に「30分」かかる「フルハイビジョン」ビデオ動画の処理には、64bitでメモリもたくさん積んであると、「1分」で終わるそうです!
また、32bitでは、時間がかかって編集するのに、できあがった動画は「カクカクとコマ落ちする箇所が入る」のに対して、64bit版では、「全てにおいて、見る時もスムーズ」になっているようです!
扱えるメモリ空間が、どのように差が出るのか?というと、32bitでは、大体、4GBメモリ空間内しか処理に使えなかったのに対して、64bit版では、最大192GBまでのメモリ空間を「フルハイビジョン」映像処理にまわせるので、このように差が出てくるのだそうです!
しかし、もう!ここの所は、「32bitOSの壁」に到る所で、ぶつかってくる所なので、何となく感じる事は、「地デジ」化以降は、徐々に「32bit」OSのパソコンは、引退の時期に入っていくのではないか?と予測しています。
(ゲーム機の壁と、これからの新技術っぽい物)
また、ゲーム機の方でも、おそらく「プレイステーション4」のたぐいが、どうも、もう開発が進んでいるはずなので、そちらも書くと、「プレイステーション3」というのは、メインCPUなどは、いかに最先端であっても、その周りの「ハードディスク」などの「容量」「転送速度」「ビデオ描画出力」などの周辺のパーツが、5年ほど前の仕様のままなので、パソコンと同様にして「上限の壁」が出てくる時期にある事です。
また、思うには、これからのゲーム機なども、このようにして、「最大192GBまでのメモリ空間」を扱える!などのようにして、「ハードディスクなどから逐次、「読み出す」というシステムではなく、1つの「膨大なメモリ空間内」で、「超!高速に動く!ゲーム機になるのではないか?」と個人的には思います。
これは、非常に古くからの「8bit」時代からのゲーマーにとっては、ゲーム機の理想像として、わかって知っているのは、「膨大なメモリ空間に全部読み出しておく、高速ゲーム機」だったからです!
大昔には、「メモリ」というのは、非常に高価だったのですが、「地デジ」化の影響で、パソコンや、ブルーレイディスクレコーダー、デジタルビデオカメラなど、共通して「膨大なメモリ」パーツが必要になってくるので、量産効果で、どうも、そういった機種は、比較的安価で簡単に作れてしまう時代になった!という事です!
また、ソニーは、恐ろしい事をやっていて、「グランツーリスモ」を「プレイステーション3並列接続による、いくつかの複数のハイビジョンテレビに映す(左右と正面など)」という技術をやっているようです!
これは、ユーザーにとっては、よほどの人でないと恩恵を感じないかも知れませんが、「技術者」にとっては!「並列処理が可能!であって!しかもディスプレイ出力も制御している」という方を見るのです!
これは!いわゆる「パラレルコンピューター」の実現!という事なのです!
「パラレルコンピューター」というのは、コンピューター技術者にとっては、夢の技術であって、要するに!性能は無限に広がり、何ができるのか?の可能性は未知数!という、恐ろしい領域の事です!
それで、自分が思うには、ソニーは、PSPの次世代機の予定にある「NGP(コードネーム)」が、プレイステーション3と同程度の能力を持っているとすると、どうも、ソニーは「パラレルコンピューター」をこれからやる!のが「プレイステーション4」の時期なのではないか?と思ったわけです!
これは、本当に、何ができるのか?が、まだ未知数な領域なのですが、そんな感じで、「超膨大なメモリ空間を1つで扱うような、超高速ゲーム機」や「パラレルコンピューター」なんかの技術が導入されてくるのでは?ないか?と思います。
この「パラレルコンピューター」処理という技術でできる事は、すでに、複数のディスプレーを連携させながら処理できているので、同じシステムの技術のままで、例えば「球形天井ディスプレーによる、プラネタリウム」などでも作れてしまうわけですが、それは、ゲーム機ではなくて処理技術として可能なだけです。
(個人的に思った、NGPと、プレイステーション3の連携ゲーム)
それで、個人的に思ったのは、どうも「功殻機動隊」のようなゲームの場合には、「パラレルコンピューティング」の技術として、NGPには、傾きセンサーなどが入っているので、プレイステーション3版で「功殻機動隊」を発売したとして、今のゲームは、2つの(今現在はPSP)ゲーム機間を行き来できるので、NGPが発売されたとして、それと連携機能で、テレビ画面の方は、プレイステーション3の方で表示されているのですが、NGPの傾きセンサーで画面の方に向けながら、そちらでは「衛星からの鷹の目」が見えているとか、「電脳空間が見えている」などのようなサイバーな処理が可能そうですが、不便かもしれません。
何か、「パラレルコンピューティング」は、面白そうな事ができそうなのですが、今現在では、思いつきません。
という感じで、今あるソニーが最先端で作っている部分でできそうなのは、そんな感じの「パラレルコンピューティング」なのではないか?と思ったわけです。
パソコンにしても、ゲーム機にしても、どうも、もう「上限の壁」が出てくる時期に入ってしまったようで、大きな変換点を迎える時期に入っているようです!