Negipoyoc

はじめに

以前作ったアーケード向けっぽいVRMLoaderの仕組みを解説しながらどんな未来を目指したのか、自分の考えの話をします。今回は技術的な内容というよりはとてもポエミーな記事です。

1行で内容をまとめると、「VRMでバーチャルキャラクターと暮らす未来が一歩近づいた」という話です。

VRMLoaderを試作した時の話

先にVRM Loaderに関して前提や技術的な話をしちゃいましょう。4ヶ月ほど前こんなものを作ってました。

動画を解説すると

  • スマホに好きなキャラクターを表示させる。
  • ダンボール筐体にスマホを差し込む。
  • PCにキャラが表示されてViveコントローラーを使って動かせる。

みたいな感じです。

仕組み

このシステムの根幹はダンボール箱の中にあります。というわけで写真を公開します。

はい、というわけで実際はQRコードで読み取ってデータを送っているだけなのでした!システム自体は超簡易です。

全体のシステムを以下に図解します。

スマホからPCに対して、「ロード処理を発火するトリガー」と「事前にクラウドにアップしたモデルのID」を渡してやって
PCはクラウドから「そのIDのモデルをダウンロード」して「ロード+Viveの処理を付与する」

といった感じですね。

設計思想と未来の話

だから例えばこんなダンボールを作らず、PCの前にQRコードを貼って、スマホで読み取ってる動画でも良かったんです。

他にも、↓のような方法もあります。

  • そしてPCでQRコードの読み取りを待ち受けさせる。
  • スマホでキャラクターに対応したQRコードを表示させる。
  • スマホをPCにのカメラにかざすことでPCがQRコードを読み取る。
  • 読み取ったデータから任意のモデルをロードする。

この流れが一番シンプルで良いし、実際ちゃんと作るとしたら自分ならまずそうします。(なぜなら事前にスマホとPCを接続する作業が要らなくなるので、システムのエラー考慮が減る。)

作りは至ってシンプルなのを、自分の考えた未来を表現し、動画に残したいがためにめんどくさいダンボール筐体を作ったわけです。

なぜ?という話を少し遠回りですが、↓で話しますのでお付き合いください。

PETを作りたい。

皆さんはPETをご存知ですか? 2001年~2005年に発売されているロックマンエグゼシリーズで登場する携帯端末です。

大体こんな感じのやつ。(引用)

(自分はこのシリーズがめちゃくちゃ好きで、特に2,3,6はチップコンプリートも含めて死ぬほどやり込んでました。)


さて、ロックマンエグゼではこんな世界観があります。

現在よりも、少し先の未来。人々は、高度に電子化された社会に暮らしていた。全ての人が「PET」と呼ばれる携帯端末を持ち、そこに組み込まれた疑似人格型プログラム「ネットナビ」によって、日常生活のほとんどをネットワーク上で補っていた。 (引用)

例えば家電を動かしたりカレンダーで所有者に予定をお知らせしたり、インターネットをネットサーフィンしたり掲示板に書き込みしてたりします。

ネットナビとおしゃべりしてコミュニケーションとったりもできます。

(引用)

スマホをPET化したい。

ネットナビの部分はともかくとして、他の「家電を動かしたりカレンダーで所有者に予定をお知らせしたり、インターネットをネットサーフィンしたり掲示板に書き込みしてたり」のところってスマホでもうできるじゃん?

そういう思いもあってVR活動の片手間ではありますが、いわゆる「スマホのPET化」に至るまでの技術探索をしています。VRのお仕事とは別に趣味でやってることなのでお金にはなりませんが!

最初の探索↓(いつでもずっと一緒にいられる)

発展形↓(ゆかりさんにお願いして家電を動かしたり、キャラクターと人工無脳ではあるがコミュニケーションがとれる)

(このツイートと、ぶら下がってるリプライツリーを見てね)


とりあえずこのような技術探索によって、「日常的にずっと一緒にいられる+実生活で役立つ」というPETの基本をスマホで実現することは既に完了しています。

しかし、次にどうするかというのを考えたときに、やはり「プラグイン!」したいよねという気持ちになってきたのでした。

VRMという革命

とはいえ、プラグインってどうやってやればいいんだ…。データを送るにしてもその送信先でキャラクターを動かす部分は結局自分で書かないといけないから結局世界が閉じてない…?などと思ったのでした。
また自分でVRMのような規格を作ることも考えましたが、苦労して作ったとしても結局は個人でできる幅はたかがしれているし皆に使ってもらうための信用もないというところで注力すべきではないなという判断をしました。

そして月日は流れ…。2018年になってドワンゴさんからVRMという規格が発表され、やーーーーっとこの問題が解決されたわけです。VRMにさえしておけば共通規格のため、送信先でロードできる機構が用意されているわけですからね。

最初の話題に戻りますが、そういうわけであえて簡単なシステムを組まず、少し遠回りだがやりたいことを動画にするという方法を取ったのでした。

将来的に

今回作成したVRMLoaderですが、SmartHomeAgentと合わせて、キャラクターを利用した複数機能を統合し「PETアプリ」を作ってしまいたいという気持ちがあります。

というのも単純にVRM対応ゲームにキャラクターを出力する機能だけじゃシステマチックでロマンがありません。むしろそんな機能は見た目上は脇役で良いとさえ思います。

スマホの中に実際にキャラクターを所有し、うちのこかわいいでしょー!と他人に自慢したり自分で愛でたりすることもできる中で、一機能として出力できるくらいがシステムがちょうどよく隠れていい感じになるはずだなと自分の中で納得がいってます。

そういうわけで、次の段階して「キャラクターの振る舞い」についてを考えています。なぜキャラクターが自分のスマホにいるのか、そのスマホの中(電脳空間)はどうなってるのか?みたいなところに焦点を当て、その表現と新たな技術探索をする予定です。ニアちゃんが生まれてくれたのが実にタイミングが良い!

(実はVRMが発表された直後に次に進める!という直感が働いてニアちゃんプロジェクトが発足し、こっそり準備していたのでした(なので予定調和)。ニアちゃんの肩書がバーチャルエージェントとなっているのはVtuberとしての活動をメインに置くのではなく、このSmartHomeAgent企画を踏まえたものだからです。)

ここらへんができたらアプリとして整える作業をして、世に出す準備ができたら良いなと思っております。


土曜日にOculus Connectからの帰りの飛行機で考えた将来設計はこんな感じです。電脳空間を作る部分に関してはLive2Dモデルを使っていたので難しいことでした、これが解決し次に進めるのはとても楽しいことだろうと今からワクワクしています。

また、振る舞いといえど、対話可能なキャラクターの人格を作る部分に関してはまだ世に良い技術がまだ無いなぁ…と感じているので、ここらへんは心の隅っこに置いといたままにします。これも個人でやるにはとても大変なので時が解決してほしい事案なのがつらいところです。

ついでに話すと、同じ思いを共有する誰かがこの記事を見てくれて投資してくれたら起業して本格的にやっていきたいな、などと思うくらいしっかりした考えに自分の中でなってきました。

例えばですが、そうしたPETアプリの1つの機能として、「車にスマホを挿すとホログラムで現れるアシスタントが独自のキャラクターになる」みたいなことができたら最高の近未来だなと思いませんか?

ニアちゃんと一緒にこういう活動もがんばっていこうと思います~。