Skip to content

AM3D プロジェクト概要

概要

AM3D(Anything Media 3D Player)は、あらゆる2Dメディアを Looking Glass ホログラムディスプレイで立体表示するためのシステムです。2D動画をクラウドのAIで深度推定し、立体映像に変換して再生します。

「事前処理した動画を再生するだけ」というメディアプレーヤーの思想を基本としつつ、クラウドAPI化によって iPad や一般PCからでも利用可能な構成を実現しました。

製品の位置づけ

AM3D と LKG 3DViewer は、インプットの種類で分離された別製品として整理されています。

製品用途インプット
LKG 3DViewer3Dモデル表示専用GLB / FBX 等の3Dモデル
AM3Dメディアプレーヤー2D動画/画像、キルト、レンチキュラー

AM3Dの処理パイプライン

【入力】2D動画(MP4等)
    ↓ (iPad / PCから操作)
【Step 1: クラウド変換】
    端末 → Modal Cloud API (A10G GPU)
    Video-Depth-Anything で深度推定
    出力: RGBD SBS動画(左=カラー / 右=深度マップ)

【Step 2: 端末側レンダリング】
    RGBD SBS → 3Dメッシュ/シェーダーで立体化
    → マルチビュー(キルト)生成
    → Looking Glass ディスプレイに出力

【Step 3: レンチキュラーエクスポート(目玉機能)】
    キルト → LKG個体別キャリブレーションで最終合成
    → LKG専用MP4として保存(次回以降はAPIもUnityも不要)

処理の役割分担

ステップ処理内容実行場所
① 深度推定2D → 白黒デプス動画クラウドGPU(必須)
② SBS結合カラー+デプスを左右並びクラウドGPU
③ メッシュ化+キルト生成SBSから3Dメッシュ→マルチビュー端末側GPU(iPad Pro M4でも可)
④ レンチキュラー変換キルト→LKG個体別映像端末側(キャリブレーションJSON必要)

クラウドでやるべきは①②まで。③④は端末側でやるのが合理的であると結論づけられています。

AI補完

レンチキュラーエクスポートの価値: Looking Glass Studio(公式アプリ)はキャッシュ機能がなく、毎回キルト→レンチキュラー変換をリアルタイムで行うため、GPUが高負荷になります。AM3Dでは事前に変換済みMP4を生成して保存するため、次回再生時はAPIもUnityも不要です。保存・共有・アーカイブが容易になり、再生時のGPU負荷もほぼゼロです。

深度推定の限界(重要な注意点)

深度推定による2D→3D変換はあくまで補助的な機能です。

  • 被写体がはっきり映っている映像(製品・建築物等)にしか効果が出にくい
  • 会社紹介動画等の汎用映像は立体にならないケースが多い
  • インプットの動画品質に大きく依存する

LKG本来の最適な使い方は 3Dモデルや CG 映像であり、深度推定は「どうしても2D素材しかない」場合の防衛ラインとして位置づけられています。

検討の経緯

2026年2月24日:社内説明会・方針決定

参加者: 金光、井釜信也、山本颯一郎、福田日菜子、江越健二

主な決定事項:

  • AM3D と 3DViewer は別製品として整理する
  • 深度推定処理はクラウドに移行する方針を確認
  • クラウドでの処理は SBS(カラー+深度)までが現実的。最終的なレンチキュラー変換は端末側で行う
  • iPadの制約確認:iPad Pro でもローカル深度推定はメモリ制限(Jetsam)で不可能
  • 3月までに方向性を決定する目標を設定
  • クラウド処理の費用を実際に検証する(山本担当)

AI補完

iPadOSのメモリ制限(Jetsam): iPadOSでは、アプリが使用できるメモリに厳しい上限(Jetsam Limit)があります。Video-Depth-Anything Largeモデルの推論に必要なVRAM/メモリ量はこの制限を超えるため、アプリが強制終了(クラッシュ)します。これが iPad でローカル推論ができない根本的な理由です。

2026年2月25日:クラウドAPI構築完了

山本が Modal(サーバーレスGPU)上に深度推定APIを構築。約30分でAPI化を実現

  • 15秒・226フレームの動画で実測:処理時間112秒、コスト約5円($0.034)
  • API化により iPad からも HTTP POST するだけで利用可能に

2026年3月4日:iPad版開発着手

  • クラウド深度推定のiPad向けアプリ開発に着手
  • Windows版からの移植を開始(山本担当)

2026年3月6日:進捗報告・品質向上確認

参加者: 井釜信也、山本颯一郎 ほか

主な進捗と決定事項:

  • 品質向上: 新モデル(VDA)導入で、従来の「プルプル」「ギザギザ」感が大幅に改善
  • コスト削減: 15秒動画の処理が約5円まで低減
  • API構築速度: Modal を利用し、API化を約30分で構築
  • 動作環境の拡大: ゲーミングPCに加え、iPad Pro・一般PCでも処理可能な見通し
  • アプリ公開・課金モデルの検討: 公開方法と課金モデル(買い切り/サブスク/従量課金)の整理を開始
  • 新規製品検討: 映像ビデオ通話、ツーディーポインティング、資料送付機能の必須機能を整理

フォローアップタスク(3月6日時点)

  • アプリ公開・課金モデルの方針整理 — 金光さんへの相談資料作成(山本)
  • ビジョンサポート用デバイス選定 — 会話用デバイスの候補を3機種リストアップ(山本)
  • Git情報共有の承認・確認(井釜、チーム)

端末構成と対応状況

端末ローカル深度推定クラウド深度推定ローカルレンダリング状況
ゲーミングPC完成・安定稼働
iPad Pro✕(写真◯)開発中
普通のPC(営業用)テスト予定

関連記事


Authors: 井釜信也 / 山本颯一郎 | Sources: AM3D方向性, 0224社内説明会, 0224議事録, 0306議事録, 0304 AI Enhanced: Claude — 2026-03-06