Webブラウザで3Dモデルを高速に描画する「Babylon.js 7.0」正式リリース。MMD(MikuMikuDance)やApple Vision Proサポート Webブラウザで3Dモデルを高速に描画する「Babylon.js 7.0」正式リリース。MMD(MikuMikuDance)やApple Vision Pro、WebXRなどをサポートし、よりリアルなレンダリングを実現する機能追加も行われた。 マイクロソフトは、Webブラウザ上で2Dや3Dモデルの高速なレンダリングなどを可能にするオープンソースのJavaScriptライブラリ「Babylon.js」の最新版「Babylon.js 7.0」正式版をリリースしました。 We are proud to announce that Babylon.js 7.0 has officially been released! The ne
3Dプリンタ買うのも良いが、3D CADで自分が作りたい物を作れないと醍醐味が薄い。 まずは3D CADをインストールして触るんだ。 Fusion 360ってのをインストールしよう。 ユーザーが多いから困った時にWebに情報が沢山転がってて助かる。 ペン立て作ってみるとか、サイコロでも良い。 とりあえずモデリングをやってみよう。 それからプリンタ買うか考えたら良い。 買うなら、今は良いマシンが沢山ある。 ボビー向けは光造形とFFF/FDM方式の2種類があるけど、FFF/FDMメインで書く。 光造形は後処理とかめんどくさいから初心者は心折れがち。 予算が潤沢ならBambu Labのマシンが超おすすめ。 10万ぐらいからある。上は25万。 ちょっと前の3Dプリンタはデジタルな機械だけどアナログな調整が必要だったのが、Bambu Labはほとんど機械に丸投げ出来る。凄い。 安いやつならCreal
「Pokemon GO」(ポケモンGO)などのARゲームで知られる米Nianticは9月14日(現地時間)、iOS向け3Dスキャンアプリ「Scaniverse」がLiDARを持たないiPhoneにも対応すると発表した。iPhone XS以降の全てのiPhoneと過去4年間に発売されたほとんどのiPadで利用できるという。 LiDARに代わり、ニューラルネットワークを活用してカメラ画像から奥行きを推測する「ManyDepth」技術を搭載した。建物など大きな空間に適した「Areaモード」と人物やオブジェクトの細部を捉える「Detailモード」があり、DetailモードならScaniverseフォトグラメトリ処理を活用してLiDAR搭載デバイスと同等の高品位なスキャン結果が得られるとしている。 「LiDARを搭載していない端末でもScaniverseを利用したいという要望が多かった。(ManyD
カナダのUniversité de Montréalによる研究チームが開発した「Sketch2Pose: Estimating a 3D Character Pose from a Bitmap Sketch」は、手書きで描かれた1枚のスケッチからその人物の3Dキャラクターのポーズを再構築する深層学習フレームワークだ。姿勢のバランスや身体部分の長さが不自然な人物画でも、システムが補正し整った3Dヒューマノイドキャラクターに仕上げる。 ▲手書きスケッチから実際に出力した3Dキャラクター例。入力画像:上段©Olga Posukh、下段© Brad Regier keyboard_arrow_down 研究背景 keyboard_arrow_down 研究過程 keyboard_arrow_down 実証実験 現代のデジタルメディア制作では、絵コンテの初期段階で、アーティストがキャラクターのスケ
Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米MetaのReality Labsの研究チームが開発した「Authentic Volumetric Avatars from a Phone Scan」は、スマートフォンで自撮りした短時間のスキャン画像から、本物そっくりの3D頭部アバターを生成するシステムだ。異なる視点やフォトリアリスティックな表情を表現し、高い忠実度で再現する。 現在、実在する人物のアバターを作成するためには膨大な人物データを取得する必要があり、そのデータを収集するには大規模なマルチビューキャプチャーシステムを必要とする。そのため軽量なデータキャプチャー、低遅延、許容できる品質でのアバター作成プロセスを自動化することが
Google、写真からフォトリアルな3Dモデルを生成する「PHORHUM」を発表 Googleは、服を着た人間の写真からフォトリアルな3Dモデルを生成する「PHORHUM」を発表しました。 「PHORHUM」は、服を着た人間のRGB画像から、3次元の形状と外観をフォトリアリスティックに再現するための、エンドツーエンドの訓練可能なディープニューラルネットワーク手法。見える範囲は正確に再現しつつ、見えない部分は推定を行って「それらしい」再現を行います。 「PHORHUM」について、Googleの論文では、「私たちのモデル構築は衣服のバーチャル試着や写真のイマーシブな視覚化、コミュニケーションの向上、人間とコンピューターの対話またはゲームなどに向けたパーソナルARおよびVRで可能になるであろう、変革的な、没入型3Dアプリケーションの幅広さに動機づけられています」と述べています。 (参考)Goog
アンリアルエンジン @UnrealEngineJP Unreal Engine 5.0 をリリースしました。 これより全ての開発者が #UE5 を利用できるようになります! pic.twitter.com/tT7D3atzWl リンク Unreal Engine Unreal Engine 5 Unreal Engine はあらゆる業界のクリエイターに力を与え、素晴らしいリアルタイムコンテンツや体験を作り出すことを可能にします。 145
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く