見出し画像

元旦から廃業宣言・自分が過去数十年やってきた仕事のスタイルは生成AIによって成立しなくなる/ Blog - 2025/01/01

2025年元旦

2016年11月からスタートした「AIクリエイティブ」は8年、生成AIに注力してから2年経ちました。昨年は本業のInstructional Designを「0」、生成AIを「100」にして取り組んできましたが、2025年も継続していきます。
ただ、「映画を撮らない映画監督のように」今後も表舞台ではInstructional Designerを名乗ります。
廃業宣言みたいなものですが、生成AIをビジネスにすることだけは避けないといけませんので(※生成AIは最大限に活用するけど生成AIのビジネスはしない)、複合的かつ多層的に将来を決めていきたいと思います。

「AIクリエイティブ」活動は8年、生成AIの取り組みは2年経過

4月から開始した非公式のライブ配信「Creative.Edge Live」は66回。明日、2日に配信する第67回では2024年のライブを振り返り、総括する予定です。

非公式の「Creative.Edge Live」は66回配信

COLORSプロジェクトは3月末で終了し、4月1日から第3期がスタートします。すでにMVとビジュアルブックは完成しましたが、映画とシリアスゲームはこれから。全て完成して終わるか、未完成で終わるか。3月末の報告会で明らかになります。

全て完成して終わるか、未完成で終わるか

生成AIを駆使し、「1人で」4つのコンテンツを同時制作するエクストリームなプロジェクト。第3期はさらに過激になりますのでご期待 (?)ください。


今日は、生活労働の空き時間を使って、短い動画を作ってみました。

驚くのは、このレベルだとすでに新規性もなく、ありふれた生成AI動画になってしまったことです。今なら、学生さんでもこれ以上の動画をラフに作りますので、動画生成AIを使う優位性はない。…と言えるほど、敷居が下がったということです。

  • ラフ動画(イメージスケッチ)

  • 再生時間:18秒

現在のプロトタイプ制作のワークフローは以下のような感じです。

まず、頭の中の漠然としたイメージをFireflyでカタチにしていきます。
Fireflyはラフスケッチのツールとして活用。人物の実写表現は不得意ですが、イラスト生成についてはプロンプト入力に依存しない直感的なUIでとても使いやすい。

Adobe Firefly Image 3

シームレスに連携できるAdobe Expressでさらにラフイメージを作成して、自分のイメージを具現化していきます。

Adobe Express

ビジュアルイメージが確定したら、Midjourneyでリファレンス画像を作成します。
短いシンプルなプロンプトから始めて、生成しながら言葉を追加。画像の雰囲気は、Personalization(--p)で決めているのでプロンプトは重要ではありません。

film still, The bobcat with pointed ears is astonishingly huge, Glacier world with heavy snowfall, A super huge bobcat with pointed ears and a super cute young woman, She has short, pure white hair and wears a purple down jacket, Saturated and colorful glacier worldview --ar 16:9 --quality 2 --style raw --p --stylize 50 --v 6.1

Midjourney v6.1

Photoshopで生成画像の色調補正やハルシネーションの修正。
特に、ハルシネーションの修正が重要です。

Adobe Photoshop

Gigapixel 8でクリエイティブアップスケール。
Midjourneyの生成画像を2~4倍にする(高解像度化)。
※Magnific AIからGigapixel 8に移行中。クリエイティブアップスケールは、ローカルで処理できるGigapixel 8がメインツールになりそう。

Gigapixel 8 (Topaz Labs)

Gigapixel 8に搭載されている生成AIで再生成。
以下は、比較しやすいように極端な設定にしています。ここまで大きな値にすると別人になってしまいますが、Photoshopを使って顔だけ元画像に近づけることができます(小さな値の処理画像で顔を置き換えます)。

左がMidjourney、右がGigapixel 8で再生成した結果

KLING v1.6でビデオ生成。
以下の場合は、2回生成してどちらも意図した映像になりました。
バージョン1.6はとても優秀なモデルだといえます(※バージョン1.5はうまくいきません)。今のところ、OpenAI SoraやRunway Gen-3 Alphaより総じて良好です。
ただ、KLINGも得意不得意があるので、SoraとRunwayは必要。意図した映像を生成するには、この3つのモデルを使い分けないといけません。

KLING v1.6

ナレーションは、AI音声合成技術のVOICEPEAKを使用。
感情パラメータを設定してナレーションを読み上げます。
今回使用したのは、キャラクターシリーズの「宮舞モカ」。

VOICEPEAK 6ナレーターセット(+ 別売り「宮舞モカ」)

効果音だけマーケットプレイス(Envato)の素材を購入して使用。
音楽はSuno AIがあれば良いのですが、効果音の生成はどれも品質が悪いので使いものになりません。

最後は、After Effectsで生成ビデオを編集します。
再生速度をかなり詳細に制御して、不自然な動きを修正しています。
完成ビデオを書き出した後は、4KにするためTopaz Video AI 6を使用しますが、今回はアップスケールしていません。フルHDサイズのままです。

Adobe After Effects

煩雑なワークフローですが、ほぼ毎日やっているので体が勝手に動いて作業が進みます。武道の型稽古のようなものです。
ただ、第4世代の動画生成AIが登場すると、このワークフローは崩壊しますので、技術に合わせてアップデートすることになります。特定の技術に依存した強固なワークフローは大変危険なので、常に置き換え可能な状態にしておくことが重要。

2024年の総括は明日のライブ配信で話しますが、簡潔に言うと以下のとおりです。

  • 生成AI技術に全リソースを注ぎ込み、最大限に活用していく

  • 生成AIのビジネスには関わらない(過渡期の技術ではビジネスしない)

  • デジタルコンテンツから可能な限り離れる(それが可能なクリエイティブを今から育む)

  • 自分が過去数十年やってきた仕事のスタイルは生成AIによって成立しなくなる(早めに廃業宣言)

元旦の第一声は「廃業します」です。
生成AIを使いこなす側になって、気づけたことが幸運だったかもしれません。


更新日:2025年1月1日(水)/公開日:2025年1月1日(水)

いいなと思ったら応援しよう!