今話題の画像生成モデル「Stable Diffusion」をいらすとやの画像でfinetuneしてみたところ、任意のテキストに対していらすとやっぽい画像を作れるモデルが出来上がりました。 Stable Diffusionとは Stable Diffusionは、指定されたテキスト(文字列)に対応する画像を生成する機械学習モデルのひとつです。ソースコードと学習済みモデルは無償で公開されていて、誰でも利用できるようになっています。 (Stable DiffusionのGitHubページより引用) 今回は、この画像生成モデルをいらすとやの画像でfinetune(微調整)することで、入力テキストに対応する画像をいらすとやのようなスタイルで出力させることを試みました。 開発環境 開発環境はGoogle Colab Pro+で、主にプレミアムGPU(NVIDIA A100)を使いました。Stable
Twitter社を買収したイーロン・マスク氏は11月6日、ツイートに長文テキストを添付する機能を追加すると発表しました。 (画像はTwitterより引用) 実装時期は「まもなく」であるとして、「メモ帳スクリーンショットの不条理を終わらせる」としています。現在、一部で試験導入されている長文添付機能「Twitter Notes」のことなのかという質問に対しては、「それに近い感じ」と返答。 マスク氏は続けて、「あらゆる形態のコンテンツに対するクリエイターの収益化を進める」とも発表。詳細はいつ頃明らかになるのかとの質問に対して、マスク氏は「2週間」と返信しています。 これらの投稿に対してネット上では「外部サイトへの誘導が減り、Twitter内で完結するコンテンツが増えそう」「連続ツイートでしか書きたいこと書けなかった派の私にも嬉しい改善」「Twitter上で文字を読む体験も変わりそう」といった声が
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く