タグ

Metaに関するmisshikiのブックマーク (277)

  • Metaがユーザーの反発を受けAIキャラクターアカウントを削除

    Metaが自社プラットフォーム上で独自に展開していたAIキャラクターのアカウントを削除したことが明らかになりました。 Meta's AI Profiles Are Indistinguishable From Terrible Spam That Took Over Facebook https://www.404media.co/metas-ai-profiles-are-indistinguishable-from-terrible-spam-that-took-over-facebook/ Meta shuts down its AI character accounts after user outcry https://www.nbcnews.com/tech/social-media/meta-ai-insta-shuts-character-instagram-fb-acco

    Metaがユーザーの反発を受けAIキャラクターアカウントを削除
    misshiki
    misshiki 2025/01/06
    “バグにより一部のAIキャラクターアカウントがブロックできなくなっていたため、アカウントを削除したと説明しています。”
  • Meta、OpenAIの営利組織への転換阻止を求める書簡を米加州司法長官に

    米Metaは12月12日(現地時間)、米カリフォルニア州司法長官のロブ・ボンタ氏に対し、米OpenAIの非営利企業から営利組織への転換計画を阻止するよう求める書簡を送ったと、米Wall Street Journalが報じた。The Vergeで書簡全文を読める。 Metaは書簡で、OpenAIが「慈善事業として築いた資産を流用し、莫大な私的利益を得る可能性のある目的に使うことで法律を無視することは許されない」と主張している。 OpenAIのブレット・テイラー取締役会長は、営利組織への再編の可能性の後もOpenAIの非営利部門は存続すると述べた。また、営利部門の所有権の全額を受け取るとともに、AIが人類に利益をもたらすようにするという「使命を追求する能力が強化される」と説明した。 Metaはまた、OpenAIの共同創業者であるイーロン・マスク氏が「この件でカリフォルニア州の利益を代表する資格

    Meta、OpenAIの営利組織への転換阻止を求める書簡を米加州司法長官に
    misshiki
    misshiki 2024/12/16
    “米Metaは12月12日(現地時間)、米カリフォルニア州司法長官のロブ・ボンタ氏に対し、米OpenAIの非営利企業から営利組織への転換計画を阻止するよう求める書簡を送った”
  • OpenAIなど生成AI6社「安全対策が不十分」 NPOが評価 - 日本経済新聞

    【バンクーバー=渡辺直樹】米NPOは11日、生成AI人工知能)を開発する主要6社が十分な安全基準を満たしていないとする調査結果を公表した。偽情報や有害コンテンツを作成できてしまうリスクなどを調べたところ軒並み低評価にとどまり、米メタは最低だった。AIを制御する対策も不十分としている。カナダのバンクーバーで開催中のAIの国際学会「NeurIPS(ニューリプス)」にあわせ、NPOのフューチャー・

    OpenAIなど生成AI6社「安全対策が不十分」 NPOが評価 - 日本経済新聞
    misshiki
    misshiki 2024/12/16
    “米NPOは、生成AIを開発する主要6社が十分な安全基準を満たしていないとする調査結果を公表。偽情報や有害コンテンツを作成できてしまうリスクなどを調べたところ軒並み低評価にとどまり、米メタは最低だった。”
  • meta-llama/Llama-3.3-70B-Instruct · Hugging Face

    misshiki
    misshiki 2024/12/09
    “Meta Llama 3.3 多言語大規模言語モデル (LLM) は、70B (テキスト入力/テキスト出力) の事前トレーニング済みで命令調整済みの生成モデルです。”
  • Llama 3.3 70B Instruct について解説してから動かしてみる|ぬこぬこ

    tl;drMeta の最新モデル Llama 3.3 70B が公開されたよ モデルカードを丁寧に手動で翻訳・解説したよ(読んで!) 安全性にかなり力を入れているよ! Transformers / Ollama / MLX で動かしてみたよ Llama 3.3 70B に関する Hugging Face Hub のページと GitHub の Llama 3.3 のモデルカードのページは下記になります。 Transformers 経由で生のモデルを使う時は、毎度のことですが Meta の Llama 系モデルを Hugging Face から利用する時は利用規約に同意する必要があるので、フォームを入力して Submit を押してください。これをしていないと最後の動作確認時に動かせないので先んじて案内します。また、生のモデルや Ollama や MLX 変換モデルなどを使いたい場合は、ファイル

    Llama 3.3 70B Instruct について解説してから動かしてみる|ぬこぬこ
    misshiki
    misshiki 2024/12/09
    “Meta の最新モデル Llama 3.3 70B が公開されたよ”
  • Llama3.3 128Kコンテキスト長多言語対応オープンLLMと200万トークン対応かつ無料で使えるGemini-exp-1206など|shi3z

    OpenAIが平日毎日新機能の説明をするというイベントのために午前2時に起きたが、割と興味のない内容だったので松尾さんと二人で憤慨していたのだが、その裏でMetaがLlama3.3-70Bを公開していた。70BでGPT-4oを上回る性能かつ、Llama3.1 405Bを上回る性能らしい。 早速、昨日試したAttentionにまつわる物語を翻訳してもらうと、確かになかなかいい翻訳になった。 From: Dzmitry Bahdanau To: Andrej Date: 2022年9月1日 6:05 PM Hi Andrej、 8年前に起こったことを話すことを嬉しく思います! 私は、Herbert Jaegerの下でJacobs UniversityでMScの1年目を終えた後に、Yoshuaの研究所にインターンとして赴任しました。私はYoshuaに「何に取り組んでいいか教えてください」と言った

    Llama3.3 128Kコンテキスト長多言語対応オープンLLMと200万トークン対応かつ無料で使えるGemini-exp-1206など|shi3z
    misshiki
    misshiki 2024/12/09
    “MetaがLlama3.3-70Bを公開していた。70BでGPT-4oを上回る性能かつ、Llama3.1 405Bを上回る性能らしい。”
  • 爆速生成AI「Llama 3.1 405B」をクラウド利用する、初心者向けステップガイド

    メタがリリースした4050億パラメータの超大規模言語モデル「Llama 3.1 405B」は、オープンソースであり、個人のパソコンにインストールして利用することができる。しかし実際の運用には、高スペックハードウェアが必須となるため、誰もが簡単に利用できるわけではない。これに対して、SambaNovaがリリースした新クラウドサービスでは、このLlama 3.1 405BをAPI経由で利用することができる。最大の利点は、秒間100トークン以上のスピードだ。この爆速モデルを利用するためのステップを詳細に解説したい。 高性能オープンモデルLLMを爆速で利用できるAPI メタがリリースしたLlama 3.1 405B(4050億パラメータ)は、オープンソースでありながらGPT-4などに並ぶ高い精度を有するモデルで、AIコミュニティでは注目の的となっている。 しかし、実際に運用するには高スペックなハー

    爆速生成AI「Llama 3.1 405B」をクラウド利用する、初心者向けステップガイド
    misshiki
    misshiki 2024/11/19
    “メタがリリースした4050億パラメータの超大規模言語モデル「Llama 3.1 405B」”
  • Meta、音声とテキストを融合させたマルチモーダル言語モデル「Meta Spirit LM」など複数の研究成果を発表

    MetaのAI人工知能)研究部門であるMeta FAIR(Fundamental AI Research)は2024年10月18日(米国時間)、AI人工知能技術の新しい研究成果として「Meta Segment Anything Model 2.1(SAM 2.1)」「Meta Spirit LM」「Salsa」「Self-Taught Evaluator」を発表した。 MetaのFAIRチームは「先進的機械知能」(AMI)の達成を目指し、AMIを活用して製品やイノベーションを推進し、全ての人々に利益をもたらすことに取り組んでいる。今回発表した研究成果は、AMIの基礎を構成する要素、すなわち認知、音声と言語、推論、具現化、整合性に焦点を当てたものだという。 Metaが発表した主な研究成果は以下の通り。 SAM 2.1 関連記事 Meta、画像や動画内のあらゆるオブジェクトを識別できるA

    Meta、音声とテキストを融合させたマルチモーダル言語モデル「Meta Spirit LM」など複数の研究成果を発表
    misshiki
    misshiki 2024/11/08
    “Meta FAIR(Fundamental AI Research)は2024年10月18日(米国時間)、AI(人工知能)技術の新しい研究成果として「Meta Segment Anything Model 2.1(SAM 2.1)」「Meta Spirit LM」「Salsa」「Self-Taught Evaluator」を発表した。”
  • Metaに転職して感じたPFNとの違い - joeの日記

    Metaに転職して1か月近くが経ちました。カナダのトロントオフィス勤務で、今月は渡航に始まり、社会保険番号取得、口座開設、家探し(インターネット等の契約も)、州の健康保険、会社の福利厚生に含まれる保険や積み立て口座の開設、など手続き関連でかなり疲れましたが、アメリカメンローパークでの社のオンボーディングも終了していよいよ業務が開始した、といったところです。 Metaはオンボーディング中にチームと会うまで自分が何の仕事をするか詳細は全然把握していなかったのですが、Metaが開発し運用もされている社内用の深層学習アクセラレータのコンパイラを開発する職となっています。レイヤごとに細かなチームがあり、上の方のレイヤではPyTorchとの繋ぎこみを担当しているようですが、自分が所属しているところはレイヤの最下層のところに位置しており、カーネルのコードをLLVMを介してコンパイルしアクセラレータに乗

    Metaに転職して感じたPFNとの違い - joeの日記
    misshiki
    misshiki 2024/11/01
    “MetaもGoogle等と同じくモノレポでの開発で、独自のソースコントロールツールがあり、独自の分散ビルドシステムを持っていて、独自のレビューツールを使っていて、前職で使っていたGitHubを全然使いません。”
  • 🔥Spirit LM

    🔥Spirit LM Interleaved Spoken and Written Language Model [Paper] [Code] In Transactions of the Association for Computational Linguistics Tu Anh Nguyena,1,2, Benjamin Mullera,1, Bokai Yua,1, Marta R. Costa-jussab,1, Maha Elbayadb,1, Sravya Popurib,1, Christophe Ropersb,1 Paul-Ambroise Duquenneb,1, Robin Algayresb,3, Ruslan Mavlyutovb,1, Itai Gatb,1, Mary Williamsonb,1 Gabriel Synnaevec,1, Juan Pin

    misshiki
    misshiki 2024/10/22
    “テキストと音声を自由に組み合わせる基礎マルチモーダル言語モデルであるSpirit LM を紹介します。”
  • Sharing new research, models, and datasets from Meta FAIR

    Sharing new research, models, and datasets from Meta FAIR Today, Meta FAIR is publicly releasing several new research artifacts in support of our goal of achieving advanced machine intelligence (AMI) while also supporting open science and reproducibility.The work we’re sharing today includes Meta Segment Anything 2.1 (SAM 2.1), an update to our popular Segment Anything Model 2 for images and video

    Sharing new research, models, and datasets from Meta FAIR
    misshiki
    misshiki 2024/10/22
    “Meta FAIRからの新しい研究、モデル、データセットの共有。2024年10月18日”
  • MetaがAI向けのオープンなハードウェアについての現状と展望について語る

    2024年10月15日から17日にかけてカリフォルニア州サンノゼで行われているOpen Compute Project Global Summit 2024において、MetaがAI向けのオープンなハードウェアについての自社のイノベーションを発表するとともに今後のビジョンについても語りました。 Meta’s open AI hardware vision - Engineering at Meta https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/ AI向けのハードウェアの需要は年々高まっており、Metaは2023年にAIをトレーニングするためのクラスターを16倍に大規模化したほか、今後さらに増加することを見込んでいます。また、コンピューティング能力を強化するだけでな

    MetaがAI向けのオープンなハードウェアについての現状と展望について語る
    misshiki
    misshiki 2024/10/17
    “新たなイノベーションとして「最先端のオープンラック設計」「新しいAIプラットフォーム」「高度なネットワークファブリックとコンポーネント」の3つを発表”
  • Meta、テキストから動画生成、動画編集、音声生成ができる基盤モデル「Meta Movie Gen」を発表

    Metaは2024年10月4日(米国時間)、画像、動画、音声といったメディアをAI人工知能)で生成できる基盤モデル「Meta Movie Gen」(以下、Movie Gen)を公式ブログで発表した。 Movie Genは、簡単なテキスト入力に基づく動画生成、パーソナライズされた動画生成、正確な動画編集、音声生成の4つの機能を提供する基盤モデル「Movie Gen Video」「Personalized Movie Gen Video」「Movie Gen Edit」「Movie Gen Audio」で構成されている。Metaは「これらの機能に関する人間による評価結果において、Movie Genは競合する幾つかの業界モデルを上回っている」と述べている。 各モデルは具体的に何が競合モデルを「上回っている」のか? 関連記事 Meta、「Llama 3.2」を公開 新たに追加されたビジョンモデル

    Meta、テキストから動画生成、動画編集、音声生成ができる基盤モデル「Meta Movie Gen」を発表
    misshiki
    misshiki 2024/10/09
    “Movie Genは、簡単なテキスト入力に基づく動画生成、パーソナライズされた動画生成、正確な動画編集、音声生成の4つの機能を提供する基盤モデル...で構成されている。”
  • Meta Movie Gen

    Introducing research for the most advanced media foundation AI models. Our latest research breakthroughs demonstrate how you can use simple text inputs to produce custom videos and sounds, edit existing videos or transform your personal image into a unique video.

    Meta Movie Gen
    misshiki
    misshiki 2024/10/07
    MetaのMovie Gen “最新の研究成果を紹介。シンプルなテキスト入力を使用してカスタム ビデオやサウンドを作成したり、既存のビデオを編集したり、個人の画像をユニークなビデオに変換したりできる。”
  • メタ、動画生成AIを25年に投入 OpenAI「ソラ」に対抗 - 日本経済新聞

    【シリコンバレー=清水孝輔】米メタは4日、文章による指示で高精細な動画を生成できる人工知能AI)を開発したと発表した。動画とともに流す音声もAIで作れる。2025年に商用化する方針だ。動画生成AI「Sora(ソラ)」を開発した米オープンAIに対抗する。メタが開発した動画生成AIは文章の指示を理解し、最長16秒の高精細な動画を作れる。場所や登場人物の動きなど場面を細かく描写して指示する。文章の

    メタ、動画生成AIを25年に投入 OpenAI「ソラ」に対抗 - 日本経済新聞
    misshiki
    misshiki 2024/10/07
    “動画とともに流す音声もAIで作れる。2025年に商用化する方針だ。動画生成AI「Sora(ソラ)」を開発した米オープンAIに対抗する。”
  • Meta、音声付き高解像度動画の生成が可能なAIモデル「Movie Gen」発表

    米Metaは10月4日(現地時間)、テキストから高画質の動画と音声を生成する動画生成AIモデル「Movie Gen」を発表した。具体的なリリース時期、ライセンス、開発者向けの利用可能性については言及していないが、多数のサンプル動画を公開している。 Movie Genでできること Movie Genは、テキスト、画像、動画、音声のマルチモーダルで、テキスト入力で動画と音声を生成できる。 生成できる動画は最長16秒 テキストプロンプトを入力することで最長16秒、16フレーム/秒の動画を生成できる。物体の動きや物体同士の相互作用、カメラの動きを理解しているので、現実的な動きを再現できるとしている。 既存の動画の編集 既存の動画を編集できる。例えばオブジェクトを追加したり、背景を変更したり、動画の一部を別の内容に置き換えたりできる。 マーク・ザッカーバーグCEOは自身のInstagramアカウント

    Meta、音声付き高解像度動画の生成が可能なAIモデル「Movie Gen」発表
    misshiki
    misshiki 2024/10/07
    “米Metaは10月4日(現地時間)、テキストから高画質の動画と音声を生成する動画生成AIモデル「Movie Gen」を発表した。”
  • Llama3.2 をローカルで動かしてみる - Qiita

    やりたいこと Meta 社から Llama3.2 が発表されました。軽量なモデルである Llama 3.2 1B および 3B とマルチモーダルモデルである Llama 3.2 11B および 90B です。 先日、OSS なモデルをローカルで動かす方法 (以下の記事) を試したので、今回の Llama3.2 も試してみようと思います。 どんなモデル? 以下の記事によると、1B・3B はエッジやモバイルデバイス向けテキストモデル、11B・90B は小中規模のビジョンモデルだそう。 1B・3B 128K トークンのコンテキスト長をサポート 多言語テキスト生成とツール呼び出し機能に非常に優れている (らしい) 11B・90B マルチモーダルモデル Claude 3 Haiku などと比較して画像理解タスクで優れている (らしい) 動かす

    Llama3.2 をローカルで動かしてみる - Qiita
    misshiki
    misshiki 2024/09/30
    “docker exec -it ollama ollama run llama3.2”
  • Llama 3.2 の使い方|npaka

    以下の記事が面白かったので、簡単にまとめました。 ・Llama can now see and run on your device - welcome Llama 3.2 1. Llama 3.2 Vision 11B・90B1-1. Llama 3.2 Vision 11B・90B「Llama 3.2 Vision 11B・90B」は、Metaがリリースした最も強力なオープンマルチモーダルモデルです。画像+テキストのプロンプトでは英語のみ、テキストのみのプロンプトでは英語ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語をサポートしています。 コンテキスト長は128kトークンで、画像を含む可能性のある複数ターンの会話が可能です。ただし、モデルは単一の画像に注目する場合に最適に機能するため、transformers実装では入力で提供された最後の画像のみに注

    Llama 3.2 の使い方|npaka
    misshiki
    misshiki 2024/09/30
    “画像+テキストのプロンプトでは英語のみ、テキストのみのプロンプトでは英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語をサポートしています。”
  • Meta、「Llama 3.2」を公開 新たに追加されたビジョンモデルと軽量モデルはどう使える?

    Metaは2024年9月25日(米国時間)、同社の大規模言語モデル(LLM)の最新版「Llama 3.2」を発表した。 7月にリリースした「Llama 3.1」では、80億(8B)、700億(70B)、4050億(405B)パラメーターの3モデルを提供していたのに対し、Llama 3.2では、中小規模のビジョンモデル(11Bと90B)と、エッジデバイスやモバイルデバイスに搭載可能な軽量のテキスト専用モデル(1Bと3B)の計4モデルをラインアップしている。 これらのモデルはllama.comとHugging Faceで公開されており、Metaの幅広いエコシステムを構成するパートナーのプラットフォーム上ですぐに開発に利用できる。これらのパートナーにはAMDAmazon Web Services、Databricks、Dell Technologies、Google Cloud、Groq、IB

    Meta、「Llama 3.2」を公開 新たに追加されたビジョンモデルと軽量モデルはどう使える?
    misshiki
    misshiki 2024/09/30
    “Metaは2024年9月25日(米国時間)、同社の大規模言語モデル(LLM)の最新版「Llama 3.2」を発表した。”
  • Meta Questは地盤固め。Metaが狙う「グラスとAI」での未来戦略【西田宗千佳のRandomTracking】

    Meta Questは地盤固め。Metaが狙う「グラスとAI」での未来戦略【西田宗千佳のRandomTracking】
    misshiki
    misshiki 2024/09/27
    “「メガネは次のAIデバイス」”