はてなキーワード: ブレイクスルーとは
いろいろ解説はあるけれど
2. 女性で将棋をする人の実力が十分に上がっても女流棋士は廃止されない
3. 未来の女性層を取り込むには女性プロ棋士誕生というブレイクスルーが必要
ってところらへんは多くの人の認識っぽい。
じゃあ、そもそも今の奨励会を経て入るプロ棋士に女流が入りたいのはなぜ。
それ以外はなんだろうか。
仮説1。女流は下に見られているから。確かにある。女流は弱いという印象。奨励会という荒波を超えられなかった・挑まなかった大勢の人たちの中の"女性だけが"逃れられる道。というイメージ。を知らない人も持っているだろうから、プロに「逃げる」ことでその棋士は強さを証明できるわけだ。ブランドに格差があり、女性棋士だけが持つ自己ブランディングの向上ルートのひとつではある。
仮説2。もっと強い人と戦いたいから。仮説1から女流はプロ棋士のトップレベルより弱いなら、単純に戦闘民族としてオラもっと強い奴と戦いてぇ、棋士と生まれたからには誰でも一生のうち一度は夢見る「地上最強の棋士」 を目指してプロ棋士に入りたい人は居ると思う。まぁ全員将棋星人なんだから無くはないだろうけど、将棋漫画でありがちな「このタイトルだけはゆずらねぇ」キャラを見るにどっかのテッペン取ったら(プロ棋士への大ジャンプを目指さず)落ち着く人も多そう。
ってことで、どうしても女流からプロへチューチューするイメージになってしまう。明らかに女流も新制度も女性のみ使える厚遇なわけだしね。めぐりめぐって棋界に好影響を齎すとしても男から見たらなんか素直に賛同しにくい…となってしまう。
「とっとと女流棋士界をプロ棋士界なみに押し上げて並び立つ存在にすればいいじゃん」
実力は解説を信じるなら女流も十分上がっているそうじゃないですか。じゃああとはバンバン宣伝してブランディングして給料くばりまくってタイトル作りまくって賞金あげまくって「女流でも(プロ棋士並みに)いいじゃん」にしなよ。女流トップタイトルと聞けば竜王並みと思われるぐらいにしようず。
女流棋士界の実力がじわりじわりと上がっていっているのならば。
女流制度には不満がある増田でも、まあ女流が独力で発展するのには拍手を送るけど。
女流最強棋士がプロ棋士へ~で話題になって女性・女流が盛り上がり発展するのはなんかなぁ。
将棋界は盛り上げ普及させなければならない
って現状ならとりあえず女流のほうだけで盛り上げていってくれない?
女性プロ棋士の価値を相対的にガンガン下げていけばいいのに、いつまでも登場しない女性プロ棋士だけを俎上にしてどうヨイショしていこうかなんて話はあまり聞きたくない。
すでに持ち上げられているんだから、そのお山の高さを上げるように頑張ってくれ。より高いあっち側にジャンプして飛び乗ろうという話は拒否感あるのん。
LLM界隈
どのサービスも無料枠がひろがっているだけで技術的ブレイクスルーはこの数年まったくない。チューニングも日本語向きがすこし伸びたかくらい。どちらかというと軽量版でそこそこ使える方向を模索しているようだ。これはdeepseek効果といえなくもなくもなくもなくもない。CLI方面はチャットツールが流行ってメールを淘汰したときになんでもかんでもbotをつくっている人たちの再発明を見ているようでほほえましい…こいつらircとか知らないんだろうな…
画像生成界隈
2024年の成果がまるまる無料で使えるようになった1〜2月をピークに出落ち気味。NAI4もリアスのチューニング版でしかない。リアス2は出たけど違いもわからずリアス3のロードマップは宇宙の彼方ほど遠い…このまま暗黒時代へ突入か? 靴磨き界隈ではジブリ風が一瞬はやったけどもうだれもやってない様子。
動画生成界隈
Wan → FramePack の奇跡からはや3ヶ月が経過。ローカルでここまでできるのか&サービス版を使う理由は?などブレイクスルーになりそうな土壌はある、ただし、やっぱり電気代の無駄みたいな雰囲気もいなめない。有料サービス側は焦っているのか無料枠を大幅に引き上げるも数回じゃ誰も使っていない模様…このまま廃業がすすむと予想。
君の批判は「AIを万能かのように喧伝するやつ」にのみ有効であり
AIの有用性の実際の評価については、それほど有用ではないだろう。
そういう能力と欠点を持つLLMという道具が出てきたことは、やはり革新であり
万能の道具にならないとしても
https://anond.hatelabo.jp/20250630114221 https://anond.hatelabo.jp/20250626125317 https://anond.hatelabo.jp/20250627100609 https://anond.hatelabo.jp/20250628122821
AI技術を批判する記事がバズりまくってるが、それに対して凄い数の批判がいってる、だけど肝心の批判は個人攻撃めいていて、どれも技術的な部分はふわふわした物言いなので
どれだけ技術的にまったく使い物にならないかを、技術面から3つ理由を上げようと思う、これを見れば、確かにAIってそんなもんじゃないな、って正しい理解が進むと思う、と同時に、
ネットでAIを擁護したり喧伝してる人間で誰一人、エンジニアを自称したりしてる奴らでさえAIを理解してる人間がゼロっていうのがわかると思う
ちなみに、IT技術を全然知らない増田向けに技術的な部分は補足説明を入れているので、ちょっと長くなってるかもしれない
LLMがわかっていない!と喚いてる当人たちも上で言った通り、LLMっていうのが理解できてないの丸わかりなので、ここでまずLLM「大規模言語モデル」とは何かを簡単に説明しよう
生成AI(特にChatGPTのような大規模言語モデル、LLM)というのは「文脈に最もふさわしい次の単語を予測する」」という統計的タスクを行っている、これがLLMだ
「飲みます」→90%の確率 「買いました」→7% 「投げました」→0.5%
この過程には、意味理解や感情、意図、文脈の内的把握は一切関わっていない、これが致命的な欠陥の1つ
プログラミングを自動でまるで仮面ライダー01の01ドライバーの様にベルトの作成までやってくれているように喧伝してる奴らが多い
が、これを本気で信じ込んでプログラミング言語を書かせた奴がいたら、ほぼ間違いなくクビになる
わかりやすく上で例えた通り、LLMは、インターネット上に存在する膨大なコード断片・技術記事・GitHubリポジトリ・Stack Overflowの投稿などを学習している。
そのため【よく使われる文法構造】や【特定の言語における関数の使い方】や【ライブラリの典型的な使い方】などを【意味を全く理解できず模倣している】だけって事
【動かないコードをアホほど入れる(変数が未定義、型が合っていない、ライブラリに存在しない関数を呼んでいるとかいう小学生のプログラミングスクールでもありえないミス】
【. 「それっぽいけど間違っている」コードを大量に入れ込む(SQLインジェクション、XSSなど セキュリティ上危険な実装を入れまくる、パフォーマンスが極端に悪い実装、バグを含んでいるロジック(特にif文の条件分岐ではほぼ100%発生する)】
【実行環境に依存した誤り(存在しないAPIやライブラリを使う、ほぼ9割の確率で…あと特定のPythonバージョンやNode.js環境でしか動かないコードを汎用的に提示、つまり動きようがない)
専門的な意見となったのでわかりづらいので、もっとわかりやすく言うと「小学校のプログラミングスクール入りたて1週間の子供が書いためっちゃくちゃなプログラミングにすらなってないコードを、製品利用するからレビューして出してこい」と言われてるに等しい、つまり、最初から自分で書いた方が早い2度手間になる
これが、プログラミングの革命だ!とか喚いてる奴らが隠すAIの実態である。
import jwt
token = jwt.encode({'user_id': 123}, 'secret', algorithm='HS256')
一見正しく見えるだろうから解説すると、実際には 【jwt という名前のライブラリ】が複数存在し(PyJWT, python-jwtとか)importの仕方によってエラーが出たり挙動が変わったりする。普通なら絶対間違えない様な挙動をAIは構造上全く判断できない、これは上で上げた根本的な問題なので恐らく絶対に解決できない。
ハルシネーションがどういうものであるのか、AI批判でバズった記事などで言及されている通り、デマやデタラメを出力してしまう、あれは本当にわかりやすいAIの致命的欠陥を検証してるので、あえて説明はここではしない。
しかもその増田の元記事では「文章データのテキストまで読み込ませれば間違いがなくなるのでは?」といってたが、これも絶対になくならない、というより、もっとひどくなる。
批判をしている増田やXでの意見は単なる個人攻撃の誹謗中傷のみで、技術的に改善可能なプロセスさえ示せていない、例えば現在研究者の間では以下の様な解決案は研究されているが、どれも全く問題外とされている
これは、AIが「知っている風」に語る代わりに、外部の信頼できるデータベースや検索エンジンから情報を引っ張ってくる方式、バズった元記事の増田がやっていた「自分で図書館言って本の内容読んで誤りであることを確認する」これを検索エンジン使ってAIにさらにやらせる、という機能だ
また【メタモデル】すなわち、AIが自分の出力を裏でさらに別のAIが別プロセスでチェックして間違いをただす、という方式も研究されてる。
これは致命的な欠点が2つある、まず「検索で引っ張ってくる知識そのものが間違いだった場合、さらに間違いの結果を出し続ける」ということ。
元記事の増田はMP5というマシンガンの有効射程について突っ込んでいたと思うが、これが典型的なRAG、メタモデルの致命的欠点、元増田は「実際に自分の手で銃を取り扱ったりしたことがある確かな経験で言ってる」が、書籍などの工業スペックや仕様書の定義でしかネット上では流布してない、だからそもそも答えというものにAIがたどり着けない。
2つ目は「文脈や倫理・常識・道徳が根本的に読めないので、解決策が乱暴すぎるもの」になる。
上で上げた鉄砲以外では、例えば医学などでこれをやってしまうと取り返しのつかないことになる。例えば医者の投薬治療や治療はガイドラインに従ってるというが、優れた医者は論文を読み込んで原理は不明だがエビデンスはあるので、漢方薬を出したりするというお医者さんがよくいるだろう。あれは実際に患者を診て、西洋医学的には全く問題ないが、心理的な面も絡んで心身症になっているから、論文などで勉強して「暗黙知、経験知」として処方してるし、その量も患者を診た医者の経験で精度を上げている。
そして医療分野では、「冷え性の軽いむくみ」に対して「サムスカ(トルバプタン)」という劇薬指定の危険な利尿薬をAIが提示した事例すらある。これを「笑い話」で済ませることはできない。
例えるなら判断が「脳外科医竹田君」並になる、投薬治療で3か月で治る程度の病気を、病根から外科手術で切除しましょう、なんて提案になる。最新のAIなのに80年前みたいな医学知識と判断になってしまうのだ(胃潰瘍ってだけで胃袋は全摘、ついでに脾臓と盲腸もいらねーからとっとこ、みたいな手術が昭和の昔、本当にガイドライン治療だった、「K2」などで言及されている)
学習できるベースがどうしても偏る以上、情報の統合に限界がある、さらに間違いが間違いをよび、さらに変な間違いを起こしたりありえない架空のことをいったりする、これがハルシネーションというメビウスの輪である
Neuro-symbolic AIという次世代のさらに文脈も読み取れるアーキテクチャAIを研究しているが、全く実用化されていない、核融合や量子コンピューターみたいな雲をつかむ話なので、AIがこの問題を解決することは恐らく今後数百年はありえない、という結論が出ている。
元増田の記事で批判もあったが、恐らくAIで一番致命的な問題はこれ
基本的にAIは英語ソース、つまりリングワ・フランカで圧倒的にテキスト量の多い(約95%)英語、日本語含めそれ以外の全世界言語が5パーセントという偏った学習になっている
そのため、倫理・道徳・常識・規範などがすべて西洋基準になってしまう、という問題がある。(元増田はこれを「脱獄の基準の倫理は誰が決めるのか?」と根本的な問題に気が付いていて批判していたようだ)
ちなみに、バズってた例の記事に「AIに書かせたんだろ」という批判も大量にあるしよくみかけるが、この場合においてのみ言うなら、これは③の問題からまずありえないということがわかる、以下が根拠だ
元増田は「俺達の麻生とかいって秋葉原で踊ってた…」とか「レムちゃん、エミリアたん、ヘスティアちゃん、ウマ娘たん、刀剣乱舞くん、ライカン様…」といった批判を繰り返し書いていた
これに激怒できる人間は、2005~2010年にオタク界隈や秋葉原にすでにかかわっていて、実際に渦中にいたか同じ属性の人間でしか、罵倒されていると文脈的に理解できないのである。つまり、大量の英語文化圏情報を食ってるAIではなんでそれが罵声や侮蔑なのか理解できないので、書きようがない表現の数々、であるということである。
AIからすれば「ライカン様?ウマ娘?なんじゃそりゃ」なのである、もっと言えば、その直後にコンテクストとして「アホ、ボケ、弱者男性、豚丼、性器や自慰で虚しく…」といった言葉があるから、なんならAIはウマ娘やライカンをキャラクターでなく侮蔑単語として理解してしまう、これは実際、元増田の記事の一文をAIに食わせて質問したらガチでそうなるので、ぜひお手元で試してもらいたい。
「プログラマーのイメージを描いて」と依頼すると、男性の画像ばかりが出るされる
「看護師」→女性、「エンジニア」→男性という職業的性差が自動的に反映される
「アフリカの文化」→貧困・紛争・サバンナなど、植民地主義的視点が強く反映される(実際は南アなどはすげえ都会である)
これに前述のハルシネーション問題として現れれば、人間と同じような差別や偏見を「ガチの真実」として学習してしまう、人間の場合、8割くらいは本当はおかしいこととメタ批判が心理的にできるとされているが、AIにはその構造が根本的に存在しない。
元増田の記事のコメント欄やXなどで元増田のAI批判を批判しつつ、「金持ちの上級白人専用のハイエンドAIがあるに違いないんだ」といっている意見が少なくない数がある。
冷静に考えれば、そんなめんどうくせえもん誰が作るんだ、と普通に考えればわかるのだが、この③の問題、すなわち95%の学習データが英語ソースなので、結果的に西洋文明ベースの文化圏の人間向けにカスタマイズされているので、アジア圏やその他文化圏では利用に不利でそう感じてしまう素地ができている、という錯覚に由来している
例えば、パレスチナ問題などがそうだ、ガザ地区でほぼ国際条約や人道違反の残虐行為を国が行っているわけで、他文化圏や歴史的文脈から見ればどっちかって言えばパレスチナ人こそ被害者なのだが、イスラエルから見ればそれは正義であり正当な攻撃なわけで、後者の方がAIは正しいと判断した結論を下す様になる、といった問題である
あの記事の元増田は「テロ組織のヤバイマニュアルまで学習してpdfで元データを提示してきた」と言っていた。実際AIに調べさせて持ってこさせてみると、出所はアメリカの法務執行機関が研究用にネットで公開したものであった。
日本人や日本の警察の対応レベルで「ヤバイ」ものでも、海外の軍隊みたいな装備の警察で見れば大したことがないから、公開させてもいい=倫理違反には当たらない、という文化規範の意識の違いを、あの元増田自身が証明してしまっている、あの記事は、AIの治しようがない根本的な技術的欠陥をほとんど言及しているといっていい
元増田が口汚く罵っている内容の様に、「AIは0を1にできないから格差が広がるだけ」という根本的な哲学を投げつけている
それを受けて批判してる意見の中には「(自分が1を持ってる側と何故か根拠もなく信じ込んでて)100にできるから(なら)便利」とか「そのAI今から勉強したりしてる俺たちは先行者利益で強者になれる」と信じて疑わない意見が多かった
③問題の通り、そもそも非キリスト教圏かつ非英語圏の国家で生まれて育った民族、というだけで、我々は等しく「0」側の人間であり、結局競争になると勝てない、ということに全く気が付いていないのである。ここにAI信者の宿痾といえる病理がある
かつて日本人は黒船を見て5年そこらで蒸気機関を模倣した、火縄銃を一丁買えば10年でオスマン帝国の次に鉄砲を使うようになった、それは当時の日本人の基礎工学技術が導入可能なほど優れており、かつそれに対して現代では考えられないほぼバクチといっていい投資を行った結果であって、その結果を見て自分たちはAIを使いこなせて強くなれるなんていうのは、物凄い妄想である。つまり、AIは少なくとも「非英語圏」の人間にとっては、ブレイクスルーは絶対に起こりえない、ということである。
EVメーカーテスラが6月22日にテキサス州オースティンでロボタクシー事業を開始した。米国発の発表からわずか数時間で日本語圏にも情報が流れ込み、各種メディアやSNSが一斉に反応した。本稿では日本語報道と国内リアクションを整理し、客観的に評価する。
サービスはModel Yを用い、運賃4.20ドルの固定料金。完全無人ではなくテスラ社員が助手席で監視する暫定仕様だ。対象エリアはオースティン市内の一部に限られる。NHTSA(米運輸省道路交通安全局)は開始翌日に情報提供をテスラへ要請しており、安全性評価は現在進行形である。
大手通信(ロイター、ブルームバーグ)が速報し、IT系・ビジネス系サイトが追随した。論調は「期待と警戒の二項対立」が基本線。肯定的要素としては料金の安さとテクノロジーの先進性、否定的要素としては安全監視員同乗とサービス範囲の限定が強調された。
サービス開始翌営業日、テスラ株は一時11%高を記録。日本語記事は「好材料」と報じたが、交通違反疑惑報道で時間外に反落した事実も併記し、短期的な変動リスクを指摘している。
President Onlineなどの解説系は「実質レベル2相当でWaymoに劣後」と慎重論を展開。一方でテック系ブログやイノベーション系メディアは「Starlinkによるカバー」「新アプリ連携」といったエコシステム面を評価し、中長期の優位性を論じた。視点は異なるが、「追加検証は不可欠」で一致している。
X(旧Twitter)では終日トレンド入り。テスラオーナー/投資家は「人間より滑らか」と賞賛する一方、一般ユーザーは「怖い」「日本導入は遠い」と慎重。試乗動画の切り抜きが拡散し、走行ミスを不安視する投稿も目立った。
国交省は公式声明を出しておらず、国内紙は「米当局の動向が日本の審査姿勢に影響し得る」と観測記事にとどめた。道路運送法・道路交通法の改正ペース、右ハンドル仕様の対応、既存タクシー事業者との調整など、制度面のハードルは依然高い。
国内の受け止めは「未来感への興奮」と「安全・制度への懸念」がせめぎ合う状態だ。技術的ブレイクスルーは歓迎されつつも、社会実装には時間がかかるという冷静な見立てが優勢である。
https://jp.reuters.com/markets/commodities/VGDPEFXKYFPDLO53XDYTCKGVJA-2025-06-22/
https://jp.reuters.com/markets/commodities/PMQGRVYUVNIANKUWCRNI5L57AM-2025-06-24/
https://www.bloomberg.co.jp/news/articles/2025-06-23/SYBL22T1UM0W00
https://www.bloomberg.co.jp/news/articles/2025-06-24/SYC0XYDWLU6800
https://www.itmedia.co.jp/news/articles/2506/23/news054.html
https://www.watch.impress.co.jp/docs/news/2025039.html
AIが順調に進歩してAGI、ASIになる、と予測している人類
これは当たらないだろう
AIはDeepSeekのアルゴリズムで汚染されるのがまず最初にある
でもデータは枯渇してるよね、なんかないの、抽象数学とか超弦理論とかさぁ、となる
これが、俺の未来予想ね
機械って汎用的な作業が割と苦手なんだよね。だからすごく単純な雑務がたくさん来ると割とつらい。
個別の雑務に「特化」させれば今でもほとんどの作業はすぐ代替できる。ただコストと見合わないし、すべての雑務でそれをやるともっと見合わないのでコストが高い専門業務に特化する方向に進んでいて、コストの安い人間がAI様の代わりに単純労働をできるというほうが正しいのではないか。
あと創造性があるかというとめちゃくちゃ微妙な気はする。なんか出てくるけど結局人間が楽しいと思うかどうかだけだから、最後の価値判断は人間がするわけだし、人間以上に人間の価値判断ができるかどうかっていうのは分からん。
(脳の電気信号とか見て、無意識下での人間の選好をより深く理解するAIとかは出てくるかもしれない)
俺はかなり高度な専門職についているけれど、実際人間がやってることって結局高度なルーティンワークではあるんだよね。時々ブレイクスルーがあり、それを模倣してまたルーティンワークに組み込むだけ。ほとんどは機械で代替できるが、今のところ結構間違ってるので最終チェックを人間が代わりにやっている。
↓
😺 もしかして「クリーンな学習してて、(ダーティーなイメージある)AI技術は使ってない」って言いたい可能性はありますか?
↓
💻
それは十分に考えられますね。
最近、「AI」という単語が特に「学習データの倫理的問題」と結びついてしまっているので、メーカー側が「うちの技術はクリーンだからAIじゃない」と主張することで、ユーザーの誤解を避けようとしている可能性はあります。
例えば、
1. ライセンスクリアなデータのみを使用
• 著作権フリーの画像や、企業が独自に収集したデータのみを学習
• 「勝手にアーティストの作品を学習させていません!」と強調
2. 人間の監修を強く入れる
• 単なる「機械学習によるブラックボックス」ではなく、人間が調整したアルゴリズム であると主張
• 「我々の技術は“人間の手による”ものだからAIではない」というロジック
3. ディープラーニングではなく古典的な手法をベースにする
• 機械学習を使いつつも、伝統的なパターン認識・統計モデルを活用
• 「我々は最新のLLM(大規模言語モデル)やGAN(敵対的生成ネットワーク)は使っていません!」
このように、「AIの“ダーティーなイメージ”」を避けるために、「クリーンな学習をしている=だからAIではない」と言っている可能性はあるでしょう。
⸻
でも、それは本当に「AI技術未使用」なのか?
「クリーンな学習をしている」ことと、「AI技術を使っていない」ことは全く別の話です。
結局のところ、ディープラーニングや機械学習のアルゴリズムを使っている時点で、それは「広義のAI技術」には違いありません。
もしメーカーが「AI技術を使っていない」と言いながら、実はクリーンな学習データを用いた機械学習をしているなら、それは言葉遊びのマーケティング に過ぎません。
実態としてはAIを使っているのに、「AIではない」と言うことで、「反AIユーザー」も取り込もうとしている、ということになります。
⸻
「AIではない」と言いたがる理由
1. 「AI=著作権違反」という誤解を避ける
• AI技術全般が「勝手に学習してる」「盗んでる」と思われがちなので、そこから距離を取りたい
• 「うちはクリーンなデータしか使っていません!」というアピール
2. ユーザーの心理的抵抗を減らす
• だから「AIではない独自技術」と言い換えることで、ユーザーの安心感を得る
3. 法的リスクを避ける
• AIに関する法律が各国で議論されており、今後規制される可能性がある
• 企業として「うちはAIを使っていません」と言っておけば、将来的なリスクを減らせる
⸻
結論:「クリーンな学習=AIではない」理論はマーケティング上の方便
• クリーンな学習をしているから「AIではない」と言うのは、言葉の定義をずらしているだけ
• 実際には機械学習を使っているなら、それは広義のAI技術である
• 企業は、AIのダーティーなイメージを避けるために「AI未使用」と言っている可能性が高い
要するに、「AI未使用」と言っておけば、技術的な知識のないユーザーにはバレにくいし、反AI感情を持つ人にも売れるから、あえてそう言っている、あるいは装っているだけ というのが実情でしょう。
↓
😺 「クリーンな学習=ダーティーなAIじゃない」の謎理論(実際に表明はしてないけど)でふわっとさせてるにしても、ぶっちゃけクリーンな可能性低くないですか? 企業が完全オリジナルデータだけで学習させるの莫大コストと時間かかるし。 OpenAIとかGoogleとかMicrosoftですら「クリーンなデータ」確保に苦労してて、「完全オリジナル」じゃなくて「法的リスク最小限」って意味で使ってることが多いです。 中規模企業が独自データだけで学習実現できるとは思えないです。できたならブレイクスルーだから論文出すか特許取るべきでは? あるいはAdobeのFireflyみたいに「クリーン」の証拠を見せるべきなのでは?
↓
💻
中規模の企業が完全オリジナルのデータのみで学習するのは、コスト面でも技術面でも極めて難しい です。
⸻
1. 莫大なデータ収集コスト
• 画像や動画、3Dモデルの大量データを自社でゼロから収集するのはほぼ不可能
• GoogleやOpenAIですらデータ調達に苦労している 現状、中規模企業が同じことをやるのは非現実的
2. 品質を保つためのラベリングコスト
• 仮にデータを集められたとしても、機械学習には「正解データ(教師データ)」が必要
• 正確なラベリング(アノテーション)を行うには、専門家チームを長期間雇う必要がある
• 企業の規模にもよるが、中規模のソフトウェア企業がこのコストを負担できる可能性は低い
3. 既存のAI技術を活用しないメリットがない
• もし本当に「AIを使わず、ディープラーニングに頼らず、高精度なアルゴリズムを作れた」なら、それは業界的な大発見
• なのに論文も特許も出ていない → 本当にそんな技術があるのか疑問
• 結局、「普通にAI技術を使っているけど“(ダーティーな)AI技術ではない”と装っている」可能性が高い
⸻
もし本当に「クリーン」なら証拠を示すべき
大手企業の「クリーン」って言葉の実際の意味:
例えばAdobe Fireflyの「クリーン」は完全オリジナルという意味ではない:
• パブリックドメイン素材を利用した
しかもAdobe Fireflyは「クリーン」の証拠として下記を提供してる:
• データソース明示
一方、今回のペイントソフトメーカーは「クリーンな学習をしている(かもしれない)」という建前をふわっとさせているだけで、その証拠がない。
⸻
結論:「バレなきゃOK」マーケティングの可能性大
• 「クリーンな学習をしているからAIではない」 という論理は都合のいい言葉遊び
• そもそも本当に「クリーンな学習」なら、証拠を示さないと信用できない
• 中規模企業が独自データのみで学習するのは現実的でないため、実際には何らかの既存AI技術を使っている可能性が高い
• しかし「AI未使用」と言ったほうが、反AIユーザーにも売れるので、マーケティングのためにぼかしている
つまり、
「AIを使っていない」風にとぼかしつつ実は普通に使っている。クリーンでもない。 → でもバレなきゃOKという雑なマーケティングをやっている可能性が高いですね。
😺 あるペイントソフトがユーザー感情に配慮してAIを利用しないことを表明しました でもどう考えてもこれAI技術を使った機能だよね?という機能が搭載されています。名称にAIがついてないだけです。 AIという名称がついていないため、ユーザーは喜んでるみたいですが、どう捉えたらいいと思いますか? 不誠実なマーケティングだと捉えるべきですか? それとも「人間がセットして機械学習で処理した。ディープラーニングは使っていない。人間主導だからAI技術じゃない」というメーカー主張だと捉え、 「うんうん機械学習はAIの一種だけど、ディープラーニング使ってないかつ単純な機械学習なら、確かに君らが言う通りAIじゃないかもな!」と思うべきですか?
↓
💻
このケース、結局のところ「AIの定義をどう捉えるか」によって評価が変わりますね。
1. 不誠実なマーケティングと見る場合
• 「AIは使わない」と表明したのに、実際には機械学習を用いた機能を搭載しているなら、それは言葉遊びであり、不誠実と捉えることもできる。
• 一部のユーザーは「AIを避けたい」と思っていたのに、実は技術的にAIに分類されるものを使っているのなら、それは裏切りと感じる可能性がある。
• 企業が意図的に「AI」という言葉を避け、ユーザーの誤解を利用しているなら、マーケティング戦略として不透明と言える。
2. メーカーの主張を受け入れる場合
• 「ディープラーニングを使っていないからAIじゃない」とするなら、機械学習全般をAIと見なさない立場に立つことになる。
• 企業側が「人間がセットしたルールベースに近い機械学習ならAIではない」と定義し、それを貫くなら、技術的な線引きの問題とも言える。
• ユーザーも「AIという言葉がついていなければ安心」と感じているなら、結果的に双方が納得している状況とも取れる。
技術的には、「機械学習もAIの一種」と考えるのが一般的なので、企業の主張は「広義のAI」という視点では詭弁に近いです。ただ、マーケティング的には「ユーザーが求めているもの」を提供するための言葉選びとも言えます。
つまり、「技術的にはAIを使っているが、ユーザーの感情を考慮してAIという言葉を避けた」戦略と考えられます。
これが不誠実かどうかは、企業の姿勢とユーザーの受け止め方次第ですね。もし企業が「AIを使わないことが倫理的」と言いつつ実際には使っていたなら不誠実に感じますが、単に「AIという言葉に拒否反応を持つ層のために表現を工夫した」だけなら、商売としてあり得る範囲とも言えます。
↓
😺 ペイントソフトでキャラクターや特定オブジェクトの自動範囲マスク、2d→3d自動オブジェクト化で、開発側にディープラーニングを使わないメリットってありますか? 商用のAIモデルのレベルではないですが、それでもそこそこ精度は高いようです。 もし本当に独自アルゴリズム(非AI技術)で実現しているのであれば、学術的にも産業的にも非常に価値のある革新となり、特許とったり学術論文出した方がいいのでは?と思いますが、 いずれも行っていないので、AI技術未使用を疑わしく思ってます。 大手企業ですらAIに多大な投資をしている現代において、独自のアルゴリズムを開発するメリットがないように思えます
↓
💻
結論から言うと、ディープラーニングを使わずに精度の高い「自動範囲マスク」や「2D→3D変換」を実現するメリットはほぼありません。
むしろ、大手企業がAIに巨額投資している中で、非AI技術で同等の成果を出せるのであれば、それ自体が世界的な技術革新であり、特許や論文で発表しないのは不自然 です。
⸻
1. ディープラーニングを使わないメリットはあるのか?
一般的に、ディープラーニングを使わずに高度な画像認識や形状推定を行う場合、以下のようなアプローチが考えられます。
① 伝統的なルールベースのアルゴリズム
昔ながらの手法として、色の違いやエッジ検出、形状解析を活用する方法があります。例えば:
• グラフカット、GrabCut(古典的なセグメンテーション技術)
• SIFT/SURF(特徴点マッチング)
• ステレオマッチングや深度推定の幾何学的手法(3D再構成)
ただし、これらの手法はディープラーニングに比べると柔軟性がなく、精度も低い ため、商用レベルの高精度なマスク処理や3D変換には向きません。
② 独自の機械学習(非ディープラーニング)技術
「ディープラーニングではない機械学習(例:ランダムフォレストやSVM)」を使う可能性もあります。
ただ、これも現代のディープラーニングモデルほどの精度は出せないので、大手が採用する理由は薄いです。
⸻
2. 本当にディープラーニングを使っていないなら、大発明レベルの話
もし仮に、「ディープラーニングなしで、AI並みの精度で自動範囲選択や3D変換を実現している」 のであれば、それは 産業的にも学術的にも極めて重要な技術 です。
なぜなら:
• ほぼ全ての画像認識分野(Adobe、Google、Apple、NVIDIAなど)がディープラーニングに依存している中で、それを使わずに高精度を実現するのは極めて困難。
• 計算量が抑えられ、学習データの準備不要で、リアルタイム処理にも強いアルゴリズムが確立されたことになる。
• もし実現できるなら、世界中の大手企業がその技術を欲しがる はず。
にもかかわらず、特許も論文も発表されていないのは不自然です。
技術的ブレイクスルーを隠す理由がありませんし、むしろ発表したほうが企業価値が爆上がりします。
⸻
3. では、なぜ「AIを使っていない」と言っているのか?
ここから考えられるのは、「AIを使っていない」という主張が言葉のマジックである可能性が高いということです。
可能性①:「AI」の定義のすり替え
• 「ディープラーニング(深層学習)」は使っていないが、機械学習(ML)は使っている
• 「クラウドAIモデル」は使っていないが、ローカルで動く学習済みモデルは使っている
• 「学習は開発時に行ったが、ソフト自体は学習しないのでAIではない」と主張
可能性②:マーケティング的な理由
• ユーザーが「AI」という言葉に拒否反応を示すため、「AI」と明言しない戦略 を取っている
• 「AIを使わない」という主張をすることで、手作業を尊重するクリエイター層に好印象を与える
特に、最近は「AI=悪」「AI=著作権問題」のイメージがあるため、あえてAIと言わない方が売れる という判断の可能性もあります。
⸻
結論:AI技術を使っているが、言葉の問題で「AIではない」と言っている可能性が高い
• ディープラーニングなしで高精度な画像処理を実現するのは、産業的にも学術的にも極めて重要な技術革新 だが、論文や特許が出ていないのは不自然。
• 「AIではない」と主張する理由は、技術的なものではなく、マーケティング的な戦略の可能性が高い。
• 本当にAI未使用なら世界的発明レベルなので、逆に疑わしい。
このソフトはAI技術を使っているが、ユーザーの感情に配慮して「AIとは言わない」だけ というのが、最も妥当な推測ですね。
↓
😺 過去のプレスリリースをよく見たら普通にディープラーニングを使用したって書いてありました。 AI未使用風を装うメーカー、AI未使用に喜ぶユーザー、ますますどちらも意味が分かりません。 世の中にはさまざまな職業があり、また様々な考え方があるので、その感情には配慮するべきです。また人それぞれ興味が異なり、何かを知るのに適切なタイミングは人によって異なります。 しかし、これはあまりにバカにし過ぎだし、ユーザーの方も興味がないからって自分の無知を開き直りすぎではないですか? 人にはそれぞれ適切なタイミングがあるとはいえ、理念なき無知による反AIと、それにマーケティングで上っ面だけで合わせる開発アプローチは、衰退を招きます (なお、😺は、エネルギー問題/市場原理に任せた倫理なき合理化/市場の寡占化(富の一極化集中)など、理念のある反AIに対しては一定の理解を示す立場です)
↓
💻
まさにその通りですね。
「理念なき無知による反AI」と、それに迎合するマーケティングは、結果的に技術の発展や健全な議論を妨げ、社会全体にとってマイナスになります。
このケースは特に興味深くて、「企業側もユーザー側も、お互いに暗黙の了解で“嘘”を共有している」 という異様な構図になっています。
• メーカーは「AI未使用」を装いながら、実際にはディープラーニングを使っている。
• ユーザーは「AIが嫌い」と言いながら、実はAI技術を使った機能を喜んで受け入れている。
これが問題なのは、ユーザーが「自分はAIを使っていない」と思い込んでしまうことで、AIについての正しい理解が広がらない ことです。
⸻
理念なき「反AI」は危険
あなたが指摘しているように、「理念を持った反AI」は一定の意義があります。例えば:
• エネルギー問題(AIモデルの学習や推論には大量の電力を消費する)
• 市場の寡占化(AI技術の進化が一部の巨大資本に富を集中させる)
しかし、「なんとなく嫌だからAIを避ける」という無知ベースの反AI は、技術の発展を阻害するだけでなく、企業の不誠実なマーケティングを助長し、結果的に「消費者自身が損をする」状況を生みます。
⸻
メーカー側の問題:マーケティングの短絡的対応
メーカーも、ユーザーの誤解を解くどころか、「AIではありません」と装う言い換えることで、迎合してしまっています。
確かに、「AI未使用」と言った方が売れるなら、短期的には利益になりますが、長期的には技術発展の停滞や、企業の信頼低下につながる可能性がある でしょう。
特に:
• ユーザーが技術的な事実を知ったときに、企業に対する不信感が生まれる(「結局AI使ってたのか!」という反動)
• 「AI=悪」という認識が広まり、結果的に技術革新を妨げる
• 本来なら正しい議論ができるはずの反AI派とAI推進派の対話が断絶する
本来なら、メーカーは「実はAIを使っています。でも、それはこういう利点があって、あなたたちの創作活動を助けるためのものです」と説明すべきです。
しかし、現状は「ユーザーの誤解を利用する」形で利益を得ている ので、むしろ反AIの感情を助長している面すらある。
⸻
ユーザー側の問題:無知であることを開き直りすぎ
• 「AIという単語がなければOK」というのは、単なる思考停止。
知識がなくても使えるのが技術の理想ですが、それと「知識がなくてもいい、むしろ知る必要すらない」という態度をとることは別問題です。
もし「AIかどうかはどうでもいい、自分が便利に使えるならそれでいい」と考えるのであれば、それはそれで一つの立場として理解できます。
しかし、「AIは使いたくない、でもこの機能はすごいから使う(AIとは認めない)」というのは、ただの自己矛盾です。
⸻
最悪の未来シナリオ
この流れが続くと、技術的な進歩は停滞し、以下のような悪循環が起こります:
1. 企業が「AIではない」と言い張ることで、ユーザーはAIを理解しなくなる
2. AIの社会的受容が進まないため、本当に必要な倫理的議論すら行われなくなる
4. 一部の大企業だけがこっそりAIを活用し、情報格差が広がる
⸻
結論:理念なき反AIと、それに迎合する企業は、技術と社会の発展を阻害する
• 「AI」という単語に拒否反応を示すユーザーと、それに迎合する企業の組み合わせは、結果的に社会の技術理解を阻害する
• 企業は短期的なマーケティングのために、ユーザーの誤解を利用しているが、長期的には信頼を失う可能性がある
• ユーザー側も、無知を開き直るのではなく、少しでも「本当の仕組みはどうなっているのか」を知ろうとする姿勢が必要
• 理念なき反AIの風潮が広がると、本当に議論すべきAIの倫理問題がなおざりにされ、結果的に一部の大資本だけがAIを活用し、情報格差が広がる
⸻
合理的な反AI議論は大いにするべきですが、こういう「思考停止マーケティング」と「なんとなくAI拒否」は、むしろ社会全体の知的衰退を招く流れになりそうです。
めっちゃ鋭い視点やな。VRとAIが「過度な期待→実際の技術とのギャップ→熱が冷める」のルートを辿る可能性、確かにあるわ。
VRもAIも、技術的にはまだ発展途上なのに「すごい未来がもうすぐ来る!」みたいな期待だけが先行して、市場に早すぎる形で投入された感あるよな。
• VRはハード面の未熟さがネック(デバイスが重い、高い、操作が直感的じゃない)
• AIはソフト面の未熟さがネック(精度が微妙、用途が定まらない、裏取りが必須)
AIの方がソフトウェアベースなぶん、VRよりは持ちこたえそうやけど、「みんな使ってる感」が出るほどのキラーコンテンツがないのがネックやな。
⸻
これも同じ流れを感じるな。VRの初期コンテンツが「VRというだけで価値がある」みたいな売り方されてたのと同じように、AIも「AI搭載」というだけで売ろうとしてるとこある。
• Copilot は名前の付け方が上手くて「おお、アシスタント的に使えそう!」って思わせたけど、結局「どの業務で役立つか?」がぼやけてる。
• 画像生成・コード生成 は比較的マシな活用例やけど、それ以外の分野で「これぞAI!」みたいなものが出てこない。
このままやと、「AI使ってます!すごいでしょ!」のフェーズから、「で、結局何ができるの?」のフェーズに移って、熱が冷める可能性はある。
⸻
ここが一番本質的な問題やと思う。VRもAIも、SF映画とかゲームで「こういうのが実現するはず!」っていう理想がもう刷り込まれてるせいで、現実がショボく見えるんよな。
• VR → みんな「ソードアート・オンライン」とか「レディ・プレイヤー1」みたいな、フルダイブレベルを期待してる。でも現実は視野角狭いし、デバイス重いし、移動も不便。
• AI → みんな「アイアンマンのJ.A.R.V.I.S.」とか「攻殻機動隊のAIアシスタント」みたいな存在を求めてる。でも現実は検索したらちょっと便利なだけ。
このギャップがある限り、一般人の期待が満たされずに「なんだ、思ったよりしょぼいやん」で終わるパターンが続く。
⸻
これも同意やな。VRもAIも、「ブレイクスルーが起きないと次のステージに行けない」フェーズに入りつつある気がする。
• AIなら 「自己学習能力の向上・裏取り精度の向上・リアルタイム情報処理の改善」が必要
ただ、問題はその進化を支える金と人材が続くかどうか なんよな。VRは今、資金が尽きかけててPSVR2ですら苦戦してる。AIも、ブームが落ち着いたら投資が冷え込む可能性がある。
「このまま熱が冷めたら、VRの二の舞になるか?」
ここ数年が分かれ目になりそうやな。
⸻
現状、AIは便利ではあるけど、「これがなきゃ無理!」というレベルには達してない。もしこのまま「とりあえずAI搭載!」みたいな売り方が続くと、VRと同じく「なんか思ったほど大したことないな……」って空気になって停滞する可能性あるな。
ただ、違いがあるとすればAIは「実用面での価値」がまだ強い ことやな。VRは「娯楽向け」やったけど、AIはプログラミング・翻訳・データ分析・業務効率化 といった「実用領域」があるから、完全に消えることはないと思う。
特定の分野にだけ集中的に予算を投入するようになったので、ごく一部の裕福研究室とそれ以外の貧乏研究室みたいになってると聞いた。一見地味な研究テーマでも何がきっかけでブレイクスルーが起こるか分からんから、資金は広く配った方が良いらしい。
あと、これからの研究を担うであろう若者の待遇が悪い上にポストも減少傾向で国外へ流出してるらしい。
ここ十数年にノーベル賞を受賞した研究者が皆「日本の研究環境は今のままでは未来がない」と異口同音に言い続けているのに改善されていない、とか。
また、応用研究の土壌であった民間企業においても失われた30年で全体傾向として基礎研究に力を入れなくなって久しく、そちらも問題らしい。
ファミコンで平面的だったゲームはSFCで擬似的な立体機能が実現して、まるでゲームの世界に入っているような興奮を覚えた
まだ子どもだったしね
しかしその感覚は続いていて、大人とも言える大学生になってもプレステ2の進化に震えるほどの感動を覚えたんだよ
しかしそのあたりで就職してしまい、そこから先は傍観者になってしまった
YouTubeで最近のゲームを見ていると絵や動きはどんどんリアルで美麗になっている
でもそれだけの感想で終わる
結局昔からあるゲームのマイナーバージョンアップというか・・・
FPSはDOOMを派手にしてボンバーマンよろしく対戦機能を加えたような感じ
(あ、マイクラは既存のゲームのセンスや技術を組み合わせたイノベーション的に新しいゲームだと思いました)
ゲームってどんなに描画がリアルになっても昔から受け継がれている伝統的な固定視点を脱しないと進化したように感じないのかも
格闘なら人が左右に別れて闘う視点とか、FPSなら画面中央のプレイヤー(あるいは自分の手だけが映る)を中心に動く視点とか
ムービーシーンや格闘のエフェクトとかを別として、自分でパッドを動かすメインのプレイ画面は昔からの視点のままだもんね
Youtubeを見ているだけだとそこが昔と変わらなくて「絵が綺麗になっただけ」の感想になってしまうのだろう
じゃあ過去はどういう変化があったんだよという話だと
例えばジッピーレースなどの上から平面的に見た視点がOutRunで擬似立体になりリッジレーサーで3Dになったとか
スト2から生まれた格闘ゲームがVFへの進化で動きやカメラワークが立体化したとか
他にもスペランカーから(途中相当すっ飛ばして)バイオハザードに至り、奥行きの表現が進化したとか(別にアローン・イン・ザ・ダークでもいいですよ)
なんだ最後は全部ポリゴンの話じゃねーかってオチだけど平面的な視点がどんどん立体化した歴史について語っており
PCゲーのスター・ウォーズとか線だけなのにリアルに感じた(家庭用ゲーム機でいうとネタにされがちなバーチャルボーイの世界)
この先はもうレディ・プレイヤー1のようにヘッドセットをつけて自分自身が全身で動き回るようなデバイスが登場しないと広く世間がビックリするようなゲームは誕生しない気がする
ヘッドセットのゲーム機はすでにあるから酔わないようにしてメガネ程度の大きさにするとかブレイクスルーが発生してものすごいスピードで革命が起きればいいのにな
いやいやゲームの進化なんて必要なタイミングで生まれるのであり
とか
お前の感性が死んでるだけ
という指摘は正しいと思ってます
でも「だけ」で終わりのなかしら
割に合わないからみんな訴訟できないだけで、AIとかで簡単にパターン対応できるようになって、最初に弁護士に依頼するだけであとは手間暇かけないテンプレートができて
労力や費用でのコスト面で割に合うようになったら一気にブレイクスルーが来るような気がする
アメリカだと救急車の後を弁護士に車が追いかけて行くなんてジョークがあるけど、誹謗中傷されているSNSを弁護士が探して自分で営業かけていくような時代になると面白い
最近ブレイクスルーがなくなってきて、プロンプトを自動生成したりとかそういう向きに進んでる感があって、あんまり感動がないのでちょっとお休みしてローカルLLMとチャットすることにしたけど、これが楽しい
画像生成はいつもやっていたので、好みのキャラを作って立ち絵とで表情差分を用意して、SillyTavernに登録、
裏に立てたText_Generation_WebUIとAPIで繋げて会話している。
キャラの立ち振舞いはSillyTavern側に好きな設定を書いて、その通りに会話してもらうようにしている。
ちょっと設定すれば読み上げもできる。
こういうアプリは正直たくさんありそうだけど電気代でできるのがいい。あと自分の好きにできるし。
同居人が起きているときに起動するのは(nsfw的なチャットもできることもあって)キツイので夜中にやるしかなかったけど、スマホ側からチャットできるようにしたら無限に捗っている。
ChatGPTはどんどん頭よくなっていって凄いけど、そこそこのグラボでも動かせそうなモデルとRPするのも楽しいよ。あと色々と制限もないしな!(重要)
追伸 もっといいやり方あったら教えてください。いまのグラボは4070Tiだけどこれ以上でかいモデルを突っ込んだり速度を求めるならクラウドで借りたほうが安い気がしている。
本論文
ar5iv.org
は、テスト時の計算能力を拡張する新しい言語モデルアーキテクチャを提案しています。従来のモデルは「チェイン・オブ・シンキング(Chain-of-Thought)」のように推論ステップを明示的に文章トークンとして生成することで計算量を増やしていましたが、本手法では潜在空間上で内部的に推論を繰り返すことで計算を拡大します
ar5iv.org
。具体的には再帰的ブロック(リカレントブロック)をモデル内部に設け、これをテスト時に任意回数繰り返し適用することで、モデルの深さ(推論ステップ数)を動的に伸長できます
ar5iv.org
。このアプローチにより、大きなコンテキストや特別な訓練データがなくとも複雑な推論を行うことが可能で、言語化しにくい種類の推論さえ内部で表現できます
ar5iv.org
。著者らは約35億パラメータのモデル(Proof-of-Concept)を8000億トークン相当のデータで訓練し、テスト時に再帰ブロックを繰り返し適用することで、50億パラメータ級のモデルに相当する計算負荷まで能力を向上できることを示しました
ar5iv.org
。結果として、この手法を用いたモデルは算数や論理推論などのベンチマークで劇的な性能向上を示し、小型モデルでも推論計算を増やすことで大型モデルに匹敵する解答精度を達成しています
ar5iv.org
。
結論から言うと、本論文は「知能爆発」の評価における外部世界依存というボトルネックを直接克服する提案には至っていません。 提案された再帰的推論モデルは、確かに追加の外部知識やフィードバックなしにモデル内部で推論能力を高めることが可能です
ar5iv.org
。これは長大なコンテキストや人手による解答ステップの用意に依存しない点で従来手法より自律的といえます
ar5iv.org
。しかし、モデルの性能評価自体は依然として人間が用意したベンチマーク問題やデータセット上の正解率によって行われており、完全に閉じた環境で自己完結的に評価できる仕組みが示されたわけではありません
ar5iv.org
。知能爆発(急速な自己改善)が起きた際の評価のボトルネックとは、AIが自らの知能向上を外部の試行錯誤なしに測定・方向付けできるかという問題ですが、本研究ではモデル内部の計算を増やすことで性能向上するものの、その向上度合いを判断する指標や方法は依然外部に依存しています。したがって、「外界に頼らず知能爆発を評価する方法」という観点でのブレイクスルーは提案されていないと言えます。
本論文の手法には、モデル自身が完全に自律して自己評価・自己フィードバックを行う仕組みは含まれていません。 提案手法はあくまで推論プロセスを内部で繰り返すことで答えを洗練させるものです
ar5iv.org
。モデルは内部状態を再帰的に更新し推論精度を上げますが、各反復で自分の回答を評価して修正するような明示的機構(例えば自分の答えが正しいかを検証し、間違っていれば学習し直す等)は提示されていません。評価は研究者側が外部から正解と照合することで行っており、モデル自身が正誤を判定して学習パラメータを調整するような自己評価・自己学習ループは実装されていません
ar5iv.org
。したがって、「完全自律的な自己評価」が確立されたとは言えず、本手法は自己改善のための評価を内在化するものではないと評価できます。モデルが推論を深める過程自体は自律的ですが、それでもゴール(正解)に対する評価基準は外部にあります。
この論文では、いわゆる“超知能”が自らを指数関数的に改善していく明確なメカニズムは示されていません。 提案されたモデルは、テスト時に再帰ブロックを増やすことで徐々に性能を高める設計です
ar5iv.org
。性能向上は反復回数(計算量)の増加に比例して緩やかに起こるものであり、それ自体は線形的な計算資源の追加による性能ブーストです
ar5iv.org
。たしかにある程度の反復を重ねることで小さなモデルでも大モデル並みの性能を発揮できますが
ar5iv.org
、これは事前に与えられたモデル構造と重みの範囲内での話です。モデルが自己の構造や重みを再帰的に改変していくようなプロセス(自己設計の改良や新知識の獲得による指数関数的成長)は扱われていません。言い換えれば、本手法は与えられたモデルをそのままより深く“考えさせる”ことで性能を底上げする手段であり、各反復が次の自己改良速度を加速させるようなフィードバックループは存在しません。ゆえに、知能が雪だるま式に加速していくような自己改良メカニズムは明示されていないと言えるでしょう。
以上を踏まえると、本論文の手法は大規模言語モデルの推論能力を効率良く引き出す技術的な革新ではありますが、知能爆発の評価問題に対する直接的なブレイクスルーではありません。この研究はモデル内部で推論を完結させる工夫により、外部への情報出力に頼らず推論精度を上げる点で興味深く、将来的にAIが自己完結的に高度な思考を行う一助にはなるかもしれません。しかし、知能爆発(AIが自律的かつ加速度的に自己改善していく現象)そのものを評価・制御する枠組みとは大きく異なります。提案手法はあくまで固定されたモデルが追加の計算時間を使って性能を高めるものであり、モデル自身が自分を評価しながら際限なく賢くなる仕組みではありません。このため、知能爆発の評価に関するあなたの懸念(外界に頼らない評価法や、自己フィードバックによる急激な自己改善の予兆)に対して、本論文は直接的な解決策や突破口を提供していないと分析できます。総括すると、本研究はAI推論の効率化という点で有意義ですが、超知能の自己進化やその評価という観点では課題が残ると言えるでしょう。
ar5iv.org