はてなキーワード: アルトマンとは
とりあえず「サム・アルトマンがヒントンの教え子」というとんでもない認識違いは改めてくれ
http://finalvent.cocolog-nifty.com/fareastblog/2024/10/post-21c158.html
OpenAI創業メンバーのサツケヴァーがヒントンの教え子で、AI悪用を懸念したうえで、
アルトマン追い出し計画を褒めた(具体的にサツケヴァーの名前は出さなかったが)というのがインタビューの内容
I'm particularly proud of the fact that one of my students fired Sam Altman.
https://youtu.be/H7DgMFqrON0?t=212
はてブやってないしSNSアカウントも持ってないから、誰か本人に伝えておいてくれ
(それにしてもブクバカ誰も指摘しないんだな...)
Geminiのグダグダを見てたからってのもあるんだろうが、ライブデモや、恣意的にピックしてるとはいえネットから要望拾ってライブデモに組み込むとか、「ベストケースの動画切り貼りとは違うよ」というのをキチンと示してた。
初めからフリーユーザーにもばら撒くってのは競争の激化を肌で感じていることの表れだろうが、有償ユーザーのわかりやすいメリットが一つ減るのはどの程度将来の業績に影響するのか興味深い。
新しいモデルだから色々試してもらってフィードバックを沢山得ることを優先してるのかな?
アルトマン解任騒動の要因にもなった「商業主義に依りすぎ」の揺り戻しも多少あるのかな?
今回のライブデモの内容は、マルチモーダルの総合的な完成度って意味ではGPT-4oの表層をなでただけみたいな感じだから実力はこれからいろんな人が試して確認していくことになるんだろうから現時点での評価は難しい。
ただ、プレゼンは上手かった。
フィナンシャル・タイムズの2024年予想(Courrier Japonより)
月に2件しか読めないケチの無料会員なので、ここにメモしておこうw
【20240718追 記】 半 年くらいたったので、ここで中 間答え合わせしてみるかな...
今んとこ15勝5敗かー、まずまずの勝 率w
法哲学の議論を参照して「愛らしいから」=「他とは区別される特定の属性を持っているから寄付する」という考えが正義にもとることは肯定しつつ,寄付するべきではないという考えを批判してみる.
まず,正義は「等しきものを等しく扱う」ことが本質だとしばしば定義される.
かわいそうなポメラニアンと,かわいそうな黒い大型犬はどちらも「かわいそうな犬」という属性で等しく,両者に対して異なる扱いをすることは正義にもとる行為にあたる.
他方,慈悲,あるいは愛は,「等しきものを等しく扱わない」.
個体の属性ではなく,今まさに存在する「この個体」を救うことに関心があるからだ.
「かわいそうな犬」だからではなく,「この」かわいそうなポメラニアンだからこそ人は憐憫を垂れる.
法哲学者の井上達夫の言葉を借りれば,「愛の本質である個体性への関心と配慮が正義の普遍主義的要請と対立する」(井上達夫. (1986). 共生の作法: 会話としての正義. 創文社. 117.).←たしか近年新版がでている.
では我々は,正義にもとるということを理由に,特定の属性を持つ人々のために自発的に寄附を行うべきではないのだろうか.
何が「等しい」のかを民主的手続きに基づいて決定し,一応の正義を認めることができる主体である民主主義国家による再分配に我々の持つ金銭というリソースは委ねられるべきなのだろうか.
そうではない.
なぜならば,民主主義国家によって達成される正義は手続的正義にすぎないからである.
「正しい手続きを踏んだから,かわいそうなポメラニアンを救済することにし,黒い大型犬は放置することにした」.
これは本当に正義だろうか.
何が正義なのか,何が「等しい」のか,やはりその実体に踏み込んで考える必要がある.
この実質的正義と寄附を考える上で注目すべきが,この十年で存在感を増している「効果的利他主義」である.
昨今のオープンAIのアルトマン解任騒動で目にしたことがある諸兄もいるかもしれない.
効果的利他主義とは,簡単に言ってしまえば「社会全体にとって最も費用対効果の高い良いことをすべき」という考え方である.
ここでの費用には,金銭だけではなく,自分の時間・労働も入る.
かわいそうだから,というある種偶然に基づいて他者のためのリソース投下をするのではなく,コスパという等しい基準を置いてあらゆる利他的活動を比較評価し,最もコスパが良いものに投資する.
この比較には,「リソース投下に対する社会的インパクトを定量化できる」のが大前提になっている.
社会科学の素養がある人間ならばすぐに気がつくように,あらゆるものを同じ基準で定量化することは不可能である.
例えば,生命という多くの人が合意するであろう基準に関しても,単に生きていれば良いのか,健康寿命なのか,QOLによって測り方が変わる.
定量化の前提は,効果的利他主義の限界の一つとして指摘できるだろう.
効果的利他主義において,個体性への関心はどのように扱われているだろうか.
便益を最大化することにこだわることは,特定の目標との個人的な結びつきを否定することになる.例えば,「家族ががんでなくなったからがんの撲滅に情熱を注ぐ」という行動は否定されるべきなのかという批判に対しては,次のように反論している.
たまたまの理由だけで一部の人々のニーズを優先していることになり,もっと効果的に手を差し伸べられる人々に対して不公平である,と.(ウィリアム, M.. (千葉敏生訳). (2018). 「効果的な利他主義」宣言! : 慈善活動への科学的アプローチ. みすず書房. 42-43.)
そろそろ疲れてきてしまったのでまとめよう.
特定の属性を持つという偶然を理由として寄附をすることは正義にもとる一方で,民主主義国家を通した再配分には手続き的正義に留まるという限界がある.
実質的正義を追求するには,効果的利他主義のような一定の基準を持った上で,最終的には自分なりの正義を追求して寄附を行うべきなんじゃないだろうか.
なお,筆者自身は効果的利他主義者ではなく,単におもしろい考えの一つとして注目しているに過ぎないという点を申し添えておく.
サム・アルトマン氏の突然の解任理由は、当事者からはしばらく明かされないことははっきりした。
https://www.theverge.com/2023/11/29/23982046/sam-altman-interview-openai-ceo-rehired このインタビューにおいて、サムアルトマン氏の解任理由を明かさないという姿勢は明確である。
ではなぜ、解任の理由を明かさないか、という理由をまず考えたい。
まず一般論として、何か物事・事件が起こった場合、それをどこまで公表するかは、関係者の中で一番権力がある人が決める。
ある会社内で重大な事件が起こったら、通常はその会社の社長が公表する内容を確認して決めるようなもの。
今回の関係者の中で一番権力を持っているのはマイクロソフトである。なぜならOpenAIの開発資金を提供し、かつ開発基盤のシステムまで提供しているから。
表題の一番の理由はこれである。つまり関係者の中で一番権力のあるマイクロソフトが、サム・アルトマン氏の本当の解任理由の公表は都合が悪いため、公表を止めていると自分は考えている。
ではなぜマイクロソフトにとって、解任理由の公表は都合が悪いか?
Microsoftが、来年リリースされると噂されているGPT-5が使えなくなる可能性がある為、というのが自分の考えである。
なぜ使えなくなる可能性があるかというと、GPT-5が、世間にAGIとみなされる可能性がある為。
OpenAI社のWikipediaによると「汎用人工知能が完成した際は、それを営利法人や他社にライセンス提供はしない規約となっていて、汎用人工知能実現前の人工知能のみを営利法人に提供することとなっている」、つまり、現状の規約だと、GPT-5がAGIを達成している場合、Microsoftは使用できない。
MicrosoftがGPT-5やそれ以降のGPTを使えなくなれば、Googleなどの競合他社にその内負けるのは明らかである。
ではなぜ、解任理由の公表をすると、GPT-5が使えなくなるのだろうか?
なぜなら解任のきちんと理由を説明する際に、GPT-5がAGI(もしくはそれに近い状態)であることを説明しなければいけない為である。
一部報道(リーク)では、OpenAI社のAIは、人類を脅かす可能性があるほどに賢くなっている。
※ OpenAI researchers warned board of AI breakthrough ahead of CEO ouster, sources say
※ 記事中のAI Breakthroughである Q*(Q star) を独自の解釈で解説している動画の一つ https://www.youtube.com/watch?v=3d0kk88IE8c
かつサム・アルトマン氏は、このリークを否定せず、肯定に近い発言をした。
https://www.theverge.com/2023/11/29/23982046/sam-altman-interview-openai-ceo-rehired
「No particular comment on that unfortunate leak」(「不運なリークに関してコメントはありません」)。
もし間違いであれば、間違いであるというコメントをするはずである。
かつ最近、サム・アルトマン氏は、来年発表されるモデルはどうなるかと質問された時、以下のような発言をしている。
https://www.youtube.com/watch?v=ZFFvqRemDv8 50分40秒頃より
"The model capability will have taken such a leap forward that no one expected.”
「モデルの能力は、誰も予想しなかったほどの飛躍を遂げるだろう」
この文章における「モデル」とは、GPT-5と考えてよいだろう。
つまり、GPT-5はAGIにかなり近いか、AGIを達成できている可能性がある。
これ以降は全くの想像になるが、恐らくサム・アルトマン氏は、そのAGIに近いGPT-5を、Microsoftに提供しようとしたのではないか。
また取締役会は、その為にサム・アルトマン氏を解任したのではないか。
営利企業にAGIを渡したら、まずそれを使ってどうお金儲けをするかを第一に考えるだろう。
よって、Microsoftへの提供の前に、GPT-5の性能や危険性などについて、厳密な検証をしなければいけない。
その辺に関して、取締役会とサム・アルトマン氏とで、解釈・考え方にずれがあったのではないか。
上にも書いている通り、AGIを達成しているのなら、営利企業であるMicrosoftに渡すのは規約違反である。
ただ仮にGPT-5をMicrosoftに提供しなかったら、資金の提供が途絶える可能性は高い。つまりOpenAI社はこれ以上研究開発ができなくなる。
よって、サム・アルトマン氏は取締役会に対し、GPT-5はAGIを達成していないと主張したか曖昧にした上で、MicrosoftへGPT-5を提供しようとしたのではないか。
またもしそれを止めないとしたら、それは確かに取締役会の役割(安全で全人類に利益をもたらすAGIの構築)を果たせないことになる。
この辺を詳細に公表してしまうと、つまりGPT-5=AGIという見方が世間で強まる可能性がある。
仮にそうなれば、OpenAI社は、MicrosoftにGPT-5を提供できなくなるだろう。
そのことはOpenAI社も困るが、一番困るのは上で説明した通り恐らくMicrosoftである。
恐らくGPT-5はAGIを達成していないことにして、時間を稼いでいる内に、AGIをMicrosoftに提供できるような体制にするのではないか。
尚、Microsoftの社長は、AGIが早期に達成する可能性を否定している。
https://jp.reuters.com/economy/industry/ZPLE2C2BPNKVZJ2PIBPOFWDK6Y-2023-11-30/