前回までで説明した効果量について,実際にRで計算してみましょう.使用するのは{compute.es}パッケージです.基本は実験系の研究分野でメタ分析を実施する際に使われるパッケージだそうです.パッケージマニュアルはこちらにあるので,詳細はこちらを見てください. 適用可能な検定の種類 対象となる検定と,効果量を算出するメソッドを以下にまとめました.いろいろ種類がありますね.たとえば2*2のクロス表におけるカイ二乗検定は,chiesを使えば効果量が算出できます.またt検定における平均値の差は,mesを使って同様に効果を算出することができます. 検定 効果量を算出するメソッド ANCOVA F-test a.fes() ANCOVA means a.mes() ANCOVA means (pooled sd) a.mes2() ANCOVA p-value a.pes() ANCOVA t-te
仕事でぱぱっと平均値の差の検定のコードを書かないといけなくて,そういやRでどう書くんだっけとか思って若干調べたので,スニペットがわりにまとめておくことにします. 今回は,サンプルデータとして有名なirisを使います.irisのデータは以下の構成です. 変数名 概要 Sepal.Length センチメートル単位のがく片の長さ Sepal.Width がく片の幅 Petal.Length 花弁の長さ Petal.Width 花弁の幅 Species 品種(iris, setosa, versicolor, virginicaの4種類) チェック項目 基本は以下の3項目をチェック 比較したいのが2群か,3群以上か 対応がある*1か 等分散仮定が成り立つか 2群 対応がある この場合は,対応するサンプル同士の変数の差から,平均と分散を求めることができるので,等分散性の検定を行う必要はありません.単
確率分布 Navi 星の数ほどある確率分布から、あなたの目的にピッタリの分布がきっと見つかる! (データの特徴から最適な分布を見つける⇒確率分布の世界) が付いている分布は NtRand3 に乱数生成関数を始めとした関連関数が用意されています。その他の分布も、NtRand3 の関数を使って乱数を生成する方法を解説しています。
[This post was originally published in March 2007] Earlier today I posted a poll [and I republished that poll yesterday] challenging Cognitive Daily readers to show me that they understand error bars -- those little I-shaped indicators of statistical power you sometimes see on graphs. I was quite confident that they wouldn't succeed. Why was I so sure? Because in 2005, a team led by Sarah Belia co
研究者の多くはエラーバーの意味をろくに理解していない 今日、私は認知科学日記の読者がエラーバーをどれだけ理解しているかを問うオンライン投票を開始した――エラーバーとはよくグラフに乗っている、あの小さなI字型の、統計学の賜物である。正しく理解していないだろうということは、大体予想済みである。なぜそんなに自信があるかって? それは2005年、サラ・ベリア(Sarah Belia)らのチームが、最前線の心理学、神経科学、医学ジャーナルに論文を掲載したことがある数百人の研究者を対象に行った研究成果があるからである。彼らのうちエラーバーと有意さの関係について正しい知識を示したのはほんの一握りであった。論文を掲載した研究者たちができないなら、どうしてカジュアルなブログの読者ができることを前提としてよいだろうか? 信頼区間 まずそもそも、問題の解決法を知るため、少々の説明が必要である。信頼区間というコン
はじめてきた方はサイト案内やサイトマップをご覧ください。 管理人Twitter始めました。一部のコードはGitHubで管理するようにしました。 プライバシーポリシーはこちらです。 ★2022年度の統計学の講義資料はこちらから閲覧できます。 ●書籍情報:Pythonではじめる時系列分析入門 書籍のサポートページはこちらです(サンプルコードやデータもこちらです)。 ●書籍情報:Pythonで学ぶあたらしい統計学の教科書 [第2版] 書籍のサポートページはこちらです(サンプルコードやデータもこちらです)。 ●書籍情報:意思決定分析と予測の活用 基礎理論からPython実装まで 書籍のサポートページはこちらです(サンプルコードやデータもこちらです)。 ●書籍情報:R言語ではじめるプログラミングとデータ分析 書籍のサポートページはこちらです(サンプルコードやデータもこちらです)。 ●書籍情報:RとS
RjpWiki はオープンソースの統計解析システム R に関する情報交換を目的とした Wiki ですR は豊富な代表的古典的検定関数(パラメトリック、ノンパラメトリック検定)を持つ。 注意:帰無分布(帰無仮説の下での検定統計量の分布)に付いては、正確な分布を用いるものと、近似分布を 用いるものがある。両者がオプションで選べるものもあれば、近似分布しか使えないものもある。 R の検定関数は検定の副産物として、関連パラメータの信頼区間を同時に計算するようになっている。 注意:統計量の帰無仮説の下での分布を漸近近似で求めるものが多数を占める。こうした場合一般論として データの数がある程度大きいことが前提条件になる。特にヘルプドキュメントに注意が無いことが多いが、実際は 近似が不十分と思われる場合は警告が出る関数がある。 ノンパラメトリック検定関数 † ノンパラメトリック検定とは、通常母集団分布に
「実験医学」に2014年2月から開始した連載「統計の落とし穴と蜘蛛の糸(三中信宏)」が単行本化いたします.人間が進化の過程で得てきた「認知的性向」は統計学の本質ともいえるものです.単なる計算方法や理論ではなく,「ものの考え方」としての統計的思考について,分野の歴史から,科学哲学の視点も含めつつご紹介いただきます.実験医学online上では引き続き第1回をご覧いただけますのでぜひご一読ください.(編集部) 私の職務上の表看板は「生物統計学」です.農林水産省系の独立行政法人農業環境技術研究所を本務地とし,兼任している東京大学農学部にも研究室をもっています.そういうポジションにいれば,ごく日常的に,農学系あるいは生物科学系の研究員や学部生・大学院生に統計学を教える機会が多くなり,また統計分析に関する質問を受けるコンサルタント業務も年々増えてきました.仕事や研究を進めるうえで統計分析とかデータ解析
講義のーと の内容を詳しく説明したものです 著者: 久保拓弥 出版社: 岩波書店, シリーズ「確率と情報の科学」 編集: 甘利俊一,麻生英樹,伊庭幸人 このペイジの省略 URL: http://goo.gl/Ufq2 刊行と まちがい・修正一覧) 第 1 刷刊行: 2012 年 5 月 18 日 第 15 刷刊行: 2018 年 3 月 15 日 原稿時点の PDF ファイル (参考用) 目次, さくいん, まえがき 韓国語版 (翻訳は滋賀大の李鍾賛さん, 2017-09-15) 「統計モデリング入門」ネット上のあれこれ (のごく一部) 丸善・ジュンク堂書店の「今年驚いた! 1 冊」の「驚きの出版賞」 に選ばれました! (web archive, KuboLog 2012-12-20) Amazon カスタマーレビュー はてな出版物 -- 言及ブログへのリンクなどがあります! ブクログ,
普段は自作の統計プログラムHADを使って分析していますが,人にいろいろ教えるときにはRも使っている清水です。 さて,今回はRで重回帰分析で交互作用を検討する方法について解説します。 昔,Rで重回帰分析で交互作用を検討するためのコードをアップしていたのですが,最近はもっと便利にできるパッケージがあるようです。というか僕が知らなかっただけか・・・ これについては,DARMという広大の院生・ポスドクが中心となってやっている勉強会のページで知りました(ここ)。まぁネタぱくってる,っていう話なんですけど(笑)。ぜひDARMのページも見てやってください。 ここでは,次のようなサンプルデータを使います。20しか見えませんが,200人のデータです。サンプルデータはこちらからダウンロードできます。 これを”dat”に読み込みます。 dat <- read.csv("sampledata.csv") まずは2
導入pdf 情報の変換過程のモデル化 ベイズ統計の意義 識別モデルと生成モデル 最尤推定、MAP推定 データの性質 情報理論の諸概念 (KL-divergenceなど) 距離あるいは類似度 数学のおさらいpdf 行列の微分 線形代数学の役立つ公式 多次元正規分布 条件付き正規分布 Bayes推論pdf Bayseによる確率分布推定の考え方 多項分布、ディリクレ分布 事前分布としてのディリクレ分布の意味<\li> 正規分布と事後分布 指数型分布族 自然共役事前分布の最尤推定 線形回帰および識別pdf 線形回帰のモデル 正則化項の導入 L2正則化 L1正則化 正則化項のBayes的解釈 線形識別 2乗誤差最小化の線形識別の問題点 生成モデルを利用した識別 学習データと予測性能pdf 過学習 損失関数と Bias,Variance, Noise K-Nearest Neighbor法への応用 b
The four datasets composing Anscombe's quartet. All four sets have identical statistical parameters, but the graphs show them to be considerably different Anscombe's quartet comprises four datasets that have nearly identical simple descriptive statistics, yet have very different distributions and appear very different when graphed. Each dataset consists of eleven (x, y) points. They were construct
久しぶりにブログ記事を書いてみる.リハビリがてらに軽いノリの記事を. 機械学習の勉強を始めてロジスティック回帰あたりに来ると出てくるカルバック・ライブラーダイバージェンス (以下KLd) .機械学習以外の文脈でも分布同士を比較する場合にまっさきに出てくる.僕は輪講などでKLdが出てくるたびに 「ふぅん,ここでカルバック・ライブラーダイバージェンスを使うんだぁ・・・」 とか言って通ぶっていたけれど,実は空で式を書けなかった.実に痛い子である.だって覚えづらい.とにかく覚えづらい. だっけ? だっけ? Q/P とか P/Q とかせっかく分子分母の順番を覚えても先頭にマイナスつけると分子分母が入れ替わるからまた性質が悪い. というわけで「じゃあちょっと書いてみて」と先生に当てられた際に,黒板に向かってスラスラと書くための覚え方を紹介してみる. さて,KLdといえば (非対称な) 分布の類似度であ
註:心理データ解析演習(2001-)の発表資料の一部を分析法別に整理したものです.番号は古い順です. 戻る 心理データ解析演習のページへ 2013.8.3 Kusumi
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く