分散分析(ぶんさんぶんせき、英: analysis of variance、略称: ANOVA)は、観測データにおける変動を誤差変動と各要因およびそれらの交互作用による変動に分解することによって、要因および交互作用の効果を判定する、統計的仮説検定の一手法である。 分散分析の最も単純な形は,2つ以上の標本の母集団が等しいかどうかを判断するt-検定であり、分散分析ではこれを一般化したものである。 統計学者で遺伝学者のロナルド・フィッシャーによって1920年代から1930年代にかけて基本手法が確立された。そのため「フィッシャーの分散分析」「フィッシャーのANOVA法」とも呼ばれる。 基本的な手法として、まず、データの分散成分の平方和を分解し、誤差による変動から要因効果による変動を分離する。次に、平方和を自由度で割ることで平均平方を算出する。そして、要因効果(または、交互作用)によって説明される平均平方を分子、誤差によって説明される平均平方を分母とすることでF値を計算する(F検定)。各効果の有意性については有意水準を設けて判定する。 分散方法は、実験データの分析やモデルの開発によく用いられる。相関関係と比べると、数値変数でない変数を扱えるなどの利点がある。

Property Value
dbo:abstract
  • 分散分析(ぶんさんぶんせき、英: analysis of variance、略称: ANOVA)は、観測データにおける変動を誤差変動と各要因およびそれらの交互作用による変動に分解することによって、要因および交互作用の効果を判定する、統計的仮説検定の一手法である。 分散分析の最も単純な形は,2つ以上の標本の母集団が等しいかどうかを判断するt-検定であり、分散分析ではこれを一般化したものである。 統計学者で遺伝学者のロナルド・フィッシャーによって1920年代から1930年代にかけて基本手法が確立された。そのため「フィッシャーの分散分析」「フィッシャーのANOVA法」とも呼ばれる。 基本的な手法として、まず、データの分散成分の平方和を分解し、誤差による変動から要因効果による変動を分離する。次に、平方和を自由度で割ることで平均平方を算出する。そして、要因効果(または、交互作用)によって説明される平均平方を分子、誤差によって説明される平均平方を分母とすることでF値を計算する(F検定)。各効果の有意性については有意水準を設けて判定する。 交互作用の性質を詳しく調べるには、単純主効果の検定や交互作用対比を行うとよい。また、3つ以上の水準を持つ要因の効果が有意であったとき、具体的にどの群とどの群の間に差があったかを知るためには、多重比較を行う必要がある。したがって、分析の目的によっては、分散分析のみから結論が導かれるものではなく、これらの手法と組み合わせて用いることが肝要である。 分散分析には各種のモデルがあり、データの性質や要因計画の型、検証したい仮説に応じてそれらを使い分けることが適切な利用法である(一元配置分散分析・回帰分散分析・共分散分析など)。現在では、分散分析は一般線形モデル、構造方程式モデリングの一部として扱えることが判明しており、さらなる拡張も可能である(潜在変数に対する分散分析など)。 分散方法は、実験データの分析やモデルの開発によく用いられる。相関関係と比べると、数値変数でない変数を扱えるなどの利点がある。 (ja)
  • 分散分析(ぶんさんぶんせき、英: analysis of variance、略称: ANOVA)は、観測データにおける変動を誤差変動と各要因およびそれらの交互作用による変動に分解することによって、要因および交互作用の効果を判定する、統計的仮説検定の一手法である。 分散分析の最も単純な形は,2つ以上の標本の母集団が等しいかどうかを判断するt-検定であり、分散分析ではこれを一般化したものである。 統計学者で遺伝学者のロナルド・フィッシャーによって1920年代から1930年代にかけて基本手法が確立された。そのため「フィッシャーの分散分析」「フィッシャーのANOVA法」とも呼ばれる。 基本的な手法として、まず、データの分散成分の平方和を分解し、誤差による変動から要因効果による変動を分離する。次に、平方和を自由度で割ることで平均平方を算出する。そして、要因効果(または、交互作用)によって説明される平均平方を分子、誤差によって説明される平均平方を分母とすることでF値を計算する(F検定)。各効果の有意性については有意水準を設けて判定する。 交互作用の性質を詳しく調べるには、単純主効果の検定や交互作用対比を行うとよい。また、3つ以上の水準を持つ要因の効果が有意であったとき、具体的にどの群とどの群の間に差があったかを知るためには、多重比較を行う必要がある。したがって、分析の目的によっては、分散分析のみから結論が導かれるものではなく、これらの手法と組み合わせて用いることが肝要である。 分散分析には各種のモデルがあり、データの性質や要因計画の型、検証したい仮説に応じてそれらを使い分けることが適切な利用法である(一元配置分散分析・回帰分散分析・共分散分析など)。現在では、分散分析は一般線形モデル、構造方程式モデリングの一部として扱えることが判明しており、さらなる拡張も可能である(潜在変数に対する分散分析など)。 分散方法は、実験データの分析やモデルの開発によく用いられる。相関関係と比べると、数値変数でない変数を扱えるなどの利点がある。 (ja)
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 477480 (xsd:integer)
dbo:wikiPageLength
  • 6021 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 92325487 (xsd:integer)
dbo:wikiPageWikiLink
prop-ja:wikiPageUsesTemplate
dct:subject
rdfs:comment
  • 分散分析(ぶんさんぶんせき、英: analysis of variance、略称: ANOVA)は、観測データにおける変動を誤差変動と各要因およびそれらの交互作用による変動に分解することによって、要因および交互作用の効果を判定する、統計的仮説検定の一手法である。 分散分析の最も単純な形は,2つ以上の標本の母集団が等しいかどうかを判断するt-検定であり、分散分析ではこれを一般化したものである。 統計学者で遺伝学者のロナルド・フィッシャーによって1920年代から1930年代にかけて基本手法が確立された。そのため「フィッシャーの分散分析」「フィッシャーのANOVA法」とも呼ばれる。 基本的な手法として、まず、データの分散成分の平方和を分解し、誤差による変動から要因効果による変動を分離する。次に、平方和を自由度で割ることで平均平方を算出する。そして、要因効果(または、交互作用)によって説明される平均平方を分子、誤差によって説明される平均平方を分母とすることでF値を計算する(F検定)。各効果の有意性については有意水準を設けて判定する。 分散方法は、実験データの分析やモデルの開発によく用いられる。相関関係と比べると、数値変数でない変数を扱えるなどの利点がある。 (ja)
  • 分散分析(ぶんさんぶんせき、英: analysis of variance、略称: ANOVA)は、観測データにおける変動を誤差変動と各要因およびそれらの交互作用による変動に分解することによって、要因および交互作用の効果を判定する、統計的仮説検定の一手法である。 分散分析の最も単純な形は,2つ以上の標本の母集団が等しいかどうかを判断するt-検定であり、分散分析ではこれを一般化したものである。 統計学者で遺伝学者のロナルド・フィッシャーによって1920年代から1930年代にかけて基本手法が確立された。そのため「フィッシャーの分散分析」「フィッシャーのANOVA法」とも呼ばれる。 基本的な手法として、まず、データの分散成分の平方和を分解し、誤差による変動から要因効果による変動を分離する。次に、平方和を自由度で割ることで平均平方を算出する。そして、要因効果(または、交互作用)によって説明される平均平方を分子、誤差によって説明される平均平方を分母とすることでF値を計算する(F検定)。各効果の有意性については有意水準を設けて判定する。 分散方法は、実験データの分析やモデルの開発によく用いられる。相関関係と比べると、数値変数でない変数を扱えるなどの利点がある。 (ja)
rdfs:label
  • 分散分析 (ja)
  • 分散分析 (ja)
owl:sameAs
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is dbo:mainArticleForCategory of
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is prop-ja:knownFor of
is owl:sameAs of
is foaf:primaryTopic of