偏りと分散やバイアス-バリアンスのトレードオフ(かたよりとぶんさんのトレードオフ、英: bias–variance tradeoff)とは、統計学と機械学習において、パラメータの推定においてバイアス(偏り)を減らすと標本間のバリアンス(分散)が増え、同時にその逆も成立する、という予測モデルの特徴のことである。 バイアス-バリアンスのジレンマ(bias–variance dilemma)やバイアス-バリアンスの問題(bias–variance problem)とは、誤差の原因であるバイアスとバリアンスの両方を同時に減らそうとする際の対立の事であり、教師あり学習のアルゴリズムが訓練データの内容を超えて汎化する際の課題となる。 バイアス(偏り)学習アルゴリズムにおいて、誤差のうち、モデルの仮定の誤りに由来する分。バイアスが大きすぎることは、入力と出力の関係を適切に捉えられていないことを意味し、過少適合している。バリアンス(分散)誤差のうち、訓練データの揺らぎから生じる分。バリアンスが大きすぎることは、本来の出力ではなく、訓練データのランダムなノイズを学習していることを意味し、過剰適合している。 バイアス-バリアンス分解(bias–variance decomposition)とは、汎化誤差の期待値をバイアス+バリアンス+ノイズの3つの和に分解することである。

Property Value
dbo:abstract
  • 偏りと分散やバイアス-バリアンスのトレードオフ(かたよりとぶんさんのトレードオフ、英: bias–variance tradeoff)とは、統計学と機械学習において、パラメータの推定においてバイアス(偏り)を減らすと標本間のバリアンス(分散)が増え、同時にその逆も成立する、という予測モデルの特徴のことである。 バイアス-バリアンスのジレンマ(bias–variance dilemma)やバイアス-バリアンスの問題(bias–variance problem)とは、誤差の原因であるバイアスとバリアンスの両方を同時に減らそうとする際の対立の事であり、教師あり学習のアルゴリズムが訓練データの内容を超えて汎化する際の課題となる。 バイアス(偏り)学習アルゴリズムにおいて、誤差のうち、モデルの仮定の誤りに由来する分。バイアスが大きすぎることは、入力と出力の関係を適切に捉えられていないことを意味し、過少適合している。バリアンス(分散)誤差のうち、訓練データの揺らぎから生じる分。バリアンスが大きすぎることは、本来の出力ではなく、訓練データのランダムなノイズを学習していることを意味し、過剰適合している。 バイアス-バリアンス分解(bias–variance decomposition)とは、汎化誤差の期待値をバイアス+バリアンス+ノイズの3つの和に分解することである。 バイアス-バリアンスのトレードオフは、全ての教師あり学習で生じる。人間の学習において、人間がヒューリスティクスを使用することの有効性の説明にも使用されている。 (ja)
  • 偏りと分散やバイアス-バリアンスのトレードオフ(かたよりとぶんさんのトレードオフ、英: bias–variance tradeoff)とは、統計学と機械学習において、パラメータの推定においてバイアス(偏り)を減らすと標本間のバリアンス(分散)が増え、同時にその逆も成立する、という予測モデルの特徴のことである。 バイアス-バリアンスのジレンマ(bias–variance dilemma)やバイアス-バリアンスの問題(bias–variance problem)とは、誤差の原因であるバイアスとバリアンスの両方を同時に減らそうとする際の対立の事であり、教師あり学習のアルゴリズムが訓練データの内容を超えて汎化する際の課題となる。 バイアス(偏り)学習アルゴリズムにおいて、誤差のうち、モデルの仮定の誤りに由来する分。バイアスが大きすぎることは、入力と出力の関係を適切に捉えられていないことを意味し、過少適合している。バリアンス(分散)誤差のうち、訓練データの揺らぎから生じる分。バリアンスが大きすぎることは、本来の出力ではなく、訓練データのランダムなノイズを学習していることを意味し、過剰適合している。 バイアス-バリアンス分解(bias–variance decomposition)とは、汎化誤差の期待値をバイアス+バリアンス+ノイズの3つの和に分解することである。 バイアス-バリアンスのトレードオフは、全ての教師あり学習で生じる。人間の学習において、人間がヒューリスティクスを使用することの有効性の説明にも使用されている。 (ja)
dbo:wikiPageID
  • 3981847 (xsd:integer)
dbo:wikiPageLength
  • 8042 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 90774210 (xsd:integer)
dbo:wikiPageWikiLink
prop-en:wikiPageUsesTemplate
dct:subject
rdfs:comment
  • 偏りと分散やバイアス-バリアンスのトレードオフ(かたよりとぶんさんのトレードオフ、英: bias–variance tradeoff)とは、統計学と機械学習において、パラメータの推定においてバイアス(偏り)を減らすと標本間のバリアンス(分散)が増え、同時にその逆も成立する、という予測モデルの特徴のことである。 バイアス-バリアンスのジレンマ(bias–variance dilemma)やバイアス-バリアンスの問題(bias–variance problem)とは、誤差の原因であるバイアスとバリアンスの両方を同時に減らそうとする際の対立の事であり、教師あり学習のアルゴリズムが訓練データの内容を超えて汎化する際の課題となる。 バイアス(偏り)学習アルゴリズムにおいて、誤差のうち、モデルの仮定の誤りに由来する分。バイアスが大きすぎることは、入力と出力の関係を適切に捉えられていないことを意味し、過少適合している。バリアンス(分散)誤差のうち、訓練データの揺らぎから生じる分。バリアンスが大きすぎることは、本来の出力ではなく、訓練データのランダムなノイズを学習していることを意味し、過剰適合している。 バイアス-バリアンス分解(bias–variance decomposition)とは、汎化誤差の期待値をバイアス+バリアンス+ノイズの3つの和に分解することである。 (ja)
  • 偏りと分散やバイアス-バリアンスのトレードオフ(かたよりとぶんさんのトレードオフ、英: bias–variance tradeoff)とは、統計学と機械学習において、パラメータの推定においてバイアス(偏り)を減らすと標本間のバリアンス(分散)が増え、同時にその逆も成立する、という予測モデルの特徴のことである。 バイアス-バリアンスのジレンマ(bias–variance dilemma)やバイアス-バリアンスの問題(bias–variance problem)とは、誤差の原因であるバイアスとバリアンスの両方を同時に減らそうとする際の対立の事であり、教師あり学習のアルゴリズムが訓練データの内容を超えて汎化する際の課題となる。 バイアス(偏り)学習アルゴリズムにおいて、誤差のうち、モデルの仮定の誤りに由来する分。バイアスが大きすぎることは、入力と出力の関係を適切に捉えられていないことを意味し、過少適合している。バリアンス(分散)誤差のうち、訓練データの揺らぎから生じる分。バリアンスが大きすぎることは、本来の出力ではなく、訓練データのランダムなノイズを学習していることを意味し、過剰適合している。 バイアス-バリアンス分解(bias–variance decomposition)とは、汎化誤差の期待値をバイアス+バリアンス+ノイズの3つの和に分解することである。 (ja)
rdfs:label
  • 偏りと分散 (ja)
  • 偏りと分散 (ja)
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is dbo:wikiPageWikiLink of
is owl:sameAs of
is foaf:primaryTopic of