技術/学術メモ

スポンサーリンク
技術/学術メモ

マルチタスク学習解説メモ

マルチタスク学習解説メモ /*! * * Twitter Bootstrap * */ /*! * Bootstrap v3.3.6 ( * Copyright 2011-2015 Twitter, Inc. * Licensed unde...
技術/学術メモ

【PyTorch完全版】機械学習のタスクと対応する損失関数一覧

以下は、機械学習における代表的なタスクと、それに対応する深層学習モデルの損失関数、およびそれを実装するためのPyTorchのメソッドの一覧です。 PyTorchによる実装の参考になれば幸いです。 回帰タスク¶ 1. 平均二乗誤差 (Mean...
技術/学術メモ

SHAP値の解説メモ

SHapley Additive exPlanations(SHAP)とは?¶ SHapley Additive exPlanations(SHAP)は、機械学習モデルの予測を個々の特徴量がどれだけ影響したかを定量化し、説明するための手法で...
技術/学術メモ

KL情報量の解説

KL情報量(Kullback-Leibler Divergence)とは?¶ KL情報量(Kullback-Leibler divergence、KL divergence)は、2つの確率分布間の「差異」や「情報の損失」を測る指標です。具体...
技術/学術メモ

TukeyのHSD検定

TukeyのHSD検定とは?¶ TukeyのHSD(Honestly Significant Difference)検定は、複数の平均値を比較する際に用いる事後検定の一つで、各グループ間のペアごとの比較に対して、すべてのペアを同時に検定しな...
技術/学術メモ

Holm法

Holm法とは?¶ Holm法(Holm-Bonferroni法)は、複数の仮説検定を行う際に、第1種の過誤率(誤って有意と判断する確率)を制御するための多重比較補正手法の一つです。 これは、より一般的で保守的なBonferroni法を改良...
技術/学術メモ

Mann–WhitneyU検定の解説メモ

Mann–Whitney U検定とは?¶ Mann–Whitney U検定は、2つの独立したグループ間のデータの分布が異なるかどうかを判断するための統計的手法です。 これは、母集団が正規分布に従わない場合にも使えるノンパラメトリック検定の一...
技術/学術メモ

Kruskal-Wallis検定の解説メモ

Kruskal-Wallis検定とは?¶ Kruskal-Wallis検定は、3つ以上の独立したグループ間のデータの分布が異なるかどうかを調べるためのノンパラメトリック検定です。 これは、データが正規分布していない場合や分散が等しくない場合...
技術/学術メモ

Bonferroni補正の解説メモ

Bonferroni補正とは?¶ Bonferroni補正(ボンフェローニ補正)は、複数の統計的検定を行う際に、第1種の誤り(偽陽性、つまり「差がないのに差があると判断する誤り」)のリスクを抑えるために使用される補正方法です。 特に、多重比...
スポンサーリンク