E資格対策 機械学習問題集①(全50問)

生成AIを活用して作成したE資格対策の問題集です。
生成AIで作成している以上、間違いがある可能性があるので、解答に違和感があったら別のテキストなどできちんと確認するようにしてください。

E資格の勉強法についてはこちらの記事をご覧ください。

あわせて読みたい
数学ができない文系非エンジニアが3か月でE資格に合格した勉強法 はじめに 「文系で難しい数学はわからないけどE資格に合格できるかな。。。」「ビジネス職だけどE資格に合格して知識を証明したい!」 このような悩みを抱えたことはあ...


当然ですが、こちらの問題集を使用されたことによるいかなる結果にも責任は持てませんので、ご了承ください。

目次

教師あり学習 – 回帰

問題 1 次のうち、リッジ回帰の特徴について正しいものはどれですか?

  • A. 過学習を防ぐためにL1正則化を使用する
  • B. 過学習を防ぐためにL2正則化を使用する
  • C. L1正則化とL2正則化を組み合わせた手法
  • D. 過学習を防ぐための手法ではない 回答と解説
解答

正解: B リッジ回帰はL2正則化を使用して過学習を防ぎます。L1正則化を使用するラッソ回帰とは異なり、リッジ回帰は特徴量選択には用いられず、全ての特徴量を用いた回帰モデルの構築に焦点を当てています。

問題 2 次の数式は、線形回帰における決定係数 \(R^2\) を示しています。この数式の分子が表すものは何ですか?

\[R^2 = 1 – \frac{\sum_{i} (y_i – \hat{y}i)^2}{\sum{i} (y_i – \bar{y})^2} \]

  • A. 実際のデータのばらつき
  • B. モデルの予測値と平均値の差の総和
  • C. モデルの予測値と実際の値の差の二乗和
  • D. 決定係数そのもの 回答と解説
解答

正解: C 分子は、モデルの予測値と実際の値の差の二乗和(残差平方和)を表しています。これにより、予測誤差の総和を計算し、それを分母のデータのばらつき(全平方和)と比較することで、決定係数を求めています。決定係数はモデルがデータにどれだけ当てはまっているかを示す指標です。

問題 3 ラッソ回帰において、次のうち正しい特徴量選択に関する説明はどれですか?

  • A. 全ての特徴量を使うが、係数を小さくする
  • B. 特徴量のうち一部を完全に無視することができる
  • C. 特徴量全てに同じウェイトを与える
  • D. 特徴量を削減するが、全ての特徴量が残る
解答

正解: B ラッソ回帰はL1正則化を使用するため、一部の特徴量の係数が完全にゼロになり、それによって自動的に特徴量選択が行われます。これは、ラッソ回帰がスパースな解(多くの係数がゼロである解)を好む性質によるものです。

問題 4 次の数式は、線形回帰モデルの損失関数である平均二乗誤差(MSE)を表しています。この数式を最小化することで、どのようなモデルが得られますか?

$$ MSE = \frac{1}{n} \sum_{i=1}^{n} (y_i – \hat{y}_i)^2 $$

ここで、\(n\) はデータ数、\(y_i\) は \(i\) 番目のデータの真の値、\(\hat{y}_i\) は \(i\) 番目のデータの予測値です。

  • A. データの分散を最大化するモデル
  • B. データの平均と予測値の差を最大化するモデル
  • C. データの真の値と予測値の差の二乗和を最小化するモデル
  • D. データの真の値と予測値の相関を最大化するモデル
解答

正解: C 平均二乗誤差(MSE)は、真の値と予測値の差の二乗をデータ数で割ったものです。この損失関数を最小化することで、真の値と予測値の差が小さい、つまり予測精度の高いモデルが得られます。線形回帰では、このMSEを最小化するようなパラメータを求めることが目的となります。

問題 5 Elastic Net回帰で使用される正則化項に関して、正しい説明はどれですか?

  • A. L1正則化のみを使用する
  • B. L2正則化のみを使用する
  • C. L1正則化とL2正則化を組み合わせる
  • D. 正則化項は使用しない
解答

正解: C Elastic Net回帰はL1正則化とL2正則化を組み合わせた手法であり、それぞれの正則化の割合を調整することができます。これにより、ラッソ回帰とリッジ回帰の両方の利点を活かすことができ、より柔軟なモデル構築が可能になります。

問題 6 重回帰分析において、説明変数間の相関が高い場合に生じる問題はどれですか?

  • A. 決定係数が低くなる
  • B. 多重共線性
  • C. 過小適合
  • D. 自由度が減少する
解答

正解: B 重回帰分析において、説明変数間に高い相関があると、多重共線性(Multicollinearity)の問題が生じます。多重共線性が発生すると、回帰係数の推定値の分散が大きくなり、モデルの解釈が困難になります。

問題 7 次のうち、モデルの汎化性能を評価するための指標として適切なものはどれですか?

  • A. 訓練データに対する平均二乗誤差
  • B. テストデータに対する平均二乗誤差
  • C. 訓練データに対する決定係数
  • D. テストデータに対する残差の平均
解答

正解: B モデルの汎化性能を評価するためには、未知のデータ(テストデータ)に対する性能を評価する必要があります。そのため、テストデータに対する平均二乗誤差が適切な指標となります。訓練データに対する性能は、過学習の可能性を考慮すると、汎化性能の評価には適していません。

問題 8 正則化を行う主な目的は何ですか?

  • A. 訓練データへの適合度を高める
  • B. モデルの複雑さを増す
  • C. 過学習を防ぎ、汎化性能を高める
  • D. 特徴量の数を増やす
解答

正解: C 正則化は、モデルの複雑さにペナルティを課すことで、過学習を防ぎ、汎化性能を高めることを目的としています。L1正則化やL2正則化などが代表的な手法です。


教師あり学習 – 分類

問題 9 次のうち、ロジスティック回帰の説明として正しいものはどれですか?

  • A. 連続値を予測するための線形モデルである
  • B. 確率を出力する非線形モデルである
  • C. 決定木を基にしたアンサンブル学習モデルである
  • D. 教師なし学習モデルの一種である
解答

正解: B ロジスティック回帰は、シグモイド関数を用いて入力データを確率に変換する、分類のためのモデルです。出力は0から1の間の値をとり、あるクラスに属する確率を表します。線形モデルではありますが、シグモイド関数によって非線形な変換を行っています。

問題 10 次の図は、ある分類モデルの混同行列を示しています。このモデルの適合率はいくつですか?

予測: Positive予測: Negative
実際: Positive8020
実際: Negative1090
  • A. 0.8
  • B. 0.889
  • C. 0.870
  • D. 0.9
解答

正解: B 適合率(Precision)は、Positiveと予測されたもののうち、実際にPositiveであったものの割合です。計算式は以下の通りです。

Precision = TP / (TP + FP) = 80 / (80 + 10) = 80 / 90 = 0.889

ここで、TPは真陽性(True Positive)、FPは偽陽性(False Positive)を表します。

問題 11 ROC曲線について、正しい説明はどれですか?

  • A. 偽陽性率を縦軸、真陽性率を横軸にとった曲線
  • B. 真陽性率を縦軸、偽陽性率を横軸にとった曲線
  • C. 適合率を縦軸、再現率を横軸にとった曲線
  • D. 再現率を縦軸、適合率を横軸にとった曲線
解答

正解: B ROC曲線(Receiver Operating Characteristic curve)は、分類モデルの性能を評価するためのグラフであり、真陽性率(True Positive Rate, TPR)を縦軸、偽陽性率(False Positive Rate, FPR)を横軸にとった曲線です。TPRは感度や再現率とも呼ばれ、FPRは1-特異度です。

問題 12 サポートベクターマシン(SVM)における「マージン」とは何ですか?

  • A. 決定境界と最も近いデータ点との距離
  • B. サポートベクターの数
  • C. カーネル関数の種類
  • D. 誤分類されたデータ点の数
解答

正解: A SVMにおける「マージン」とは、決定境界(データを分割する超平面)と、それに最も近いデータ点(サポートベクター)との距離のことです。SVMは、このマージンを最大化するように決定境界を学習します。

問題 13 次のうち、サポートベクターマシン(SVM)の最適化において使用されるカーネル関数として存在しないものはどれですか?

  • A. 線形カーネル
  • B. 多項式カーネル
  • C. ガウシアンカーネル(RBFカーネル)
  • D. シグモイドカーネル
解答

正解: Dサポートベクターマシンでよく使われるカーネルには、線形カーネル、多項式カーネル、ガウシアンカーネル(RBFカーネル)などがありますが、シグモイドカーネルは一般的ではありません。シグモイドカーネルも存在しますが限定的です。

問題 14 次のうち、決定木の特徴として誤っているものはどれですか?

  • A. データのスケールの影響を受けにくい
  • B. 説明変数の重要度を評価できる
  • C. 過学習しやすい
  • D. 線形分離不可能なデータには適用できない
解答

正解: D 決定木は、線形分離不可能なデータにも適用できます。決定木は、データを複数の領域に分割していくことで、非線形な関係をモデル化することができます。

問題 15 ランダムフォレストについて、正しい説明はどれですか?

  • A. 1つの大きな決定木を学習する
  • B. ブースティング法を用いた決定木のアンサンブル学習
  • C. バギング法を用いた決定木のアンサンブル学習
  • D. 決定木ではなく、ニューラルネットワークを用いたアンサンブル学習
解答

正解: C ランダムフォレストは、バギング(Bootstrap Aggregating)法を用いた決定木のアンサンブル学習です。複数の決定木を並列に学習し、それらの予測結果を平均または多数決することで最終的な予測を行います。

問題 16 次の損失関数のうち、ロジスティック回帰で最も一般的に使用されるものはどれですか?

  • A. 二乗誤差損失
  • B. 交差エントロピー損失
  • C. ヒンジ損失
  • D. 0-1損失
解答

正解: B ロジスティック回帰では、交差エントロピー損失(ログ損失とも呼ばれる)が最も一般的に使用されます。この損失関数は、分類タスクにおけるモデルの性能を評価するために適しています。

問題 17 次のうち、不均衡データを扱う際に用いられる手法として適切でないものはどれですか?

  • A. アンダーサンプリング
  • B. オーバーサンプリング
  • C. SMOTE
  • D. データのスケーリング
解答

正解: D データのスケーリングは、特徴量のスケールを揃えるための前処理であり、不均衡データ対策としては適切ではありません。アンダーサンプリング、オーバーサンプリング、SMOTE(Synthetic Minority Over-sampling Technique)は、不均衡データを扱うための代表的な手法です。

問題 18 次の分類アルゴリズムのうち、確率的勾配降下法による学習が可能なものはどれですか?

  • A. 決定木
  • B. ランダムフォレスト
  • C. サポートベクターマシン
  • D. ロジスティック回帰
解答

正解: D ロジスティック回帰は、確率的勾配降下法(SGD)を用いて学習することができます。SGDは、データの一部を使ってパラメータを更新する手法であり、大規模なデータセットに対しても効率的に学習を行うことができます。


【教師なし学習 – クラスタリング】

問題 19 k-means法における「k」は何を意味しますか?

  • A. データの次元数
  • B. クラスタの数
  • C. 学習の反復回数
  • D. 最近傍点の数
解答

正解: B k-means法の「k」は、クラスタの数を表します。k-means法では、あらかじめ決められた数のクラスタにデータを分割します。

問題 20 k-means法のアルゴリズムの手順として、正しいものはどれですか?

  1. 各データ点をランダムにいずれかのクラスタに割り当てる。
  2. 各クラスタの重心を計算する。
  3. 各データ点を最も近い重心のクラスタに割り当て直す。
  4. 重心の変化が十分に小さくなるまで、2と3を繰り返す。
  • A. 1 → 2 → 3 → 4
  • B. 2 → 3 → 1 → 4
  • C. 3 → 1 → 2 → 4
  • D. 1 → 3 → 2 → 4
解答

正解: A k-means法のアルゴリズムは、以下の手順で実行されます。

  1. 各データ点をランダムにいずれかのクラスタに割り当てる。
  2. 各クラスタの重心を計算する。
  3. 各データ点を最も近い重心のクラスタに割り当て直す。
  4. 重心の変化が十分に小さくなるまで、2と3を繰り返す。

問題 21 k-means法を実行する際の初期値の設定に関して、k-means++法はどのように初期値を設定しますか?

  • A. ランダムにデータ点を選び、それらを初期の重心とする
  • B. データ点の中から、互いに離れた点を初期の重心として選択する
  • C. データの各次元ごとに平均値を計算し、それらを初期の重心とする
  • D. データをいくつかのグループに分割し、各グループの重心を初期の重心とする
解答

正解: B k-means++法は、k-means法の初期値依存性を改善するために提案された手法です。最初の重心はランダムに選びますが、2つ目以降の重心は、すでに選ばれた重心から遠いデータ点ほど高い確率で選ばれるようにします。これにより、初期の重心が互いに離れた位置に配置されやすくなり、k-means法が局所解に陥るリスクを軽減できます。


問題 22 クラスター数を事前に決めずに、データの構造に基づいて自動的にクラスタ数を決定するようなクラスタリング手法はどれですか?

  • A. k-means法
  • B. 階層的クラスタリング
  • C. DBSCAN
  • D. 自己組織化マップ
解答

正解: C DBSCAN(Density-Based Spatial Clustering of Applications with Noise)は、密度ベースのクラスタリング手法であり、クラスター数を事前に決めずに、データの密度に基づいて自動的にクラスタ数を決定します。


教師なし学習 – クラスタリング

問題 23 凝集型階層的クラスタリングにおいて、クラスタ間の距離を定義する方法として、適切でないものはどれですか?

  • A. 最短距離法
  • B. 最長距離法
  • C. 平均距離法
  • D. ユークリッド距離法
解答

正解: D ユークリッド距離法は、2つのデータ点間の距離を測る方法であり、クラスタ間の距離を定義する方法ではありません。最短距離法、最長距離法、平均距離法などは、凝集型階層的クラスタリングにおけるクラスタ間距離の定義として用いられます。

問題 24 エルボー法を用いて、k-means法の適切なクラスタ数kを推定する方法について、正しい説明はどれですか?

  • A. クラスタ内誤差平方和(WCSS)が最も小さいkを選ぶ
  • B. WCSSが最も急激に減少した後の、減少が緩やかになるkを選ぶ
  • C. WCSSが最も大きいkを選ぶ
  • D. WCSSが直線的に減少している場合は、kを最大にする
解答

正解: B エルボー法では、クラスタ数kを変化させながら、各kにおけるクラスタ内誤差平方和(Within-Cluster Sum of Squares, WCSS)をプロットします。WCSSの減少が最も急激な点を「エルボー(肘)」とみなし、その後の減少が緩やかになるkを適切なクラスタ数と推定します。

問題 25 シルエット分析について、正しい説明はどれですか?

  • A. 各データ点が、他のクラスタよりも自身のクラスタにどの程度類似しているかを評価する指標
  • B. クラスタの重心間の距離を評価する指標
  • C. クラスタ内の分散を評価する指標
  • D. クラスタの数を決定するための指標
解答

正解: A シルエット分析は、各データ点が自身のクラスタにどの程度類似しているかを、他のクラスタとの比較で評価する指標です。シルエット係数は-1から1の値をとり、1に近いほど良いクラスタリング結果であることを示します。

教師なし学習 – 次元削減

問題 26 主成分分析(PCA)の目的として、正しいものはどれですか?

  • A. データの分類
  • B. データの次元削減
  • C. データの生成
  • D. データの補完
解答

正解: B 主成分分析(PCA)は、データの分散を最大化するような新しい軸(主成分)を見つけることで、データの次元を削減する手法です。

問題 27 次のうち、PCAで次元削減を行う際に、データの分散が最大となる方向を何と呼びますか?

  • A. 固有ベクトル
  • B. 固有値
  • C. 主成分
  • D. 特異値
解答

正解: C PCAでは、データの分散が最大となる方向を主成分と呼びます。主成分は、データの共分散行列の固有ベクトルとして求められ、固有値が大きい順に、第1主成分、第2主成分、…と呼ばれます。

問題 28 次元削減を行う主な利点を、以下の中からすべて選択してください。

  • A. データの可視化が容易になる
  • B. モデルの学習時間を短縮できる
  • C. 過学習のリスクを軽減できる
  • D. 特徴量間の相関を強めることができる
解答

正解: A, B, C 次元削減の主な利点は以下の通りです。

  • A. データの可視化が容易になる: 高次元データを2次元や3次元に削減することで、人間が視覚的に理解しやすくなります。
  • B. モデルの学習時間を短縮できる: 次元数が減ることで、計算量が減り、モデルの学習時間を短縮できる可能性があります。
  • C. 過学習のリスクを軽減できる: 不要な次元を削減することで、モデルが過学習するリスクを軽減できる可能性があります。
  • D. 特徴量間の相関を強めることができる: 次元削減は、必ずしも特徴量間の相関を強めるわけではありません。むしろ、相関の強い特徴量をまとめることで、相関を弱める効果があります。

問題 29 次のうち、線形な次元削減手法はどれですか?

  • A. t-SNE
  • B. UMAP
  • C. 主成分分析(PCA)
  • D. オートエンコーダ
解答

正解: C 主成分分析(PCA)は、線形な次元削減手法です。データの共分散行列の固有ベクトルを求めることで、データを低次元空間に線形変換します。t-SNE、UMAP、オートエンコーダは、非線形な次元削減手法です。

問題 30 t-SNE(t-distributed Stochastic Neighbor Embedding)の特徴として、正しいものはどれですか?

  • A. 高速に計算できる
  • B. 大域的な構造を保持する
  • C. 局所的な構造を保持する
  • D. 線形な次元削減手法である
解答

正解: C t-SNEは、高次元空間におけるデータの局所的な構造を低次元空間で保持することに優れた非線形な次元削減手法です。大域的な構造は保持されない場合があるため、注意が必要です。また、計算コストが比較的高いという欠点があります。

問題 31 スパースなデータセットに対して最も適切な次元削減手法はどれですか?

  • A. PCA(主成分分析)
  • B. LDA(線形判別分析)
  • C. t-SNE
  • D. Truncated SVD(特異値分解)
解答

正解: D Truncated SVD(特異値分解)はスパースなデータセットに対して次元削減を行う際に有効です。PCAやLDAは特定の分散や分類を最大化する手法であり、t-SNEは非線形な次元削減のためスパースデータには適していません。

問題 32 オートエンコーダを用いて次元削減を行う利点は何ですか?

  • A. 計算量が少ない
  • B. 線形な関係しか捉えられない
  • C. 非線形な関係を捉えることができる
  • D. 教師あり学習である
解答

正解: C オートエンコーダは、ニューラルネットワークを用いてデータの非線形な関係を捉えながら次元削減を行うことができます。そのため、PCAなどの線形な次元削減手法では捉えられない複雑なデータの構造を表現することが可能です。


モデルの評価・選択

問題 33 機械学習モデルを評価する際に、ホールドアウト法を用いる目的は何ですか?

  • A. モデルの学習を高速化するため
  • B. モデルの過学習を防ぐため
  • C. モデルの汎化性能を評価するため
  • D. モデルのパラメータ数を削減するため
解答

正解: C ホールドアウト法は、データを学習用と評価用(テスト用)に分割し、学習用データで学習したモデルの性能を評価用データで評価することで、モデルの汎化性能(未知のデータに対する性能)を推定する手法です。

問題 34 交差検証(Cross-Validation)を用いる利点は何ですか?

  • A. 学習データを増やすことができる
  • B. 限られたデータで、モデルの汎化性能をより正確に評価できる
  • C. 特徴量の数を削減することができる
  • D. ハイパーパラメータの数を削減することができる
解答

正解: B 交差検証は、データを複数のフォールドに分割し、そのうちの1つを評価用、残りを学習用としてモデルの学習と評価を繰り返すことで、限られたデータでモデルの汎化性能をより正確に評価する手法です。

問題 35 機械学習モデルのハイパーパラメータを調整する方法として、適切なものはどれですか?

  • A. グリッドサーチ
  • B. ランダムサーチ
  • C. ベイズ最適化
  • D. 上記の全て 回答と解説
解答

正解: D グリッドサーチ、ランダムサーチ、ベイズ最適化などは、すべて機械学習モデルのハイパーパラメータを調整するための手法です。

問題 36 グリッドサーチとランダムサーチを比較した際、ランダムサーチの利点は何ですか?

  • A. 必ず最適なハイパーパラメータの組み合わせを見つけられる
  • B. 計算コストが低い場合がある
  • C. ハイパーパラメータの数が少ない場合に適している
  • D. ハイパーパラメータの探索範囲を限定しやすい
解答

正解: B ランダムサーチは、ハイパーパラメータの探索空間からランダムにサンプリングを行うため、特にハイパーパラメータの数が多い場合に、グリッドサーチよりも計算コストが低くなる可能性があります。

問題 37 適合率(Precision)と再現率(Recall)の関係を表す曲線は何ですか?

  • A. ROC曲線
  • B. PR曲線
  • C. リフト曲線
  • D. ローレンツ曲線
解答

正解: B 適合率(Precision)を縦軸、再現率(Recall)を横軸にとった曲線は、PR曲線(Precision-Recall Curve)と呼ばれ、特に不均衡データにおける分類モデルの性能評価に用いられます。

問題 38 F1スコアとは何ですか?

  • A. 適合率と再現率の平均
  • B. 適合率と再現率の調和平均
  • C. 適合率と再現率の積
  • D. 適合率と再現率の差
解答

正解: B F1スコアは、適合率と再現率の調和平均であり、分類モデルの性能を評価する指標の一つです。特に不均衡データにおいて、バランスの取れた評価を行う際に用いられます。

$$ F1 = \frac{2 \times Precision \times Recall}{Precision + Recall} $$

問題 39 過学習を防ぐための一般的な方法として誤っているものはどれですか?

  • A. データの分割によるクロスバリデーション
  • B. モデルの複雑さを減少させる
  • C. データの水増し(Data Augmentation)
  • D. 学習データへの適合度を最大化する
解答

正解: D 過学習を防ぐためには、学習データへの適合度を高めすぎて汎化性能が低下しないようにする対策が必要となります。そのため、学習データへの適合度を最大化することは、過学習を助長する可能性があり、誤った選択肢となります。

問題 40 次のうち、正則化の目的として正しいものはどれですか?

  • A. モデルの学習を高速化する
  • B. モデルの過学習を抑制し、汎化性能を高める
  • C. モデルのパラメータ数を増やす
  • D. モデルの解釈を容易にする
解答

正解: B 正則化は、モデルの複雑さに対してペナルティを課すことで、過学習を抑制し、汎化性能を高めることを目的としています。


最適化

問題 41 勾配降下法において、学習率が大きすぎるとどうなりますか?

  • A. 学習が収束しやすくなる
  • B. 最適解の周辺で振動したり、発散したりする
  • C. 局所解に陥りやすくなる
  • D. 学習が遅くなる
解答

正解: B 学習率が大きすぎると、パラメータの更新幅が大きくなりすぎ、最適解の周辺で振動したり、場合によっては発散したりして、収束しにくくなります。

問題 42 確率的勾配降下法(SGD)が、バッチ勾配降下法と比べて優れている点は何ですか?

  • A. 必ず最適解に収束する
  • B. 計算効率が良く、大規模なデータセットにも適用可能
  • C. 局所解に陥るリスクが高い
  • D. 学習率の設定が容易
解答

正解: B 確率的勾配降下法(SGD)は、データをランダムにサンプリングしてパラメータを更新するため、バッチ勾配降下法と比べて計算効率が良く、大規模なデータセットにも適用可能です。また、局所解に陥りにくいという利点もあります。

問題 43 モーメンタム法の特徴として、正しいものはどれですか?

  • A. 過去の勾配の情報を利用して、パラメータの更新を加速する
  • B. 学習率を自動的に調整する
  • C. 局所解に陥るリスクを完全に排除できる
  • D. 必ず最適解に収束する
解答

正解: A モーメンタム法は、過去の勾配の情報を利用して、パラメータの更新を加速する手法です。これにより、SGDに比べて収束が速くなる可能性があります。

問題 44 Adam(Adaptive Moment Estimation)の特徴として、正しいものはどれですか?

  • A. 学習率をパラメータごとに適応的に調整する
  • B. 過去の勾配の情報を利用しない
  • C. モーメンタム法の一種である
  • D. 必ず最適解に収束する
解答

正解: A Adamは、モーメンタム法とRMSPropの考え方を組み合わせた最適化手法であり、過去の勾配の指数関数的減衰平均と、過去の勾配の二乗の指数関数的減衰平均を用いて、学習率をパラメータごとに適応的に調整します。

問題 45 次のうち、探索空間の局所最適解に陥りにくい最適化手法はどれですか?

  • A. 勾配降下法
  • B. 確率的勾配降下法
  • C. シミュレーテッドアニーリング
  • D. ニュートン法
解答

正解: C シミュレーテッドアニーリングは、探索空間の局所最適解に陥るのを避けるため、温度パラメータを使用して探索を行います。 これにより、広範囲の探索が可能となり、局所最適解に陥る可能性を低くします。確率的勾配降下法もある程度は局所最適解に陥りにくいですが、シミュレーテッドアニーリングほどではありません。

問題 46 ベイズ最適化に関連する概念として正しくないものはどれですか?

  • A. 獲得関数
  • B. ガウス過程
  • C. 焼きなまし法
  • D. 探索と活用のトレードオフ
解答

正解: Cベイズ最適化では、探索と活用のトレードオフを調整するために獲得関数を使用し、ガウス過程を用いてモデル化します。焼きなまし法は、シミュレーテッドアニーリングで用いられる最適化手法であり、ベイズ最適化の直接の要素ではありません。



問題47 勾配消失問題を軽減するために、活性化関数として選ばれることが多いものはどれですか?

  • A. Sigmoid
  • B. ReLU
  • C. Softmax
  • D. Tanh
解答

正解:B ReLU 解説 ReLU (Rectified Linear Unit) は、勾配消失問題を軽減するためによく使用される活性化関数です。負の入力を0にし、正の入力をそのまま出力することで、深層ニューラルネットワークにおける勾配消失を防ぐ効果があります。

実務的なシナリオ問題

問題 48

あなたは、あるECサイトのデータサイエンティストです。ユーザーの購買履歴データを用いて、商品の推薦システムを構築することになりました。どのような手順で、推薦システムを構築しますか?適切な手順を以下から選んでください。

  1. データの前処理を行う(欠損値処理、カテゴリ変数のエンコーディングなど)
  2. 協調フィルタリングやコンテンツベースフィルタリングなどの推薦アルゴリズムを適用する
  3. ユーザーの購買履歴データを収集する
  4. オフライン評価指標(例:Precision@K, Recall@K, MAP@K)を用いてモデルを評価する
  5. A/Bテストなどを実施して、オンラインでモデルを評価する
  • A. 3 → 1 → 2 → 4 → 5
  • B. 3 → 2 → 1 → 4 → 5
  • C. 1 → 3 → 2 → 4 → 5
  • D. 3 → 1 → 2 → 5 → 4
解答

正解: A 推薦システムを構築する際には、まずデータを収集し(3)、次にデータの前処理を行い(1)、その後、推薦アルゴリズムを適用します(2)。そして、オフライン評価指標を用いてモデルを評価し(4)、最後にオンライン評価を実施します(5)。

問題 49

あなたは、製造業のデータサイエンティストです。工場のセンサーデータを用いて、製品の異常検知システムを構築することになりました。どのような手順で、異常検知システムを構築しますか?適切な手順を以下から選んでください。

  1. 正常データを用いて、正常状態のモデル(例:自己符号化器)を学習する
  2. センサーデータを収集する
  3. 異常スコア(例:再構成誤差)を定義し、閾値を設定する
  4. モデルを用いて、異常スコアを算出する
  5. 異常スコアが閾値を超えた場合に、アラートを発報する
  • A. 2 → 1 → 4 → 3 → 5
  • B. 2 → 1 → 3 → 4 → 5
  • C. 1 → 2 → 3 → 4 → 5
  • D. 2 → 3 → 1 → 4 → 5
解答

正解: B 異常検知システムを構築する際には、まずデータを収集し(2)、次に正常データを用いてモデルを学習します(1)。そして、異常スコアとその閾値を定義し(3)、モデルを用いて異常スコアを算出し(4)、最後に異常スコアが閾値を超えた場合にアラートを発報します(5)。

問題 50

あなたは、ある小売企業のデータサイエンティストです。店舗の売上データを分析し、将来の売上を予測するタスクに取り組んでいます。まず、どのような特徴量を作成しますか?適切なものを以下から選んでください。

  • A. 過去の売上データから、移動平均や前年同週比などの特徴量
  • B. 店舗の立地情報(例:駅からの距離、周辺の人口)
  • C. 天気情報(例:気温、降水量)
  • D. 上記の全て
解答

正解: D 売上予測には、過去の売上データから作成される特徴量(移動平均、前年同週比など)、店舗の立地情報、天気情報など、様々な特徴量が有効と考えられます。


よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

都内の金融機関で経営企画をしています。
2年でメガバンクを辞めてしまいましたが、むしろ人生が豊かになりました。
データアナリスト的なことをしていたのでPythonとTableauがちょっとだけ使えます。
文系大卒→メガバンク(営業)→広告系ベンチャー(経営企画、FP&A、データアナリスト)→都内金融機関(経営企画)

コメント

コメントする

目次