生成AIを活用して作成したE資格対策の問題集です。
生成AIで作成している以上、間違いがある可能性があるので、解答に違和感があったら別のテキストなどできちんと確認するようにしてください。
もし、もっと別の問題集も欲しいという方がいたら、コメントか何かで教えてください。
別の単元の問題集を作るとしたら、こんな感じになります。

当然ですが、こちらの問題集を使用されたことによるいかなる結果にも責任は持てませんので、ご了承ください。

E資格対策問題集:順伝播型ネットワーク
問題1
順伝播型ネットワークにおいて、入力層、隠れ層、出力層のニューロン数をそれぞれ4, 5, 3とする。入力層から隠れ層への重み行列の形状はどれか?
- (A) (4, 5)
- (B) (5, 4)
- (C) (4, 3)
- (D) (3, 5)
解答
解答(A) 解説: 入力層のニューロン数が行数、隠れ層のニューロン数が列数となるため、(4, 5)が正しい形状です。
問題2
シグモイド関数の出力範囲はどれか?
- (A) (-∞, ∞)
- (B) [0, ∞)
- (C) (-1, 1)
- (D) (0, 1)
解答
解答: (D) 解説: シグモイド関数は、入力を0から1の範囲に変換する関数です。
問題3
ReLU関数の特徴として正しいものはどれか?
- (A) 負の入力に対して常に0を出力する
- (B) 負の入力に対しても小さな値を出力する
- (C) 入力が何であっても常に1を出力する
- (D) 滑らかなS字型の曲線を描く
解答
解答: (A) 解説: ReLU関数は、負の入力に対しては0、正の入力に対してはそのままの値を出力する関数です。
問題4
出力層で恒等関数が用いられるニューラルネットワークの用途として最も適切なものはどれか?
- (A) 二値分類
- (B) 多クラス分類
- (C) 回帰
- (D) クラスタリング
解答
解答: (C) 解説: 恒等関数は入力をそのまま出力するため、数値の予測を行う回帰問題に適しています。
問題5
出力層でソフトマックス関数が用いられるニューラルネットワークの用途として最も適切なものはどれか?
- (A) 二値分類
- (B) 多クラス分類
- (C) 回帰
- (D) 次元削減
解答
解答: (B) 解説: ソフトマックス関数は、各クラスの確率を出力するため、多クラス分類に適しています。
問題6
バイナリクロスエントロピー誤差が損失関数として用いられるニューラルネットワークの用途として最も適切なものはどれか?
- (A) 二値分類
- (B) 多クラス分類
- (C) 回帰
- (D) 教師なし学習
解答
解答: (A) 解説: バイナリクロスエントロピー誤差は、二値分類問題における確率的な誤差を測るために用いられます。
問題7
平均二乗誤差(MSE)が損失関数として用いられるニューラルネットワークの用途として最も適切なものはどれか?
- (A) 二値分類
- (B) 多クラス分類
- (C) 回帰
- (D) 強化学習
解答
解答: (C) 解説: 平均二乗誤差(MSE)は、予測値と実測値の差の二乗の平均を計算するため、回帰問題に適しています。
問題8
多層パーセプトロン(MLP)において、隠れ層の数を増やすことの一般的な効果として正しいものはどれか?
- (A) 学習時間が短縮される
- (B) 表現力が向上する
- (C) 過学習のリスクが低減される
- (D) 必要なパラメータ数が減少する
解答
解答: (B) 解説: 隠れ層の数を増やすことで、モデルの表現力が向上し、より複雑な関数を近似できるようになりますが、過学習のリスクも高まります。
問題9
ミニバッチサイズ32で学習を行う際、1エポックでの重み更新回数が50回であった。訓練データの総サンプル数は何個か?
- (A) 1,600
- (B) 1,500
- (C) 1,800
- (D) 2,000
解答
解答: (A) 解説: 1エポックでの重み更新回数(50)にミニバッチサイズ(32)を掛けることで、訓練データの総サンプル数を求めることができます。50 × 32 = 1,600
問題10
活性化関数を使用する主な目的は何か?
- (A) ネットワークの計算速度を向上させる
- (B) ネットワークに非線形性を導入する
- (C) ネットワークのパラメータ数を削減する
- (D) ネットワークの出力を正規化する
解答
解答: (B) 解説: 活性化関数は、ニューラルネットワークに非線形性を導入し、複雑な関数を表現できるようにするために用いられます。
問題11
勾配消失問題について正しい説明はどれか?
- (A) 活性化関数の出力が大きくなりすぎること
- (B) 学習率が大きすぎること
- (C) 誤差逆伝播の際に勾配が非常に小さくなること
- (D) 局所最適解に陥りやすくなること
解答
解答: (C) 解説: 勾配消失問題とは、誤差逆伝播法において、層を遡るにつれて勾配が急激に小さくなり、学習が進まなくなる問題です。
問題12
ReLU関数がシグモイド関数と比較して優れている点は何か?
- (A) 勾配消失問題を起こしやすい
- (B) 計算負荷が高い
- (C) 勾配消失問題を起こしにくい
- (D) 出力が常に正の値になる
解答
解答: (C) 解説: ReLU関数は、シグモイド関数に比べて勾配消失問題を起こしにくく、学習が効率的に進むという利点があります。
問題13
tanh関数と比較して、Leaky ReLU関数が優れている点は何か?
- (A) 計算が容易である
- (B) 負の入力に対してもわずかな勾配を持つため、勾配消失問題を軽減できる
- (C) 出力が常に-1から1の範囲に収まる
- (D) 生物学的なニューロンの挙動により近い
解答
解答: (B) 解説: Leaky ReLU関数は、負の入力に対してもわずかな勾配を持つため、勾配消失問題を軽減し、学習が停滞しにくくなるという利点があります。
問題14
次のうち、出力層の活性化関数として不適切なものはどれか?
- (A) シグモイド関数
- (B) ソフトマックス関数
- (C) 恒等関数
- (D) ReLU関数
解答
解答: (D) 解説: ReLU関数は通常、隠れ層で用いられ、出力層ではタスクに応じて適切な関数(シグモイド、ソフトマックス、恒等関数など)が選択されます。
問題15
多クラス分類問題において、出力層のニューロン数はどのように決定されるか?
- (A) 入力データの次元数と同じ
- (B) 隠れ層のニューロン数と同じ
- (C) クラス数と同じ
- (D) 任意に設定できる
解答
解答: (C) 解説: 多クラス分類問題では、出力層のニューロン数はクラス数と一致させ、各ニューロンがそれぞれのクラスに対応する確率を出力するようにします。
問題16
出力層のニューロン数が1で、シグモイド関数が活性化関数として使用されている場合、どのような問題に適しているか?
- (A) 回帰
- (B) 多クラス分類
- (C) 二値分類
- (D) 次元削減
解答
解答: (C) 解説: 出力層のニューロン数が1でシグモイド関数が使われている場合、出力は0から1の範囲の値を取り、二値分類問題における確率を表すのに適しています。
問題17
順伝播型ネットワークにおいて、各層の重みはどのように初期化するのが一般的か?
- (A) 全て0で初期化する
- (B) 全て1で初期化する
- (C) ランダムな値で初期化する
- (D) 前の層の出力値で初期化する
解答
解答: (C) 解説: 重みを全て同じ値で初期化すると、対称性が発生して学習がうまく進まないため、通常はランダムな値で初期化します。
問題18
ニューラルネットワークの学習における「エポック」とは何か?
- (A) 1つのデータサンプルに対する順伝播と逆伝播の1回の処理
- (B) 全てのデータサンプルに対する順伝播と逆伝播の1回の処理
- (C) ネットワークの重みを更新する回数
- (D) ネットワークの層の数
解答
解答: (B) 解説: 「エポック」とは、学習データセット全体を1回通過させることを指します。
問題19
次のうち、GELUの特徴として正しいものはどれか?
- (A) 負の入力に対して常に0を出力する
- (B) シグモイド関数とReLU関数を組み合わせたような形状をしている
- (C) 計算コストが非常に高い
- (D) 出力は常に正の値になる
解答
解答: (B) 解説: GELU(Gaussian Error Linear Unit)は、シグモイド関数とReLU関数を組み合わせたような滑らかな形状をしており、近年のTransformerモデルなどでよく使われる活性化関数です。
問題20
マルチラベル分類問題に適した出力層の活性化関数は何か?
- (A) ソフトマックス関数
- (B) シグモイド関数
- (C) tanh関数
- (D) 恒等関数
解答
解答: (B) 解説: マルチラベル分類では、複数のラベルを同時に予測するため、各ラベルに独立した確率を割り当てるシグモイド関数が適しています。
問題21
順序回帰問題に適した出力層の活性化関数は何か?
- (A) ソフトマックス関数
- (B) シグモイド関数
- (C) 恒等関数
- (D) 累積リンク関数など
解答
解答: (D) 解説: 順序回帰は、順序のあるカテゴリカル変数を予測するタスクです。出力層には累積リンク関数など、順序関係を考慮した活性化関数が用いられます。
問題22
多層パーセプトロン(MLP)の隠れ層におけるバイアスの役割は何か?
- (A) 各ニューロンの活性化のしきい値を調整する
- (B) 入力データのスケールを調整する
- (C) 過学習を防ぐ
- (D) 勾配消失問題を解決する
解答
解答: (A) 解説: バイアスは各ニューロンの活性化のしきい値を調整し、モデルの表現力を高める役割を果たします。
問題23
2層のニューラルネットワーク(入力層を除く)において、入力層のニューロン数が4、隠れ層のニューロン数が5、出力層のニューロン数が1の場合、パラメータの総数はいくつか?(バイアス項も含む)
- (A) 20
- (B) 25
- (C) 26
- (D) 31
解答
解答: (D) 解説: 入力層→隠れ層の重み: 4 * 5 = 20 隠れ層のバイアス: 5 隠れ層→出力層の重み: 5 * 1 = 5 出力層のバイアス: 1 合計: 20 + 5 + 5 + 1 = 31
問題24
シグモイド関数の導関数の最大値はいくつか?
- (A) 0
- (B) 0.25
- (C) 0.5
- (D) 1
解答
解答: (B) 解説: シグモイド関数の導関数は σ(x)(1-σ(x)) で表され、x=0のときに最大値0.25をとります。
問題25
入力が4次元ベクトル、出力が3次元ベクトルで、隠れ層を持たないニューラルネットワークを考える。出力層の活性化関数が恒等関数である場合、このネットワークは何を学習していると解釈できるか?
- (A) 入力ベクトルの分類
- (B) 入力ベクトルから出力ベクトルへの線形変換
- (C) 入力ベクトルのクラスタリング
- (D) 入力ベクトルの次元削減
解答
解答: (B) 解説: 隠れ層がなく、出力層の活性化関数が恒等関数の場合、このネットワークは入力ベクトルから出力ベクトルへの線形変換(行列による変換)を学習していると解釈できます。
問題26
あるニューラルネットワークの出力層にソフトマックス関数が用いられている。出力層のニューロン数が3で、それぞれの出力が[0.2, 0.3, 0.5]であった場合、この出力が表すものは何か?
- (A) 各クラスのスコア
- (B) 各クラスの確率
- (C) 各クラスの誤差
- (D) 各クラスの特徴量
解答
解答: (B) 解説: ソフトマックス関数は、各クラスに属する確率を出力します。この場合、3つのクラスに対する確率がそれぞれ0.2, 0.3, 0.5であることを表しています。
問題27
ReLU関数の導関数として正しいものはどれか?
- (A) 入力が負のとき0、正のとき1
- (B) 入力が負のとき1、正のとき0
- (C) 入力が負のとき-1、正のとき1
- (D) 入力に関わらず常に1
解答
解答: (A) 解説: ReLU関数の導関数は、入力が負のとき0、正のとき1となります(ただし、x=0では微分不可能)。
問題28
出力層にシグモイド関数を用いたニューラルネットワークで、出力値が0.8であった場合、この出力値の解釈として最も適切なものはどれか?
- (A) クラス1に属する確率が0.8
- (B) クラス2に属する確率が0.8
- (C) 予測値が0.8
- (D) 誤差が0.8
解答
解答: (A) 解説: 出力層にシグモイド関数を用いた場合、出力値は二値分類におけるクラス1に属する確率を表します(通常、閾値を0.5として、それより大きければクラス1、小さければクラス0と判定します)。
問題29
順伝播型ネットワークにおいて、層の数を増やすことのデメリットとして考えられるものはどれか?
- (A) 表現力が低下する
- (B) 学習時間が短くなる
- (C) 勾配消失問題や過学習のリスクが高まる
- (D) 局所最適解に陥りにくくなる
解答
解答: (C) 解説: 層の数を増やすと表現力は向上しますが、勾配消失問題や過学習のリスクが高まるというデメリットがあります。
問題30
次のうち、ニューラルネットワークの隠れ層の活性化関数として最も一般的に使用されているものはどれか?
- (A) ステップ関数
- (B) 恒等関数
- (C) ReLU関数
- (D) サイン関数
解答
解答: (C) 解説: ReLU関数は、勾配消失問題を起こしにくく、計算効率も良いため、隠れ層の活性化関数として広く用いられています。
コメント