- 「E資格」について興味あるけど合格できるか不安・・・
- 「E資格」について試験範囲が広くどこから学んでいいか分からない?
- 「E資格」の学習の要点を分かりやすく教えて!
「E資格」とは「一般社団法人 日本ディープラーニング協会」が主催するAIエンジニア資格試験です。ディープラーニングの理論を理解し、適切な手法を選択して実装する能力や知識を有しているかを認定するものですが、興味があっても出題範囲が広く難しそうで何から学んだらよいか分からず、勉強のやる気を失うケースは非常に多いです。
私は過去に基本情報技術者試験(旧:第二種情報処理技術者試験)に合格し、また2年程前に「一般社団法人 日本ディープラーニング協会」が主催の「G検定試験」に合格しました。しかし「E資格」を受験し3回不合格になった苦い経験があります。この経験より不合格になった原因を追究し学習すべき要点を整理しました。
そこでこの記事では、「E資格」合格のために学習のポイントについて解説します。
この記事を参考に「E資格」の要点を学べば、合格できるはずです。
デジタルトランスフォーメーション(DX)とは?

デジタルトランスフォーメーション(DX:Digital Transformation)とは次のとおりです。
企業がビジネス環境の激しい変化に対応し、データとデジタル技術を活用して、顧客や社会のニーズを基に、製品やサービス、ビジネスモデルを変革するとともに、業務そのものや、組織、プロセス、企業文化・風土を変革し、競争上の優位性を確立すること
引用元:経済産業省
特に注意すべきは、企業におけるデジタルツールの導入はDXとは言えず、データ・デジタル技術は、変革のための「手段」とされています。
リスキリングとは?

リスキリング(Reskilling)の定義とは次のとおりです。
新しい職業に就くために、あるいは、今の職業で必要とされるスキルの大幅な変化に適応するために、必要なスキルを獲得する/させること
引用元:「リスキリングとはーDX時代の人材戦略と世界の潮流ー」経済産業省
特に注意すべきは単なる「学び直し」ではなく「これからも職業で価値創出し続けるために必要なスキルを学ぶ」ことが強調されます。
E資格合格のためのポイントとは?

DXを推進するためには、中核となるAI技術の活用が必要です。一方でAI技術の習得にはリスキリングが必要です。そこで、AI関連技術について下記に整理しました。各分野の詳細内容は各記事に記入しています。
| 分野 | 章 | 項目 | 学習のポイント | 詳細(下記の記事を参照) |
|---|---|---|---|---|
| 応用数学 | 1-1 | 線形代数 | ・行列 ・逆行列 | 線形代数(行列)のポイントを解説! |
| 応用数学 | 1-2 | 線形代数 | ・固有値 ・特異値 | 線形代数(行列の固有値、特異値)のポイントを解説! |
| 応用数学 | 1-3 | 統計学 | ・条件付き確率 ・尤度 ・ベイズの定理 ・マルコフ連鎖モンテカルロ法 | 統計学(条件付き確率とベイズの定理)のポイントを解説! |
| 応用数学 | 1-4 | 統計学 | ・統計学 ・分散 ・共分散 ・確率密度関数 | 統計学(期待値と標準偏差)のポイントを解説! |
| 応用数学 | 1-5 | 情報科学 | ・情報量 ・KLーダイバージェンス ・JSーダイバージェンス ・結合エントロピー ・条件付エントロピー ・相互情報量 | 情報科学(交差エントロピーと相互情報量)のポイントを解説! |
| 機械学習 | 2-1 | 線形回帰モデル | ・最小二乗法 ・ホールドアウト法 ・交差検証法 | 線形回帰モデルのポイントを解説! |
| 機械学習 | 2-2 | 非線形回帰モデル | ・基底展開法 ・バイアス ・バリアンス | 非線形回帰モデルのポイントを解説! |
| 機械学習 | 2-3 | ロジスティック回帰モデル | ・シグモイド関数 ・最尤推定 ・混同行列 ・適合率 ・再現率 ・AUC | ロジスティック回帰モデルのポイントを解説! |
| 機械学習 | 2-4 | 主成分分析 | ・分散共分散行列 ・固有値 ・主成分 ・寄与率 ・再構成誤差 | 主成分分析のポイントを解説! |
| 機械学習 | 2-5 | k-近傍法 | ・分類問題 ・教師なし学習 | kー近傍法のポイントを解説! |
| 機械学習 | 2-6 | kー平均法 | ・教師なし学習 ・クラスタリング ・初期値依存問題 | k-means のポイントを解説! |
| 機械学習 | 2-7 | サポートベクターマシン | ・マージン最大化 ・カーネルトリック ・特徴空間 | サポートベクターマシンのポイントを解説! |
| 深層学習 | 3-1 | 概要 | ・識別関数 ・識別モデル ・生成モデル ・入力層 ・中間層 ・活性化関数 ・出力層 ・勾配降下法 ・確率的勾配降下法 ・ミニバッチ勾配降下法 ・誤差逆伝播 ・過学習 ・開発環境 ・転移学習 ・ドメインシフト | 深層学習の概要を解説! |
| 深層学習 | 3-2 | 性能向上 | ・勾配消失問題 ・学習率最適化 ・Momentum ・NAG ・AdaGrad ・RMSrop ・Adam ・AdaDelta ・過学習対策 ・マルチタスク ・バギング ・アンサンブル学習 | 性能向上の方法をポイント解説! |
| 深層学習 | 3-3 | 畳み込み | ・Bias ・Padding ・Stride ・Channel ・Pooling ・Unpooling | CNN(畳み込みニューラルネットワーク)のポイントを解説! |
| 深層学習 | 3-4 | 画像認識 | ・CNN ・Max Pooling ・ドロップアウト | AlexNet(画像認識)のポイントを解説! |
| 深層学習 | 3-5 | 正則化 最適化 | ・L1・L2正則化 ・Elastic Net ・Batch正規化 ・Layer正規化 ・Instance正規化 | 学習の安定化(未学習・過学習の回避)のポイントを解説! |
| 深層学習 | 3-6 | 再帰型モデル | ・RNNの3つの重み ・BPTT(誤差逆伝播) | RNN(再起型ニューラルネットワーク)のポイントを解説! |
| 深層学習 | 3-6-1 | 長期短期記憶 | ・忘却ゲート ・CEC ・GRU | LSTM(Long Short Term Memory)のポイントを解説! |
| 深層学習 | 3-7 | 自然言語処理 | ・Encoder RNN ・Decoder RNN ・BLEU | Seq2Seq(自然言語処理)とは? |
| 深層学習 | 3-8 | 自然言語処理 | Seq2seq + Context RNN | HRED(自然言語処理)のポイントを解説! |
| 深層学習 | 3-9 | 自然言語処理 | HRED+VAE | VHRED(自然言語処理)のポイントを解説! |
| 深層学習 | 3-10 | 事前学習 | ・自己符号化器 ・潜在変数 ・恒等写像関数 ・再構成誤差 ・再パラメータ化トリック | VAE(変分オートエンコーダー)による事前学習を解説! |
| 深層学習 | 3-11 | 生成モデル | ・posterior collapse ・離散潜在埋め込みベクトル | VQ-VAE(生成モデル)のポイントを解説! |
| 深層学習 | 3-12 | ・双方向RNN ・勾配クリッピング | ・勾配クリッピング | 双方向 RNN/勾配クリッピングのポイントを解説! |
| 深層学習 | 3-13 | データ拡張 | ・Horizontal Flip ・Vertical Flip ・Crop ・Contrast ・Brightness ・Hue ・Rotate | データ拡張のポイントを解説! |
| 深層学習 | 3-14 | 活性化関数 | 【深層学習】activate_functionsとは?(編集中) | |
| 深層学習 | 3-15 | 強化学習 | ・行動価値関数 ・方策関数 ・方策勾配法 ・方策勾配定理 ・REINFORCEアルゴリズム ・経験再生 ・オフポリシー ・ベルマン方程式 | 強化学習のポイントを解説! |
| 深層学習 | 3-16 | 強化学習 | ・モンテカルロ探索木 ・手順 ・勝敗期待値 ・着手予想確率 ・PolicyNet ・ValueNet ・RollOut Policy | AlphaGo(強化学習)のポイントを解説! |
| 深層学習 | 3-17 | 強化学習 | ・非同期並列学習 ・分岐型ActorーCritic ・方策勾配法 | A3C(強化学習)のポイントを解説! |
| 深層学習 | 3-18 | 軽量化 高速化 | ・モデル並列化 ・データ並列化 ・GPU ・量子化 ・蒸留 ・プルーニング | 軽量化・高速化技術のポイントを解説! |
| 深層学習 | 3-18 | 応用技術 | ・Depthwise Convolution ・Pointwise Convolution | MobileNet(画像認識)のポイントを解説! |
| 深層学習 | 3-19 | 正規化 | ・Batch正規化 ・Layer正規化 ・Instance正規化 | 様々な正規化手法を活用して性能向上を図る! |
| 深層学習 | 3-20 | 物体認識 | ・データセット ・評価指標 ・IoU | 物体認識の基礎を徹底解説! |
| 深層学習 | 3-21 | 画像認識 | ZFNet(画像認識)とは?(作成中) | |
| 深層学習 | 3-22 | 画像認識 | ・CNN ・Inception モジュール ・Auxiliary Loss ・アンサンブル学習 ・Global Average Pooling | GoogLeNet(画像認識)の3つのポイントを解説! |
| 深層学習 | 3-23 | 画像認識 | ・CNN ・層の深さを増加 ・転移学習 | VGG Net(画像認識)のポイントを解説! |
| 深層学習 | 3-23 | 画像認識 | ・CNN ・勾配消失問題 ・residualブロック ・Batch正規化 ・Heの初期化 ・Wide ResNet ・ファインチューニング | ResNet(画像認識)とは? |
| 深層学習 | 3-24 | 画像認識 | ・CNN ・勾配消失問題 ・Denseブロック | Dense Net(画像認識)のポイントを解説! |
| 深層学習 | 3-25 | 画像認識 | ・スケーリングの効率化を提案 | EfficientNet(画像認識)の3つのポイントを解説! |
| 画像認識 | Vision Transformer のポイントを解説! | |||
| 深層学習 | 3-26 | 画像認識 | SENet(画像認識)とは?(編集中) | |
| 深層学習 | 3-27 | 物体検出 | ・1段階検出器 ・Anchor Box ・Default Box | SSD(物体検出)のポイントを解説! |
| 深層学習 | 3-28 | 物体検出 | ・逆畳み込み | Semantic- Segmentation のポイントを解説! |
| 深層学習 | 3-29 | 物体検出 | ・2段階検出器 ・Anchor Box ・Selective- Search ・サポートベクターマシン ・IoU ・RoI-Pooling ・Semantic- Segmentation | RーCNN(物体検出)のポイントを解説! |
| 深層学習 | 3-30 | 物体検出 | ・2段階検出器 ・Anchor Box ・Region Proposal Network ・RoI Pooling | |
| 深層学習 | 3-31 | 物体検出 | ・Instance Segmentation ・Mask機構 ・マルチタスク学習 ・RoI Align | Mask RーCNN(物体検出)のポイントを解説! |
| 深層学習 | 3-32 | 物体検出 | ・1段階検出器 ・Anchor Box ・Grid cell | YOLO(物体検出)のポイントを解説! |
| 深層学習 | 3-33 | 物体検出 | ・Semantic Segmentation ・全結合層なし ・逆畳み込み ・スキップ接続 ・Max pooling インデックス | FCNとSegNet(物体検出)のポイント解説! |
| 深層学習 | 3-34 | 物体検出 | ・1段階検出器 ・AnchorーFree ・Center-ness | FCOS(物体検出)の3つのポイントを解説! |
| 深層学習 | 3-35 | 自然言語処理 | ・Encoder ・Decoder ・Attetion機構 ・SelfーAttention ・SourceーTarget-Attention ・Position Encoding | Transformer(自然言語処理)のポイントを解説! |
| 深層学習 | 3-36 | 自然言語処理 | ・事前学習モデル ・ファインチューニング ・双方向 Transformer ・Attetion機構 ・Masked Language Model | BERT(自然言語処理)のポイントを解説! |
| 深層学習 | 3-37 | 自然言語処理 | TensorFlow2とは(作成中) | |
| 深層学習 | 3-38 | 自然言語処理 | ・事前学習モデル ・転移学習 ・言語モデル ・Transformer ・One-Shot Learning | GPT(自然言語処理)の3つのポイントを解説! |
| 深層学習 | 3-39 | 音声認識 | ・フーリエ変換 ・窓関数 | 音声認識のポイントを解説! |
| 深層学習 | 3-40 | 音声認識 | ・blank ・前向き・後向きアルゴリズム | CTC(音声認識)の2つのポイントを解説! |
| 深層学習 | 3-41 | 音声認識 | ・Dilated Causal Convolution | WaveNet(音声認識)のポイントを解説! |
| 深層学習 | 3-42 | 画像生成 | ・Generator ・Discriminator ・JSダイバージェンス ・表現学習 ・DCGAN ・逆畳み込み | GAN(画像生成モデル)のポイントを解説! |
| 深層学習 | 3-43 | 画像生成 | ・条件パラメータ ・Batch正規化 | Conditional GAN(条件付きGAN)とは? |
| 深層学習 | 3-44 | スタイル変換 | ・CGAN ・U-Net ・L1正則化 ・PatchGAN | Pix2Pix(画像変換)の3つのポイントを解説! |
| 深層学習 | 3-45 | 距離学習 | ・Siamese network ・Triplet network | 距離学習のポイントを解説! |
| 深層学習 | 3-46 | メタ学習 | ・メタ学習 ・Few-Shot learning ・確率的勾配降下法 | MAML(メタ学習)の3つのポイントを徹底解説! |
| 深層学習 | 3-47 | グラフ畳み込み | ・Spatial GCN ・Spectral GCN ・グラフフーリエ変換 | GCN(グラフ畳み込み)の3つのポイントを解説! |
| 深層学習 | 3-48 | 深層学習の説明性 | ・CAM ・GradーCAM ・LIME(局所的説明) ・SHAP(局所的説明) | AIの判断根拠の説明方法をポイント解説! |
| 開発環境 | 5 | 開発・運用環境 | ・コンテナ技術 ・コンテナ型 ・ハイパーバイザー型 | Dccker(コンテナ技術)のポイントを解説! |
まとめ
最後まで読んで頂きありがとうございます。
皆様のキャリアアップを応援しています!!

コメント