- Accuracy
- Activation Function
- AdaBoost (Adaptive Boosting)
- Adadelta
- Adagrad
- Adam
- Adaptive Boosting
- AlexNet
- AllenNLP
- Attention
- Area Under Curve
- AUC (Area Under Curve)
- Autoencoder
- Average Pooling
- Batch
- Batch Normalization
- BERT (Bidirectional Encoder Representation from Transformer)
- Bidirectional Encoder Representation from Transformer
- Bidirectional RNN
- Boltzmann Machines
- Caffe
- Chainer
- Cifar10
- Clustering
- CNN (Convolutional Neural Network)
- Common Objects in Context
- Conditional GAN
- Conditional Random Fields
- Confusion Matrix
- Convolution
- Convolutional Neural Network
- COCO (Common Objects in Context)
- CRF (Conditional Random Fields)
- Cross-Entropy Error
- Data Augmentation
- DBN (Deep Belief Network)
- DCGAN (Deep Convolutional GAN)
- Decoder
- Deep Belief Network
- Deep Convolutional GAN
- Deep Learning
- Deep Q-Network
- Deep Reinforcement Learning
- Deep Residual Network
- Denoising Autoencoder
- Dense Layer
- DenseNet
- Depthwise Convolution
- Discriminator
- Doc2Vec
- Docker
- Double Q-Learning
- DQN (Deep Q-Network)
- DropConnect
- Dropout
- Dueling Network
- Early Stopping
- ELMo
- ELU (Exponential Linear Unit)
- Embedding
- Encoder
- Encoder-Decoder
- Ensemble Learning
- Epoch
- Error Function
- Experience Reply
- Exponential Linear Unit
- Fashion MNIST
- Fast R-CNN
- Faster R-CNN
- F1 Score
- F-measure
- Forget Gate
- F値(Fち)
- GAN (Generative Adversarial Network)
- Gated Recurrent Unit
- Gaussian Error Linear Unit
- GELU (Gaussian Error Linear Unit)
- Generative Adversarial Network
- Generative Query Network
- Generator
- GoogLeNet
- GQN (Generative Query Network)
- GradCAM
- Gradient Boosting
- Gradient Descent Method
- Group Convolution
- Group Normalization
- GRU (Gated Recurrent Unit)
- Gym
- He Initialization
- Hidden Layer
- Hold-out Method
- Hyperbolic Tangent Function
- ImageNet
- Inception
- Input Gate
- Input Layer
- Input Weight Conflict
- Keras
- Kernel Method
- k-fold
- KL Divergence (Kullback–Leibler Divergence)
- k-Fold Cross Validation
- k-Means
- k-Nearest Neighbor
- kNN (k-Nearest Neighbor)
- Kullback–Leibler Divergence
- k近傍法(kきんぼうほう)
- k分割交差検証法(kぶんかつこうさけんしょうほう)
- k平均法(kへいきんほう)
- Label Smoothing
- Layer Normalization
- Leaky ReLU
- LeNet
- Logistic Regression
- Long Short-Term Memory
- LSTM (Long Short-Term Memory)
- Max Pooling
- Mean Squared Error
- Mini-Batch
- MLP (Multi-Layer Perceptron)
- MNIST
- MobileNet
- Momentum
- MSE (Mean Squared Error)
- Multi-Layer Perceptron
- NAC (Neural Accumulator)
- NALU (Neural Arithmetic Logic Unit)
- Nesterov
- Neural Accumulator
- Neural Arithmetic Logic Unit
- Neural Machine Translation
- NMF (Non-negative Matrix Factorization)
- NMT (Neural Machine Translation)
- Non-negative Matrix Factorization
- Normalization
- One-hot encoding
- One-hot Vector
- Output Gate
- Output Layer
- Output Weight Conflict
- Overfitting
- Oversampling
- Parametric ReLU
- PCA (Principal Component Analysis)
- Peephole Connection
- Pointwise Convolution
- Pooling
- Precision
- PReLU (Parametric ReLU)
- Principal Component Analysis
- Prioritized Experience Reply
- PyTorch
- Q-Learning
- Q学習(Qがくしゅう)
- Random Forest
- Rainbow
- Randomized ReLU
- RBM (Restricted Boltzmann Machines)
- R-CNN
- Recall
- Receiver Operating Characteristic Curve
- Recurrent Neural Network
- Restricted Boltzmann Machines
- Reinforcement Learning
- ReLU (Rectified Linear Unit)
- ResNet
- RMSE (Root Mean Squared Error)
- RMSprop
- RNN (Recurrent Neural Network)
- ROC Curve (Receiver Operating Characteristic Curve)
- ROC曲線(ROCきょくせん)
- Root Mean Squared Error
- RReLU (Randomized ReLU)
- Scaled Exponential Linear Units
- SDA (Stacked Denoising Autoencoder)
- Self-Attention
- SeLU (Scaled Exponential Linear Units)
- Semi-Supervised Learning
- Seq2Seq
- Sequence-to-Sequence
- SGD (Stochastic Gradient Descent)
- Sigmoid Function
- Singular Value Decomposition
- Softmax Function
- Stacked Denoising Autoencoder
- Steepest Descent
- Step Function
- Stochastic Gradient Descent
- Supervised Learning
- Support Vector Machine
- SVD (Singular Value Decomposition)
- SVM (Support Vector Machine)
- Swish
- Tanh
- TD学習
- Teacher Forcing
- Temporal Difference Learning
- Tensor
- TensorFlow
- Toy Problem
- Transformer
- U-Net
- Underfitting
- Undersampling
- Unsupervised Learning
- VAE (Variational Autoencoder)
- Variational Autoencoder
- Variational Bayes
- VGG
- WaveNet
- Wasserstein GAN
- WGAN (Wasserstein GAN)
- Word Embedding
- Word2Vec
- Xavier Initialization
- Xception
- YOLO (You Only Look Once)
- You Only Look Once
- ZCA Whitening
- ZCA白色化(ZCAはくしょくか)
- ZF Net
- アンサンブル学習(あんさんぶるがくしゅう)
- アンダーサンプリング(あんだーさんぷりんぐ)
- アンダーフィッティング(あんだーふぃってぃんぐ)
- エポック(えぽっく)
- オーバーサンプリング(おーばーさんぷりんぐ)
- オーバーフィッティング(おーばーふぃってぃんぐ)
- 確率的勾配降下法(かくりつてきこうばいこうかほう)
- 過学習(かがくしゅう)
- 隠れ層(かくれそう)
- 過剰適合(かじょうてきごう)
- 活性化関数(かっせいかかんすう)
- カーネル法(かーねるほう)
- 強化学習(きょうかがくしゅう)
- 教師あり学習(きょうしありがくしゅう)
- 教師なし学習(きょうしなしがくしゅう)
- クラスタリング(くらすたりんぐ)
- 勾配降下法(こうばいこうかほう)
- 勾配ブースティング(こうばいぶーすてぃんぐ)
- 混同行列(こんどうぎょうれつ)
- 最急降下法(さいきゅうこうかほう)
- 再帰的ニューラルネットワーク(さいきてきにゅーらるねっとわーく)
- 再現率(さいげんりつ)
- 最大値プーリング(さいだいちぷーりんぐ)
- サポートベクターマシン
- シグモイド関数(しぐもいどかんすう)
- 主成分分析(しゅせいぶんぶんせき)
- 出力重み衝突(しゅつりょくおもみしょうとつ)
- 出力ゲート(しゅつりょくげーと)
- 出力層(しゅつりょくそう)
- 条件付き確率場(じょうけんつきかくりつば)
- 深層学習(しんそうがくしゅう)
- 深層強化学習(しんそうきょうかがくしゅう)
- ステップ関数(すてっぷかんすう)
- 正解率(せいかいりつ)
- 正規化(せいきか)
- 制限付きボルツマンマシン(せいげんつきぼるつまんましん)
- 全結合層(ぜんけつごうそう)
- ソフトマックス関数(そふとまっくすかんすう)
- 多層パーセプトロン(たそうぱーせぷとろん)
- 畳み込み(たたみこみ)
- 畳み込みニューラルネットワーク(たたみこみにゅーらるねっとわーく)
- 注意(ちゅうい)/ 注意機構(ちゅういきこう)
- ディープラーニング(でぃーぷらーにんぐ)
- 適合率(てきごうりつ)
- 敵対的生成ネットワーク(てきたいてきせいせいねっとわーく)
- データ拡張(でーたかくちょう)
- テンソル(てんそる)
- トイプロブレム(といぷろぶれむ)
- 特異値分解(とくいちぶんかい)
- 入力重み衝突(にゅうりょくおもみしょうとつ)
- 入力ゲート(にゅうりょくげーと)
- 入力層(にゅうりょくそう)
- 覗き穴結合(のぞきあなけつごう)
- 白色化(はくしょくか)
- バッチ(ばっち)
- バッチ正規化(ばっちせいきか)
- 半教師あり学習(はんきょうしありがくしゅう)
- 非負値行列因子分解(ひふちぎょうれついんしぶんかい)
- プーリング(ぷーりんぐ)
- 平均値プーリング(へいきんちぷーりんぐ)
- 変分ベイズ(へんぶんべいず)
- 忘却ゲート(ぼうきゃくげーと)
- ボルツマンマシン(ぼるつまんましん)
- ホールドアウト法(ほーるどあうとほう)
- ミニバッチ(みにばっち)
- モメンタム(もめんたむ)
- ランダムフォレスト(らんだむふぉれすと)
- リカレントニューラルネットワーク(りかれんとにゅーらるねっとわーく)
- ロジスティック回帰(ろじすてぃっくかいき)