API-Reference.ja.md in ruby-dnn-0.5.9 vs API-Reference.ja.md in ruby-dnn-0.5.10
- old
+ new
@@ -1,10 +1,10 @@
# APIリファレンス
ruby-dnnのAPIリファレンスです。このリファレンスでは、APIを利用するうえで必要となるクラスとメソッドしか記載していません。
そのため、プログラムの詳細が必要な場合は、ソースコードを参照してください。
-最終更新バージョン:0.5.9
+最終更新バージョン:0.5.10
# module DNN
ruby-dnnの名前空間をなすモジュールです。
## 【Constants】
@@ -99,13 +99,13 @@
モデルがコンパイル済みであるか否か。
## def train(x, y, epochs, batch_size: 1, test: nil, verbose: true, batch_proc: nil, &epoch_proc)
コンパイルしたモデルを用いて学習を行います。
### arguments
-* SFloat x
+* Numo::SFloat x
トレーニング用入力データ。
-* SFloat y
+* Numo::SFloat y
トレーニング用出力データ。
* epochs
学習回数。
* Integer batch_size: 1
学習に使用するミニバッチの数。
@@ -122,13 +122,13 @@
なし。
## def train_on_batch(x, y, batch_size, &batch_proc)
入力されたバッチデータをもとに、一度だけ学習を行います。
### arguments
-* SFloat x
+* Numo::SFloat x
トレーニング用入力バッチデータ。
-* SFloat y
+* Numo::SFloat y
トレーニング用出力バッチデータ。
* Integer batch_size
学習に使用するミニバッチの数。
### block
一度のバッチ学習が行われる前に呼び出されます。
@@ -137,13 +137,13 @@
損失関数の値を返します。
## def accurate(x, y, batch_size = nil, &batch_proc)
学習結果をもとに認識率を返します。
### arguments
-* SFloat x
+* Numo::SFloat x
テスト用入力データ。
-* SFloat y
+* Numo::SFloat y
テスト用出力データ。
* batch_size
ミニバッチの数。学習を行っていないモデルのテストを行いたい場合等に使用します。
### block
一度のバッチ学習が行われる前に呼び出されます。
@@ -153,24 +153,24 @@
## def predict(x)
モデルを使用して、結果の推論を行います。
入力データは、バッチデータである必要があります。
### arguments
-* SFloat x
+* Numo::SFloat x
推論用入力データ。
### return
-SFloat
+Numo::SFloat
推論結果を返します。
## def predict1(x)
モデルを使用して、結果の推論を行います。
predictとは異なり、一つの入力データに対して、一つの出力データを返します。
### arguments
-* SFloat x
+* Numo::SFloat x
推論用入力データ。
### return
-SFloat
+Numo::SFloat
推論結果を返します。
# module Layers
レイヤーの名前空間をなすモジュールです。
@@ -198,23 +198,23 @@
レイヤーがビルド済みであるか否か。
## abstruct def forward(x)
順方向伝搬を行うメソッドです。Layerクラスを継承するクラスは、このメソッドを実装する必要があります。
### arguments
-* SFloat x
+* Numo::SFloat x
入力データ。
### return
-SFloat
+Numo::SFloat
出力データ。
## abstruct def backward(dout)
逆方向伝搬を行うメソッドです。Layerクラスを継承するクラスは、このメソッドを実装する必要があります。
### arguments
-* SFloat dout
+* Numo::SFloat dout
逆方向から伝搬してきた微分値。
### return
-SFloat
+Numo::SFloat
逆方向に伝搬する微分値。
## def shape
レイヤーの形状を取得するメソッドです。
### arguments
@@ -456,19 +456,19 @@
## 【Instance methods】
## abstruct def backward(y)
出力層の活性化関数と損失関数を合わせたものを微分した導関数を用いて、教師データの出力データを逆方向に伝搬します。
### arguments
-SFloat y
+Numo::SFloat y
出力データ。
### return
出力層の活性化関数と損失関数の微分値。
## abstruct def loss
損失関数の値を取得します。
### arguments
-SFloat y
+Numo::SFloat y
出力データ。
### return
損失関数の値。
@@ -573,11 +573,11 @@
### arguments
* HasParamLayer layer
更新対象のパラメータを持つレイヤーを指定します。
* Symbol param_key
更新す対象のパラメータの名前を指定します。
-* SFloat param
+* Numo::SFloat param
更新するパラメータです。
# class Zeros < Initializer
パラメータを0で初期化します。
@@ -729,23 +729,23 @@
## 【Singleton methods】
## def self.get_minibatch(x, y, batch_size)
batch_size分のミニバッチを取得します。
### arguments
-* SFloat x
+* Numo::SFloat x
教師データの入力データ。
-* SFloat y
+* Numo::SFloat y
教師データの出力データ。
* Integer batch_size
ミニバッチのサイズ。
### return
Array
[xのミニバッチ, yのミニバッチ]の形式の配列を返します。
## def self.to_categorical(y, num_classes, type = nil)
ラベルをnum_classesのベクトルにカテゴライズします。
### arguments
-* SFloat y
+* Numo::SFloat y
教師データの出力データ。
* Integer num_classes
カテゴライズするクラス数。
* NArray narray_type = nil
カテゴライズしたNArrayデータの型。nilを指定すると、yの型を使用します。