API-Reference.ja.md in ruby-dnn-0.5.9 vs API-Reference.ja.md in ruby-dnn-0.5.10

- old
+ new

@@ -1,10 +1,10 @@ # APIリファレンス ruby-dnnのAPIリファレンスです。このリファレンスでは、APIを利用するうえで必要となるクラスとメソッドしか記載していません。 そのため、プログラムの詳細が必要な場合は、ソースコードを参照してください。 -最終更新バージョン:0.5.9 +最終更新バージョン:0.5.10 # module DNN ruby-dnnの名前空間をなすモジュールです。 ## 【Constants】 @@ -99,13 +99,13 @@ モデルがコンパイル済みであるか否か。 ## def train(x, y, epochs, batch_size: 1, test: nil, verbose: true, batch_proc: nil, &epoch_proc) コンパイルしたモデルを用いて学習を行います。 ### arguments -* SFloat x +* Numo::SFloat x トレーニング用入力データ。 -* SFloat y +* Numo::SFloat y トレーニング用出力データ。 * epochs 学習回数。 * Integer batch_size: 1 学習に使用するミニバッチの数。 @@ -122,13 +122,13 @@ なし。 ## def train_on_batch(x, y, batch_size, &batch_proc) 入力されたバッチデータをもとに、一度だけ学習を行います。 ### arguments -* SFloat x +* Numo::SFloat x トレーニング用入力バッチデータ。 -* SFloat y +* Numo::SFloat y トレーニング用出力バッチデータ。 * Integer batch_size 学習に使用するミニバッチの数。 ### block 一度のバッチ学習が行われる前に呼び出されます。 @@ -137,13 +137,13 @@ 損失関数の値を返します。 ## def accurate(x, y, batch_size = nil, &batch_proc) 学習結果をもとに認識率を返します。 ### arguments -* SFloat x +* Numo::SFloat x テスト用入力データ。 -* SFloat y +* Numo::SFloat y テスト用出力データ。 * batch_size ミニバッチの数。学習を行っていないモデルのテストを行いたい場合等に使用します。 ### block 一度のバッチ学習が行われる前に呼び出されます。 @@ -153,24 +153,24 @@ ## def predict(x) モデルを使用して、結果の推論を行います。 入力データは、バッチデータである必要があります。 ### arguments -* SFloat x +* Numo::SFloat x 推論用入力データ。 ### return -SFloat +Numo::SFloat 推論結果を返します。 ## def predict1(x) モデルを使用して、結果の推論を行います。 predictとは異なり、一つの入力データに対して、一つの出力データを返します。 ### arguments -* SFloat x +* Numo::SFloat x 推論用入力データ。 ### return -SFloat +Numo::SFloat 推論結果を返します。 # module Layers レイヤーの名前空間をなすモジュールです。 @@ -198,23 +198,23 @@ レイヤーがビルド済みであるか否か。 ## abstruct def forward(x) 順方向伝搬を行うメソッドです。Layerクラスを継承するクラスは、このメソッドを実装する必要があります。 ### arguments -* SFloat x +* Numo::SFloat x 入力データ。 ### return -SFloat +Numo::SFloat 出力データ。 ## abstruct def backward(dout) 逆方向伝搬を行うメソッドです。Layerクラスを継承するクラスは、このメソッドを実装する必要があります。 ### arguments -* SFloat dout +* Numo::SFloat dout 逆方向から伝搬してきた微分値。 ### return -SFloat +Numo::SFloat 逆方向に伝搬する微分値。 ## def shape レイヤーの形状を取得するメソッドです。 ### arguments @@ -456,19 +456,19 @@ ## 【Instance methods】 ## abstruct def backward(y) 出力層の活性化関数と損失関数を合わせたものを微分した導関数を用いて、教師データの出力データを逆方向に伝搬します。 ### arguments -SFloat y +Numo::SFloat y 出力データ。 ### return 出力層の活性化関数と損失関数の微分値。 ## abstruct def loss 損失関数の値を取得します。 ### arguments -SFloat y +Numo::SFloat y 出力データ。 ### return 損失関数の値。 @@ -573,11 +573,11 @@ ### arguments * HasParamLayer layer 更新対象のパラメータを持つレイヤーを指定します。 * Symbol param_key 更新す対象のパラメータの名前を指定します。 -* SFloat param +* Numo::SFloat param 更新するパラメータです。 # class Zeros < Initializer パラメータを0で初期化します。 @@ -729,23 +729,23 @@ ## 【Singleton methods】 ## def self.get_minibatch(x, y, batch_size) batch_size分のミニバッチを取得します。 ### arguments -* SFloat x +* Numo::SFloat x 教師データの入力データ。 -* SFloat y +* Numo::SFloat y 教師データの出力データ。 * Integer batch_size ミニバッチのサイズ。 ### return Array [xのミニバッチ, yのミニバッチ]の形式の配列を返します。 ## def self.to_categorical(y, num_classes, type = nil) ラベルをnum_classesのベクトルにカテゴライズします。 ### arguments -* SFloat y +* Numo::SFloat y 教師データの出力データ。 * Integer num_classes カテゴライズするクラス数。 * NArray narray_type = nil カテゴライズしたNArrayデータの型。nilを指定すると、yの型を使用します。