Gradient Descent
勾配降下法の紹介
アカデミックライティングで使える英語フレーズと例文集
Discover more insights into Gradient Descent 勾配降下法
Keywords frequently search together with Gradient Descent 勾配降下法
Narrow sentence examples with built-in keyword filters
Gradient Descent sentence examples within support vector machine
Enhanced ML algorithms such as Support Vector Machine (SVM), Logistic
Regression, K-Nearest Neighbour (KNN), Naïve Bayes (NB), Decision Tree (DT),
Random Forest (RF), Stochastic Gradient Descent (SGD) classifier, XGBoost and
Gradient Boosting classifiers have been implemented to forecast smart grid
stability.
サポートベクターマシン(SVM)、ロジスティックなどの拡張MLアルゴリズム
回帰、K最近傍法(KNN)、ナイーブベイズ(NB)、決定木(DT)、
ランダムフォレスト(RF)、確率的勾配降下(SGD)分類器、XGBoostおよび
スマートグリッドを予測するために勾配ブースティング分類器が実装されました
安定。
サポートベクターマシン(SVM)、ロジスティックなどの拡張MLアルゴリズム 回帰、K最近傍法(KNN)、ナイーブベイズ(NB)、決定木(DT)、 ランダムフォレスト(RF)、確率的勾配降下(SGD)分類器、XGBoostおよび スマートグリッドを予測するために勾配ブースティング分類器が実装されました 安定。
Full Text
k-Nearest Neighbours (k-NN), Logistic Regression, Stochastic Gradient Descent, and Support Vector Machine were evaluated with 3 defects categories and one non-defect category.
k最近傍法(k-NN)、ロジスティック回帰、確率的勾配降下法、およびサポートベクターマシンは、3つの欠陥カテゴリと1つの非欠陥カテゴリで評価されました。
k最近傍法(k-NN)、ロジスティック回帰、確率的勾配降下法、およびサポートベクターマシンは、3つの欠陥カテゴリと1つの非欠陥カテゴリで評価されました。
Full Text
Gradient Descent sentence examples within artificial neural network
In this work, we designed a hardware architecture using individual neurons as building blocks based on the optimization of n-dimensional objective functions, such as obtaining the bias and synaptic weight parameters of an artificial neural network (ANN) model using the gradient descent method.
この作業では、勾配降下法を使用して人工ニューラルネットワーク(ANN)モデルのバイアスとシナプスの重みパラメーターを取得するなど、n次元の目的関数の最適化に基づいて、個々のニューロンをビルディングブロックとして使用するハードウェアアーキテクチャを設計しました。
この作業では、勾配降下法を使用して人工ニューラルネットワーク(ANN)モデルのバイアスとシナプスの重みパラメーターを取得するなど、n次元の目的関数の最適化に基づいて、個々のニューロンをビルディングブロックとして使用するハードウェアアーキテクチャを設計しました。
Full Text
We use these measurements as input for the simulation of training and inference in a multilayer perceptron for pattern recognition, to show the use of PCMO-based ReRAM devices as weights in artificial neural networks which are trained by gradient descent methods.
これらの測定値を、パターン認識用の多層パーセプトロンでのトレーニングと推論のシミュレーションの入力として使用し、勾配降下法でトレーニングされた人工ニューラルネットワークでの重みとしてのPCMOベースのReRAMデバイスの使用を示します。
これらの測定値を、パターン認識用の多層パーセプトロンでのトレーニングと推論のシミュレーションの入力として使用し、勾配降下法でトレーニングされた人工ニューラルネットワークでの重みとしてのPCMOベースのReRAMデバイスの使用を示します。
Full Text
Gradient Descent sentence examples within deep neural network
Differential privacy (DP) enables the provision of information-theoretic privacy guarantees to patients and can be implemented in the setting of deep neural network training through the differentially private stochastic gradient descent (DP-SGD) algorithm.
差分プライバシー(DP)は、患者に情報理論的なプライバシー保証を提供することを可能にし、差分プライベート確率的勾配降下法(DP-SGD)アルゴリズムを介してディープニューラルネットワークトレーニングの設定で実装できます。
差分プライバシー(DP)は、患者に情報理論的なプライバシー保証を提供することを可能にし、差分プライベート確率的勾配降下法(DP-SGD)アルゴリズムを介してディープニューラルネットワークトレーニングの設定で実装できます。
Full Text
In this paper, we propose a novel method to compute the learning rate for training deep neural networks with stochastic gradient descent.
本論文では、確率的勾配降下法を用いて深層ニューラルネットワークを訓練するための学習率を計算するための新しい方法を提案します。
本論文では、確率的勾配降下法を用いて深層ニューラルネットワークを訓練するための学習率を計算するための新しい方法を提案します。
Full Text
Learn more from Gradient Descent 勾配降下法
Gradient Descent sentence examples within particle swarm optimization
This paper proposed a hybrid of Gradient Descent algorithm along with Particle Swarm Optimization (PSO) thus yielding an evolutionary hybridized optimization approach (GDPSO) which is implemented for discovering the RSMT followed by reducing the bend quantity.
この論文は、粒子群最適化(PSO)とともに勾配降下アルゴリズムのハイブリッドを提案し、RSMTを発見した後に曲げ量を減らすために実装される進化的ハイブリッド最適化アプローチ(GDPSO)を生み出しました。
この論文は、粒子群最適化(PSO)とともに勾配降下アルゴリズムのハイブリッドを提案し、RSMTを発見した後に曲げ量を減らすために実装される進化的ハイブリッド最適化アプローチ(GDPSO)を生み出しました。
Full Text
This research work proposes a Particle swarm optimization-based transformation technique for increasing the classification metrics of popular classification algorithms namely K-Nearest Neighbor, Stochastic Gradient Descent Classifier, Decision trees, and linear discriminant analysis classifier.
この研究では、一般的な分類アルゴリズム、つまりK最近傍法、確率的勾配降下法分類器、決定ツリー、線形判別分析分類器の分類メトリックを増やすための粒子群最適化ベースの変換手法を提案します。
この研究では、一般的な分類アルゴリズム、つまりK最近傍法、確率的勾配降下法分類器、決定ツリー、線形判別分析分類器の分類メトリックを増やすための粒子群最適化ベースの変換手法を提案します。
Full Text
Gradient Descent sentence examples within alternating direction method
The proposed convex clustering formulation is numerically and efficiently solved with the proximal gradient descent algorithm within the Alternating Direction Method of Multipliers (ADMM) framework.
提案された凸型クラスタリングの定式化は、乗数の交互方向法(ADMM)フレームワーク内の近位最急降下アルゴリズムを使用して数値的かつ効率的に解決されます。
提案された凸型クラスタリングの定式化は、乗数の交互方向法(ADMM)フレームワーク内の近位最急降下アルゴリズムを使用して数値的かつ効率的に解決されます。
Full Text
We then propose a convex optimisation model that uses a regularisation term of arbitrary order to impose smoothness on these velocity fields and solve this model with a fast algorithm that combines Nesterov gradient descent and the alternating direction method of multipliers (ADMM).
次に、任意の次数の正則化項を使用してこれらの速度場に滑らかさを課す凸最適化モデルを提案し、ネステロフ勾配降下法と乗数の交互方向法(ADMM)を組み合わせた高速アルゴリズムでこのモデルを解きます。
次に、任意の次数の正則化項を使用してこれらの速度場に滑らかさを課す凸最適化モデルを提案し、ネステロフ勾配降下法と乗数の交互方向法(ADMM)を組み合わせた高速アルゴリズムでこのモデルを解きます。
Full Text
Gradient Descent sentence examples within recurrent neural network
We present a scalable and precise verifier for recurrent neural networks, called Prover based on two novel ideas: (i) a method to compute a set of polyhedral abstractions for the non-convex and nonlinear recurrent update functions by combining sampling, optimization, and Fermat’s theorem, and (ii) a gradient descent based algorithm for abstraction refinement guided by the certification problem that combines multiple abstractions for each neuron.
2つの新しいアイデアに基づいてProverと呼ばれるリカレントニューラルネットワーク用のスケーラブルで正確なベリファイアを提示します。(i)サンプリング、最適化、およびFermatを組み合わせることにより、非凸および非線形リカレント更新関数の多面体抽象化のセットを計算する方法定理、および(ii)各ニューロンの複数の抽象化を組み合わせた認証問題によって導かれる抽象化改良のための勾配降下ベースのアルゴリズム。
2つの新しいアイデアに基づいてProverと呼ばれるリカレントニューラルネットワーク用のスケーラブルで正確なベリファイアを提示します。(i)サンプリング、最適化、およびFermatを組み合わせることにより、非凸および非線形リカレント更新関数の多面体抽象化のセットを計算する方法定理、および(ii)各ニューロンの複数の抽象化を組み合わせた認証問題によって導かれる抽象化改良のための勾配降下ベースのアルゴリズム。
Full Text
Hereby, inspired by gradient descent, fly’s visual information-processing and innate immunity mechanisms, this work probes into a fly immune visual recurrent neural network to solve large-scale global optimization(LSGO).
これにより、最急降下法、ハエの視覚情報処理、自然免疫メカニズムに触発されて、この作業はハエの免疫視覚リカレントニューラルネットワークを精査し、大規模な大域的最適化(LSGO)を解決します。
これにより、最急降下法、ハエの視覚情報処理、自然免疫メカニズムに触発されて、この作業はハエの免疫視覚リカレントニューラルネットワークを精査し、大規模な大域的最適化(LSGO)を解決します。
Full Text
Gradient Descent sentence examples within convolutional neural network
The improved Convolution Neural Network (CNN) was constructed by replacing the Softmax layer of the last layer of the convolutional neural network with the Mean Square Error (MSE) layer of the objective regression function, and the gradient descent method was used for fitting training to achieve the continuous prediction of visibility.
改良された畳み込みニューラルネットワーク(CNN)は、畳み込みニューラルネットワークの最後の層のSoftmax層を、目的回帰関数のMean Square Error(MSE)層に置き換えることによって構築され、勾配降下法を使用して、可視性の継続的な予測を実現します。
改良された畳み込みニューラルネットワーク(CNN)は、畳み込みニューラルネットワークの最後の層のSoftmax層を、目的回帰関数のMean Square Error(MSE)層に置き換えることによって構築され、勾配降下法を使用して、可視性の継続的な予測を実現します。
Full Text
To explore the anti-interference performance of convolutional neural network (CNN) reconstructed by deep learning (DL) framework in face image feature extraction (FE) and recognition, in the paper, first, the inception structure in the GoogleNet network and the residual error in the ResNet network structure are combined to construct a new deep reconstruction network algorithm, with the random gradient descent (SGD) and triplet loss functions as the model optimizer and classifier, respectively, and it is applied to the face recognition in Labeled Faces in the Wild (LFW) face database.
顔画像特徴抽出(FE)と認識におけるディープラーニング(DL)フレームワークによって再構築された畳み込みニューラルネットワーク(CNN)の干渉防止パフォーマンスを調査するために、この論文では、まず、GoogleNetネットワークの開始構造と残差エラーResNetネットワーク構造のを組み合わせて、ランダム勾配降下法(SGD)とトリプレット損失関数をそれぞれモデルオプティマイザーと分類器として使用する新しい深層再構成ネットワークアルゴリズムを構築し、ラベル付き顔の顔認識に適用します。ワイルド(LFW)顔データベース。
顔画像特徴抽出(FE)と認識におけるディープラーニング(DL)フレームワークによって再構築された畳み込みニューラルネットワーク(CNN)の干渉防止パフォーマンスを調査するために、この論文では、まず、GoogleNetネットワークの開始構造と残差エラーResNetネットワーク構造のを組み合わせて、ランダム勾配降下法(SGD)とトリプレット損失関数をそれぞれモデルオプティマイザーと分類器として使用する新しい深層再構成ネットワークアルゴリズムを構築し、ラベル付き顔の顔認識に適用します。ワイルド(LFW)顔データベース。
Full Text
Gradient Descent sentence examples within adaptive moment estimation
The outcomes show that utilizing various epoch counts for various optimizers such as Adaptive Moment Estimation (Adam), Stochastic Gradient Descent (SGD), and Root Mean Square Prop (RMSProp), it was obvious that APST-Net with Adam optimizer attains the highest training, validation, and F1-score of 98.
結果は、適応モーメント推定(Adam)、確率的勾配降下(SGD)、二乗平均平方根プロップ(RMSProp)などのさまざまなオプティマイザーにさまざまなエポックカウントを利用すると、Adamオプティマイザーを使用したAPST-Netが最高のトレーニングを達成することは明らかでした。 、検証、およびF1スコア98。
結果は、適応モーメント推定(Adam)、確率的勾配降下(SGD)、二乗平均平方根プロップ(RMSProp)などのさまざまなオプティマイザーにさまざまなエポックカウントを利用すると、Adamオプティマイザーを使用したAPST-Netが最高のトレーニングを達成することは明らかでした。 、検証、およびF1スコア98。
Full Text
We used a multi-optimization training system by utilizing stochastic gradient descent and adaptive moment estimation (Adam) with T1 and T2 in MOM-RCNN.
MOM-RCNNのT1とT2で確率的勾配降下法と適応モーメント推定(Adam)を利用することにより、多目的最適化トレーニングシステムを使用しました。
MOM-RCNNのT1とT2で確率的勾配降下法と適応モーメント推定(Adam)を利用することにより、多目的最適化トレーニングシステムを使用しました。
Full Text
Gradient Descent sentence examples within radial basis function
Therefore, based on the selected past literature used for this review we found that different types of ANN algorithm such as feed-forward backpropagation (FFBP) algorithm, gradient descent, Broyden-Fletcher-Goldfarb-Shanno (BFGS), conjugate gradient, radial basis function neural networks (RBFNN), neural network fitting (NNF), cascade forward back propagation (CFBP), ensemble ANN (EANN) and single AAN (SANN) have been employed in the prediction and monitoring of water quality parameters with satisfactory outcome.
したがって、このレビューに使用された選択された過去の文献に基づいて、フィードフォワードバックプロパゲーション(FFBP)アルゴリズム、勾配降下法、ブロイデン-フレッチャー-ゴールドファーブ-シャンノ(BFGS)、共役勾配、放射状基底などのさまざまなタイプのANNアルゴリズムが見つかりました機能ニューラルネットワーク(RBFNN)、ニューラルネットワークフィッティング(NNF)、カスケードフォワードバックプロパゲーション(CFBP)、アンサンブルANN(EANN)、シングルAAN(SANN)が、満足のいく結果をもたらす水質パラメーターの予測と監視に採用されています。
したがって、このレビューに使用された選択された過去の文献に基づいて、フィードフォワードバックプロパゲーション(FFBP)アルゴリズム、勾配降下法、ブロイデン-フレッチャー-ゴールドファーブ-シャンノ(BFGS)、共役勾配、放射状基底などのさまざまなタイプのANNアルゴリズムが見つかりました機能ニューラルネットワーク(RBFNN)、ニューラルネットワークフィッティング(NNF)、カスケードフォワードバックプロパゲーション(CFBP)、アンサンブルANN(EANN)、シングルAAN(SANN)が、満足のいく結果をもたらす水質パラメーターの予測と監視に採用されています。
Full Text
The gradient descent method is used to calculate the impedance variation to reduce the force overshoot, and the Radial Basis Function Neural Network (RBFNN) is introduced to improve the position tracking performance.
勾配降下法を使用してインピーダンス変動を計算し、力のオーバーシュートを低減します。また、位置追跡パフォーマンスを向上させるために、動径基底関数ニューラルネットワーク(RBFNN)が導入されています。
勾配降下法を使用してインピーダンス変動を計算し、力のオーバーシュートを低減します。また、位置追跡パフォーマンスを向上させるために、動径基底関数ニューラルネットワーク(RBFNN)が導入されています。
Full Text
Gradient Descent sentence examples within deep learning model
In this paper, an incremental deep learning model was developed and trained with stochastic gradient descent using feedforward neural networks.
この論文では、インクリメンタルディープラーニングモデルが開発され、フィードフォワードニューラルネットワークを使用して確率的勾配降下法でトレーニングされました。
この論文では、インクリメンタルディープラーニングモデルが開発され、フィードフォワードニューラルネットワークを使用して確率的勾配降下法でトレーニングされました。
Full Text
Stochastic gradient descent (SGD)-based optimizers play a key role in most deep learning models, yet the learning dynamics of the complex model remain obscure.
確率的勾配降下法(SGD)ベースのオプティマイザーは、ほとんどの深層学習モデルで重要な役割を果たしますが、複雑なモデルの学習ダイナミクスはあいまいなままです。
確率的勾配降下法(SGD)ベースのオプティマイザーは、ほとんどの深層学習モデルで重要な役割を果たしますが、複雑なモデルの学習ダイナミクスはあいまいなままです。
Full Text
Gradient Descent sentence examples within adaptive learning rate
Because Adam is an adaptive learning rate method and easier to use than Gradient Descent.
Adamは適応学習率法であり、最急降下法よりも使いやすいためです。
Adamは適応学習率法であり、最急降下法よりも使いやすいためです。
Full Text
These are: gradient descent with adaptive learning rate neural network (GDALRNN), resilient backpropagation neural network (RBNN), adaptive neurofuzzy inference system (ANFIS), genetic algorithm-based ANFIS (GA-ANFIS) and particle swarm optimization based ANFIS (PSO-ANFIS).
これらは、適応学習率ニューラルネットワーク(GDALRNN)、復元力のあるバックプロパゲーションニューラルネットワーク(RBNN)、適応ニューロファジー推論システム(ANFIS)、遺伝的アルゴリズムベースのANFIS(GA-ANFIS)、および粒子群最適化ベースのANFIS(PSO- ANFIS)。
これらは、適応学習率ニューラルネットワーク(GDALRNN)、復元力のあるバックプロパゲーションニューラルネットワーク(RBNN)、適応ニューロファジー推論システム(ANFIS)、遺伝的アルゴリズムベースのANFIS(GA-ANFIS)、および粒子群最適化ベースのANFIS(PSO- ANFIS)。
Full Text
Gradient Descent sentence examples within multi layer perceptron
multinomial Naïve Bayes (MNB), multi layer perceptron (MLP), support vector machine (SVM), decision tree, random forrest, stochastic gradient descent (SGD), ridge, perceptron and k-nearest neighbors (k-NN) has been applied to determine the best result.
多項ナイーブベイズ(MNB)、多層パーセプトロン(MLP)、サポートベクターマシン(SVM)、決定木、ランダムフォレスト、確率的最急降下法(SGD)、尾根、パーセプトロン、およびk最近傍法(k-NN)が適用されました最良の結果を決定します。
多項ナイーブベイズ(MNB)、多層パーセプトロン(MLP)、サポートベクターマシン(SVM)、決定木、ランダムフォレスト、確率的最急降下法(SGD)、尾根、パーセプトロン、およびk最近傍法(k-NN)が適用されました最良の結果を決定します。
Full Text
We then determined the ability of ML to predict the excess near bank velocity based a set of input data using different regression techniques (linear and polynomial, Stochastic Gradient Descent, Multi-Layer Perceptron, and Support Vector Machine).
次に、さまざまな回帰手法(線形および多項式、確率的勾配降下法、多層パーセプトロン、サポートベクターマシン)を使用して、一連の入力データに基づいて銀行付近の超過速度を予測するMLの能力を決定しました。
次に、さまざまな回帰手法(線形および多項式、確率的勾配降下法、多層パーセプトロン、サポートベクターマシン)を使用して、一連の入力データに基づいて銀行付近の超過速度を予測するMLの能力を決定しました。
Full Text
Gradient Descent sentence examples within deep convolutional neural
This study proposes a hybrid deep convolutional neural network (CNN) method that uses gradient descent optimization algorithms and pooling operations for predicting the short-term traffic congestion index in urban networks based on probe vehicles.
この研究は、プローブ車両に基づいて都市ネットワークの短期交通渋滞指数を予測するために勾配降下最適化アルゴリズムとプーリング操作を使用するハイブリッド深層畳み込みニューラルネットワーク(CNN)法を提案します。
この研究は、プローブ車両に基づいて都市ネットワークの短期交通渋滞指数を予測するために勾配降下最適化アルゴリズムとプーリング操作を使用するハイブリッド深層畳み込みニューラルネットワーク(CNN)法を提案します。
Full Text
We compare the EVGO algorithm with other gradient-based algorithms, such as gradient descent, RMSProp, Adagrad, momentum, and Adam on the well-known Modified National Institute of Standards and Technology (MNIST) data set for handwritten digit recognition by implementing deep convolutional neural networks.
EVGOアルゴリズムを、最急降下法、RMSProp、Adagrad、運動量、Adamなどの他の勾配ベースのアルゴリズムと比較します。ニューラルネットワーク。
EVGOアルゴリズムを、最急降下法、RMSProp、Adagrad、運動量、Adamなどの他の勾配ベースのアルゴリズムと比較します。ニューラルネットワーク。
Full Text
Gradient Descent sentence examples within mini batch stochastic
After hyperparameter adjustments, we found that resampling through repeated k-fold cross-validation smooths the stochasticity of mini-batch stochastic gradient descent present in accuracy perturbations by a factor of 3.
ハイパーパラメータ調整後、繰り返しのk分割交差検定によるリサンプリングにより、精度摂動に存在するミニバッチ確率的勾配降下法の確率が3倍滑らかになることがわかりました。
ハイパーパラメータ調整後、繰り返しのk分割交差検定によるリサンプリングにより、精度摂動に存在するミニバッチ確率的勾配降下法の確率が3倍滑らかになることがわかりました。
Full Text
To estimate residual errors in high-resolution and multiscale VM images in projection space, the DVV algorithm employs a training network (mini-batch stochastic gradient descent algorithm with momentum) that involves subjectively reconstructed hybrid SR images [simultaneous algebraic reconstruction technique (SART) total variation (TV)-first iterative shrinkage-thresholding algorithm (FISTA); SART-TV-FISTA].
投影空間における高解像度およびマルチスケールVM画像の残留誤差を推定するために、DVVアルゴリズムは、主観的に再構成されたハイブリッドSR画像を含むトレーニングネットワーク(運動量を伴うミニバッチ確率的勾配降下アルゴリズム)を採用します[同時代数的再構成手法(SART)変動(TV)-最初の反復収縮しきい値アルゴリズム(FISTA); SART-TV-FISTA]。
投影空間における高解像度およびマルチスケールVM画像の残留誤差を推定するために、DVVアルゴリズムは、主観的に再構成されたハイブリッドSR画像を含むトレーニングネットワーク(運動量を伴うミニバッチ確率的勾配降下アルゴリズム)を採用します[同時代数的再構成手法(SART)変動(TV)-最初の反復収縮しきい値アルゴリズム(FISTA); SART-TV-FISTA]。
Full Text
Gradient Descent sentence examples within root mean square
Finally, the optimization of the all antecedent and consequent parameters along with the width of the antecedent (Gaussian) membership function is done by gradient descent algorithm based on the minimization of root mean square error.
最後に、すべての前件と後件のパラメーターの最適化は、前件(ガウス)メンバーシップ関数の幅とともに、二乗平均平方根誤差の最小化に基づく勾配降下アルゴリズムによって行われます。
最後に、すべての前件と後件のパラメーターの最適化は、前件(ガウス)メンバーシップ関数の幅とともに、二乗平均平方根誤差の最小化に基づく勾配降下アルゴリズムによって行われます。
Full Text
In order to train the DL-CNN, we used ReLu, the root mean square error function, and Stochastic Gradient Descent (SGD) for the activation, loss/cost function, and optimization, respectively.
DL-CNNをトレーニングするために、アクティブ化、損失/コスト関数、および最適化に、それぞれReLu、二乗平均平方根誤差関数、および確率的勾配降下法(SGD)を使用しました。
DL-CNNをトレーニングするために、アクティブ化、損失/コスト関数、および最適化に、それぞれReLu、二乗平均平方根誤差関数、および確率的勾配降下法(SGD)を使用しました。
Full Text
Gradient Descent sentence examples within non convex optimization
We formulate the decomposition as a non-convex optimization problem and solve it using gradient descent algorithms with adaptive step size.
分解を非凸最適化問題として定式化し、適応ステップサイズの勾配降下アルゴリズムを使用して解きます。
分解を非凸最適化問題として定式化し、適応ステップサイズの勾配降下アルゴリズムを使用して解きます。
Full Text
Recently, approaches based on non-convex optimization which solve the phase retrieval problem directly using gradient descent methods have become more and more popular.
最近、勾配降下法を使用して位相回復問題を直接解決する非凸最適化に基づくアプローチがますます一般的になっています。
最近、勾配降下法を使用して位相回復問題を直接解決する非凸最適化に基づくアプローチがますます一般的になっています。
Full Text
Gradient Descent sentence examples within neural architecture search
Differentiable architecture search (DARTS) enables effective neural architecture search (NAS) using gradient descent, but suffers from high memory and computational costs.
微分可能アーキテクチャ検索(DARTS)は、勾配降下法を使用した効果的なニューラルアーキテクチャ検索(NAS)を可能にしますが、メモリと計算コストが高くなります。
微分可能アーキテクチャ検索(DARTS)は、勾配降下法を使用した効果的なニューラルアーキテクチャ検索(NAS)を可能にしますが、メモリと計算コストが高くなります。
Full Text
An example of neural architecture search, DARTS operates upon a continuous, differentiable search space which enables both the architecture and parameters to be optimised via gradient descent.
ニューラルアーキテクチャ検索の例であるDARTSは、連続的で微分可能な検索空間で動作します。これにより、アーキテクチャとパラメータの両方を最急降下法で最適化できます。
ニューラルアーキテクチャ検索の例であるDARTSは、連続的で微分可能な検索空間で動作します。これにより、アーキテクチャとパラメータの両方を最急降下法で最適化できます。
Full Text
Gradient Descent sentence examples within entropy loss function
Then, the parameters of SDAE-based power flow models, with improved training speed and accuracy, are optimized by mini-batch gradient descent algorithm, momentum learning rate and introduced cross-entropy loss function.
次に、トレーニング速度と精度が向上したSDAEベースのパワーフローモデルのパラメーターが、ミニバッチ勾配降下アルゴリズム、運動量学習率、および導入されたクロスエントロピー損失関数によって最適化されます。
次に、トレーニング速度と精度が向上したSDAEベースのパワーフローモデルのパラメーターが、ミニバッチ勾配降下アルゴリズム、運動量学習率、および導入されたクロスエントロピー損失関数によって最適化されます。
Full Text
To tackle the latter problem, we propose a learning algorithm to reduce the fuzziness of the similarity matrix by minimizing a weighted binary entropy loss function via gradient descent and back-propagation.
後者の問題に取り組むために、勾配降下法とバックプロパゲーションを介して重み付き二値エントロピー損失関数を最小化することにより、類似性行列のあいまいさを低減する学習アルゴリズムを提案します。
後者の問題に取り組むために、勾配降下法とバックプロパゲーションを介して重み付き二値エントロピー損失関数を最小化することにより、類似性行列のあいまいさを低減する学習アルゴリズムを提案します。
Full Text
Gradient Descent sentence examples within optimal step size
The optimal step-size alters the characteristics of the IPNLMS algorithm and provides a novel gradient descent adaptive filter.
最適なステップサイズは、IPNLMSアルゴリズムの特性を変更し、新しい勾配降下適応フィルターを提供します。
最適なステップサイズは、IPNLMSアルゴリズムの特性を変更し、新しい勾配降下適応フィルターを提供します。
Full Text
A gradient descent method with optimal step size is developed for solving the optimization problem.
最適化問題を解くために、最適なステップサイズの最急降下法が開発されました。
最適化問題を解くために、最適なステップサイズの最急降下法が開発されました。
Full Text
Gradient Descent sentence examples within back propagation algorithm
Considering the noise impact of channel estimation and the incomplete detection and cancellation in SIC process, we introduce some new parameters, such as noise cancellation factor and interference cancellation factor, which are optimized by using the back-propagation algorithm and random gradient descent algorithm.
チャネル推定のノイズへの影響とSICプロセスでの不完全な検出とキャンセルを考慮して、バックプロパゲーションアルゴリズムとランダム勾配降下アルゴリズムを使用して最適化されたノイズキャンセル係数や干渉キャンセル係数などのいくつかの新しいパラメータを導入します。
チャネル推定のノイズへの影響とSICプロセスでの不完全な検出とキャンセルを考慮して、バックプロパゲーションアルゴリズムとランダム勾配降下アルゴリズムを使用して最適化されたノイズキャンセル係数や干渉キャンセル係数などのいくつかの新しいパラメータを導入します。
Full Text
A neural network learns by updating the weights, which is done using the Back Propagation algorithm, which uses first-order derivatives of the activation functions to calculate the gradient descent.
ニューラルネットワークは、重みを更新することによって学習します。これは、活性化関数の1次導関数を使用して最急降下法を計算するバックプロパゲーションアルゴリズムを使用して行われます。
ニューラルネットワークは、重みを更新することによって学習します。これは、活性化関数の1次導関数を使用して最急降下法を計算するバックプロパゲーションアルゴリズムを使用して行われます。
Full Text
Gradient Descent sentence examples within low rank matrix
In this paper we present an exact line search approach in order to find a suitable step size for the problem of recovering a low-rank matrix from linear measurements via non-convex bi-factored matrix factorization approaches as used in the bi-factored gradient descent (BFGD) algorithm.
この論文では、二因子最急降下法で使用される非凸二因子行列因数分解アプローチを介して線形測定から低ランク行列を回復する問題に適したステップサイズを見つけるために、正確な直線探索アプローチを提示します。 (BFGD)アルゴリズム。
この論文では、二因子最急降下法で使用される非凸二因子行列因数分解アプローチを介して線形測定から低ランク行列を回復する問題に適したステップサイズを見つけるために、正確な直線探索アプローチを提示します。 (BFGD)アルゴリズム。
Full Text
While tremendous progress has been made in recent years, the natural smooth formulation suffers from two sources of ill-conditioning, where the iteration complexity of gradient descent scales poorly both with the dimension as well as the condition number of the low-rank matrix.
近年、目覚ましい進歩が見られましたが、自然な滑らかな定式化は、最急降下法の反復の複雑さが、低ランク行列の次元と条件数の両方で不十分にスケーリングするという2つの悪条件の原因に悩まされています。
近年、目覚ましい進歩が見られましたが、自然な滑らかな定式化は、最急降下法の反復の複雑さが、低ランク行列の次元と条件数の両方で不十分にスケーリングするという2つの悪条件の原因に悩まされています。
Full Text
Gradient Descent sentence examples within critic network weight
The critic network weight vector is tuned through a modified gradient descent method, which simultaneously uses historical and instantaneous state data.
批評家のネットワークの重みベクトルは、過去の状態データと瞬間的な状態データを同時に使用する、修正された勾配降下法によって調整されます。
批評家のネットワークの重みベクトルは、過去の状態データと瞬間的な状態データを同時に使用する、修正された勾配降下法によって調整されます。
Full Text
Besides the conventional term derived from the gradient descent method, the second term derived from the experience replay (ER) technique utilizes the historical state data to update the critic network weight vector so as to remove the persistence of excitation (PE) condition.
最急降下法から派生した従来の用語に加えて、経験再生(ER)手法から派生した第2の用語は、履歴状態データを利用して、励起の持続性(PE)条件を削除するように批評家ネットワークの重みベクトルを更新します。
最急降下法から派生した従来の用語に加えて、経験再生(ER)手法から派生した第2の用語は、履歴状態データを利用して、励起の持続性(PE)条件を削除するように批評家ネットワークの重みベクトルを更新します。
Full Text
Gradient Descent sentence examples within neural network model
Large neural network models present a hefty communication challenge to distributed Stochastic Gradient Descent (SGD), with a per-iteration communication complexity of $\mathcal{O}(n)$ per worker for a model of n parameters.
大規模なニューラルネットワークモデルは、分散確率的勾配降下法(SGD)に対して大きな通信の課題を提示し、n個のパラメーターのモデルに対してワーカーあたり$ \ mathcal {O}(n)$の反復ごとの通信の複雑さを伴います。
大規模なニューラルネットワークモデルは、分散確率的勾配降下法(SGD)に対して大きな通信の課題を提示し、n個のパラメーターのモデルに対してワーカーあたり$ \ mathcal {O}(n)$の反復ごとの通信の複雑さを伴います。
Full Text
Stochastic gradient descent (SGD) algorithm and its variations have been effectively used to optimize neural network models.
確率的勾配降下法(SGD)アルゴリズムとそのバリエーションは、ニューラルネットワークモデルを最適化するために効果的に使用されています。
確率的勾配降下法(SGD)アルゴリズムとそのバリエーションは、ニューラルネットワークモデルを最適化するために効果的に使用されています。
Full Text
Gradient Descent sentence examples within differentially private stochastic
In one case study, the proposed method realizes ultralow-cost differentially private stochastic gradient descent (DP-SGD) for edge AI in IoT systems, achieving a 3.
あるケーススタディでは、提案された方法は、IoTシステムのエッジAIに対して超低コストの差分プライベート確率的勾配降下法(DP-SGD)を実現し、3を達成します。
あるケーススタディでは、提案された方法は、IoTシステムのエッジAIに対して超低コストの差分プライベート確率的勾配降下法(DP-SGD)を実現し、3を達成します。
Full Text
In differentially private stochastic gradient descent (DPSGD), gradient clipping and random noise addition disproportionately affect underrepresented and complex classes and subgroups.
差分プライベート確率的勾配降下法(DPSGD)では、勾配クリッピングとランダムノイズの追加が、過小評価された複雑なクラスとサブグループに不釣り合いに影響します。
差分プライベート確率的勾配降下法(DPSGD)では、勾配クリッピングとランダムノイズの追加が、過小評価された複雑なクラスとサブグループに不釣り合いに影響します。
Full Text
Gradient Descent sentence examples within first order stochastic
Although first-order stochastic algorithms, such as stochastic gradient descent, have been the main force to scale up machine learning models, such as deep neural nets, the second-order quasi-Newton methods start to draw attention due to their effectiveness in dealing with ill-conditioned optimization problems.
確率的勾配降下法などの1次確率的アルゴリズムは、ディープニューラルネットなどの機械学習モデルをスケールアップする主な力でしたが、2次準ニュートン法は、その有効性から注目を集め始めています。悪条件の最適化問題。
確率的勾配降下法などの1次確率的アルゴリズムは、ディープニューラルネットなどの機械学習モデルをスケールアップする主な力でしたが、2次準ニュートン法は、その有効性から注目を集め始めています。悪条件の最適化問題。
Full Text
In order to take the advantage of this acceleration in multi-stage stochastic optimization, we develop a multi-stage stochastic gradient descent with momentum acceleration method, named MAGNET, for first-order stochastic convex optimization.
多段確率的最適化でこの加速を利用するために、一次確率的凸最適化のために、MAGNETと呼ばれる運動量加速法を用いた多段確率的勾配降下法を開発します。
多段確率的最適化でこの加速を利用するために、一次確率的凸最適化のために、MAGNETと呼ばれる運動量加速法を用いた多段確率的勾配降下法を開発します。
Full Text
Gradient Descent sentence examples within neural network classifier
The designed fuzzy neural network classifier also uses the backward propagation algorithm of the gradient descent principle to modify its connection weights.
設計されたファジーニューラルネットワーク分類器は、最急降下法の後方伝播アルゴリズムを使用して、接続の重みを変更します。
設計されたファジーニューラルネットワーク分類器は、最急降下法の後方伝播アルゴリズムを使用して、接続の重みを変更します。
Full Text
The predictive safety model is developed in the knowledge-processing unit using supervised deep learning with neural network classifier and gradient descent backpropagation error function.
予測安全モデルは、ニューラルネットワーク分類器と勾配降下バックプロパゲーションエラー関数を使用した教師あり深層学習を使用して、知識処理ユニットで開発されます。
予測安全モデルは、ニューラルネットワーク分類器と勾配降下バックプロパゲーションエラー関数を使用した教師あり深層学習を使用して、知識処理ユニットで開発されます。
Full Text
Gradient Descent sentence examples within sliding mode controller
This paper develops an adaptive robust combination of feedback linearization (FL) and sliding mode controller (SMC) based on fuzzy rules and gradient descent laws.
この論文は、ファジー規則と勾配降下法則に基づいて、フィードバック線形化(FL)とスライディングモードコントローラー(SMC)の適応性のあるロバストな組み合わせを開発します。
この論文は、ファジー規則と勾配降下法則に基づいて、フィードバック線形化(FL)とスライディングモードコントローラー(SMC)の適応性のあるロバストな組み合わせを開発します。
Full Text
More precisely, the proposed controller is a combination of a decoupled sliding mode controller (DSMC) and adaption laws based on the gradient descent approach.
より正確には、提案されたコントローラーは、分離スライディングモードコントローラー(DSMC)と、勾配降下法に基づく適応則の組み合わせです。
より正確には、提案されたコントローラーは、分離スライディングモードコントローラー(DSMC)と、勾配降下法に基づく適応則の組み合わせです。
Full Text
Gradient Descent sentence examples within various machine learning
To analyze the various machine learning techniques on DCA and PIMA Indian diabetic datasets for the classification of diabetic and non-diabetic patients, different classifiers like perceptron, Gaussian process, linear discriminant analysis, quadratic discriminant analysis, statistical gradient descent, ridge regression classifier, support vector machines, k-nearest neighbors, decision tree, naïve Bayes, logistic regression, random forest and ELM for multiquadric, RBF, sigmoid activation functions are used.
糖尿病患者と非糖尿病患者の分類のためのDCAおよびPIMAインド糖尿病データセットのさまざまな機械学習手法を分析するには、パーセプトロン、ガウスプロセス、線形判別分析、二次判別分析、統計的勾配降下、リッジ回帰分類器、サポートなどのさまざまな分類器ベクトル機械、k最近傍法、決定ツリー、ナイーブベイズ、ロジスティック回帰、ランダムフォレスト、および多二次、RBF、シグモイド活性化関数のELMが使用されます。
糖尿病患者と非糖尿病患者の分類のためのDCAおよびPIMAインド糖尿病データセットのさまざまな機械学習手法を分析するには、パーセプトロン、ガウスプロセス、線形判別分析、二次判別分析、統計的勾配降下、リッジ回帰分類器、サポートなどのさまざまな分類器ベクトル機械、k最近傍法、決定ツリー、ナイーブベイズ、ロジスティック回帰、ランダムフォレスト、および多二次、RBF、シグモイド活性化関数のELMが使用されます。
Full Text
In this study, various machine learning techniques such as Levenberg–Marquardt neural networks (LMNN), scaled conjugate gradient descent neural networks (SCDNN), and support vector machine (SVM) in comparison with nonlinear regression model (NLM) and response surface model (RSM) were employed for modeling photocatalytic hydrogen production from ethanol using copper oxide (CuO) nanoparticles as photocatalyst.
この研究では、Levenberg–Marquardtニューラルネットワーク(LMNN)、スケーリングされた共役勾配降下ニューラルネットワーク(SCDNN)、サポートベクターマシン(SVM)などのさまざまな機械学習手法を非線形回帰モデル(NLM)および応答表面モデル( RSM)は、光触媒として酸化銅(CuO)ナノ粒子を使用したエタノールからの光触媒水素生成のモデル化に使用されました。
この研究では、Levenberg–Marquardtニューラルネットワーク(LMNN)、スケーリングされた共役勾配降下ニューラルネットワーク(SCDNN)、サポートベクターマシン(SVM)などのさまざまな機械学習手法を非線形回帰モデル(NLM)および応答表面モデル( RSM)は、光触媒として酸化銅(CuO)ナノ粒子を使用したエタノールからの光触媒水素生成のモデル化に使用されました。
Full Text
Gradient Descent sentence examples within decentralized parallel stochastic
To address this concern, under the celebrated framework of differential privacy (DP), we present in this paper a decentralized parallel stochastic gradient descent (D-PSGD) algorithm, called DP<inline-formula><tex-math notation="LaTeX">$ {\rm \bf ^{2}}$</tex-math></inline-formula>-SGD, which can offer protection for privacy of users in vehicular networks.
この懸念に対処するために、差分プライバシー(DP)の有名なフレームワークの下で、この論文では、DP <inline-formula> <tex-math notation = "LaTeX"と呼ばれる分散型並列確率的勾配降下(D-PSGD)アルゴリズムを紹介します。 > $ {\ rm \ bf ^ {2}} $ </ tex-math> </ inline-formula>-SGD。これにより、車両ネットワークのユーザーのプライバシーを保護できます。
この懸念に対処するために、差分プライバシー(DP)の有名なフレームワークの下で、この論文では、DP <inline-formula> <tex-math notation = "LaTeX"と呼ばれる分散型並列確率的勾配降下(D-PSGD)アルゴリズムを紹介します。 > $ {\ rm \ bf ^ {2}} $ </ tex-math> </ inline-formula>-SGD。これにより、車両ネットワークのユーザーのプライバシーを保護できます。
Full Text
To address this problem, we propose a decentralized parallel stochastic gradient descent algorithm (D-(DP)SGD) with differential privacy in dynamic networks.
この問題に対処するために、動的ネットワークで差分プライバシーを使用した分散型並列確率的勾配降下アルゴリズム(D-(DP)SGD)を提案します。
この問題に対処するために、動的ネットワークで差分プライバシーを使用した分散型並列確率的勾配降下アルゴリズム(D-(DP)SGD)を提案します。
Full Text
Gradient Descent sentence examples within local optimal problem
The multigradient recursive RL algorithm is used to avoid the local optimal problem that may exist in the gradient descent scheme.
最急降下法に存在する可能性のある局所最適問題を回避するために、多勾配再帰RLアルゴリズムが使用されます。
最急降下法に存在する可能性のある局所最適問題を回避するために、多勾配再帰RLアルゴリズムが使用されます。
Full Text
A novel learning strategy, the socalled MGR, is proposed to learning the weight vector, which can not only eliminate the local optimal problem that inherent in the gradient descent method but also improve the rate of convergency.
重みベクトルを学習するために、新しい学習戦略、いわゆるMGRが提案されています。これは、最急降下法に固有の局所最適問題を排除するだけでなく、収束率を向上させることもできます。
重みベクトルを学習するために、新しい学習戦略、いわゆるMGRが提案されています。これは、最急降下法に固有の局所最適問題を排除するだけでなく、収束率を向上させることもできます。
Full Text
Gradient Descent sentence examples within train deep neural
Distributed synchronous stochastic gradient descent has been widely used to train deep neural networks (DNNs) on computer clusters.
分散同期確率的勾配降下法は、コンピュータークラスターでディープニューラルネットワーク(DNN)をトレーニングするために広く使用されています。
分散同期確率的勾配降下法は、コンピュータークラスターでディープニューラルネットワーク(DNN)をトレーニングするために広く使用されています。
Full Text
Stochastic Gradient Descent (SGD) has become the de facto way to train deep neural networks in distributed clusters.
確率的勾配降下法(SGD)は、分散クラスターでディープニューラルネットワークをトレーニングするための事実上の方法になりました。
確率的勾配降下法(SGD)は、分散クラスターでディープニューラルネットワークをトレーニングするための事実上の方法になりました。
Full Text
Gradient Descent sentence examples within regression random forest
The methodology proposed in this paper learns the pattern of every observation using the following algorithms: Linear Regression, Random Forest and Stochastic Gradient Descent (SGD).
このホワイトペーパーで提案する方法論では、線形回帰、ランダムフォレスト、確率的勾配降下法(SGD)のアルゴリズムを使用して、すべての観測のパターンを学習します。
このホワイトペーパーで提案する方法論では、線形回帰、ランダムフォレスト、確率的勾配降下法(SGD)のアルゴリズムを使用して、すべての観測のパターンを学習します。
Full Text
Stochastic Gradient Descent, Decision Trees, Logistic Regression, Random Forests, and Bagging are applied in this study.
この研究では、確率的勾配降下法、決定木、ロジスティック回帰、ランダムフォレスト、およびバギングが適用されます。
この研究では、確率的勾配降下法、決定木、ロジスティック回帰、ランダムフォレスト、およびバギングが適用されます。
Full Text
Gradient Descent sentence examples within stochastic variance reduced
The first is a stochastic variance reduced EM algorithm, termed as SVREM, an extension of the classical EM to the stochastic context that combines classical OSEM with variance reduction techniques for gradient descent.
1つ目は、SVREMと呼ばれる確率的分散減少EMアルゴリズムです。これは、古典的OSEMと最急降下法の分散減少手法を組み合わせた確率的コンテキストへの古典的EMの拡張です。
1つ目は、SVREMと呼ばれる確率的分散減少EMアルゴリズムです。これは、古典的OSEMと最急降下法の分散減少手法を組み合わせた確率的コンテキストへの古典的EMの拡張です。
Full Text
Although existing approaches such as stochastic gradient descent (SGD) and stochastic variance reduced gradient (SVRG) descent can be applied to solve this problem, their query complexities tend to be high, especially when the number of inner component functions is large.
この問題を解決するために確率的勾配降下法(SGD)や確率的分散減少法(SVRG)法などの既存のアプローチを適用できますが、特に内部コンポーネント関数の数が多い場合、クエリの複雑さが高くなる傾向があります。
この問題を解決するために確率的勾配降下法(SGD)や確率的分散減少法(SVRG)法などの既存のアプローチを適用できますが、特に内部コンポーネント関数の数が多い場合、クエリの複雑さが高くなる傾向があります。
Full Text
Gradient Descent sentence examples within constrained optimization problem
We address the ensuing constrained optimization problem with differentiable penalties, fully suited for conventional stochastic gradient descent approaches.
従来の確率的勾配降下法に完全に適した、微分可能なペナルティを使用して、その後の制約付き最適化問題に対処します。
従来の確率的勾配降下法に完全に適した、微分可能なペナルティを使用して、その後の制約付き最適化問題に対処します。
Full Text
We then recover the two distinct components by solving a constrained optimization problem that admits computationally efficient convex solvers within the proximal gradient descent and alternating direction method of multipliers frameworks.
次に、最急降下法と乗数フレームワークの交互方向法内で計算効率の高い凸ソルバーを認める制約付き最適化問題を解くことにより、2つの異なるコンポーネントを復元します。
次に、最急降下法と乗数フレームワークの交互方向法内で計算効率の高い凸ソルバーを認める制約付き最適化問題を解くことにより、2つの異なるコンポーネントを復元します。
Full Text
Gradient Descent sentence examples within finite difference implementation
This is normally done by solving the Poisson equation, most oftenly by means of a finite difference implementation of the gradient descent method.
これは通常、ポアソン方程式を解くことによって行われます。ほとんどの場合、最急降下法の有限差分実装によって行われます。
これは通常、ポアソン方程式を解くことによって行われます。ほとんどの場合、最急降下法の有限差分実装によって行われます。
Full Text
This is normally done by solving the Poisson equation, most oftenly by means of a finite difference implementation of the gradient descent method.
これは通常、ポアソン方程式を解くことによって行われます。ほとんどの場合、最急降下法の有限差分実装によって行われます。
これは通常、ポアソン方程式を解くことによって行われます。ほとんどの場合、最急降下法の有限差分実装によって行われます。
Full Text
Gradient Descent sentence examples within noise covariance estimation
This paper presents a single-pass stochastic gradient descent (SGD) algorithm for noise covariance estimation for use in adaptive Kalman filters applied to non-stationary systems where the noise covariances can occasionally jump up or down by an unknown magnitude.
この論文は、ノイズ共分散が時々未知の大きさで上下する可能性がある非定常システムに適用される適応カルマンフィルターで使用するためのノイズ共分散推定のためのシングルパス確率的勾配降下(SGD)アルゴリズムを提示します。
この論文は、ノイズ共分散が時々未知の大きさで上下する可能性がある非定常システムに適用される適応カルマンフィルターで使用するためのノイズ共分散推定のためのシングルパス確率的勾配降下(SGD)アルゴリズムを提示します。
Full Text
This paper presents stochastic gradient descent algorithms for noise covariance estimation in adaptive Kalman filters that are an order of magnitude faster than the batch method for similar or better root mean square error.
この論文は、適応カルマンフィルターにおけるノイズ共分散推定のための確率的勾配降下アルゴリズムを提示します。これは、類似またはより良い二乗平均平方根誤差のバッチ法よりも桁違いに高速です。
この論文は、適応カルマンフィルターにおけるノイズ共分散推定のための確率的勾配降下アルゴリズムを提示します。これは、類似またはより良い二乗平均平方根誤差のバッチ法よりも桁違いに高速です。
Full Text
Gradient Descent sentence examples within closed form solution
Specifically, a modified mSDA, integrated with a dimensionality reduction method based on Transfer Component Analysis (TCA), not only facilitates the training acceleration by replacing the traditional gradient descent method of backpropagation with a forward closed-form solution, but also promotes gapping the discrepancy between various noise levels and transferring the classifier built from one noisy domain to others.
具体的には、Transfer Component Analysis(TCA)に基づく次元削減法と統合された修正mSDAは、バックプロパゲーションの従来の勾配降下法をフォワードクローズドフォームソリューションに置き換えることでトレーニングの加速を促進するだけでなく、不一致のギャップを促進しますさまざまなノイズレベル間で、あるノイズの多いドメインから構築された分類器を別のドメインに転送します。
具体的には、Transfer Component Analysis(TCA)に基づく次元削減法と統合された修正mSDAは、バックプロパゲーションの従来の勾配降下法をフォワードクローズドフォームソリューションに置き換えることでトレーニングの加速を促進するだけでなく、不一致のギャップを促進しますさまざまなノイズレベル間で、あるノイズの多いドメインから構築された分類器を別のドメインに転送します。
Full Text
The simulation results for all cases indicate the robustness and the computational efficiency of our proposed method compared to the steepest gradient descent method with the closed-form solution.
すべての場合のシミュレーション結果は、閉形式の解を使用した最急降下法と比較した、提案された方法のロバスト性と計算効率を示しています。
すべての場合のシミュレーション結果は、閉形式の解を使用した最急降下法と比較した、提案された方法のロバスト性と計算効率を示しています。
Full Text
Gradient Descent sentence examples within least mean square
In this paper, we study, analyse and compare the performance of two closely related stochastic gradient descent-based approaches, namely the least mean square (LMS) algorithm, and the normalized least mean square (NLMS) algorithm, for tracking the transmit array beam in addition to the channel status.
この論文では、送信アレイビームを追跡するための、2つの密接に関連する確率的勾配降下法に基づくアプローチ、つまり最小平均二乗(LMS)アルゴリズムと正規化最小平均二乗(NLMS)アルゴリズムのパフォーマンスを調査、分析、比較します。チャネルステータスに加えて。
この論文では、送信アレイビームを追跡するための、2つの密接に関連する確率的勾配降下法に基づくアプローチ、つまり最小平均二乗(LMS)アルゴリズムと正規化最小平均二乗(NLMS)アルゴリズムのパフォーマンスを調査、分析、比較します。チャネルステータスに加えて。
Full Text
The kernel least mean square (KLMS) using the stochastic gradient descent (SGD) method has been proposed successfully in a Gaussian noise.
確率的勾配降下法(SGD)法を使用したカーネル最小平均二乗(KLMS)は、ガウスノイズでうまく提案されています。
確率的勾配降下法(SGD)法を使用したカーネル最小平均二乗(KLMS)は、ガウスノイズでうまく提案されています。
Full Text
Gradient Descent sentence examples within convex optimization problem
Accordingly, this can not be solved using powerful optimization techniques such as the gradient descent algorithm or other convex optimization problem, and it leads to high computational complexity.
したがって、これは、勾配降下アルゴリズムやその他の凸最適化問題などの強力な最適化手法を使用して解決することはできず、計算が非常に複雑になります。
したがって、これは、勾配降下アルゴリズムやその他の凸最適化問題などの強力な最適化手法を使用して解決することはできず、計算が非常に複雑になります。
Full Text
In this paper we propose the gradient descent type methods to solve convex optimization problems in Hilbert space.
本論文ではヒルベルト空間における凸最適化問題を解くための勾配降下型法を提案した。
本論文ではヒルベルト空間における凸最適化問題を解くための勾配降下型法を提案した。
Full Text
Gradient Descent sentence examples within feedforward neural network
Aiming at the problem that it is easily trapped into a local optimum when applying steepest gradient descent method to train feedforward neural network, in this paper we propose an algorithm based on non-monotone conjugate gradient to optimize the training process of feedforward neural network that used in the multiple classification task.
最急降下法を適用してフィードフォワードニューラルネットワークをトレーニングするときに局所最適に簡単に閉じ込められるという問題を目指して、本論文では、非単調共役勾配に基づくアルゴリズムを提案し、使用したフィードフォワードニューラルネットワークのトレーニングプロセスを最適化します。複数分類タスクで。
最急降下法を適用してフィードフォワードニューラルネットワークをトレーニングするときに局所最適に簡単に閉じ込められるという問題を目指して、本論文では、非単調共役勾配に基づくアルゴリズムを提案し、使用したフィードフォワードニューラルネットワークのトレーニングプロセスを最適化します。複数分類タスクで。
Full Text
In this paper, an artificial intelligence-based model was built using deep learning and was trained using stochastic gradient descent and feedforward neural networks.
この論文では、人工知能ベースのモデルが深層学習を使用して構築され、確率的勾配降下法とフィードフォワードニューラルネットワークを使用してトレーニングされました。
この論文では、人工知能ベースのモデルが深層学習を使用して構築され、確率的勾配降下法とフィードフォワードニューラルネットワークを使用してトレーニングされました。
Full Text
Gradient Descent sentence examples within decision tree classifier
It extract most important key points from SURF features and then the extracted image has classified by using the novel Gradient descent decision tree classifier in which a stable learning path provided for easy convergence.
SURFの特徴から最も重要なキーポイントを抽出し、抽出された画像は、安定した学習パスが収束を容易にする新しい勾配降下決定木分類器を使用して分類されます。
SURFの特徴から最も重要なキーポイントを抽出し、抽出された画像は、安定した学習パスが収束を容易にする新しい勾配降下決定木分類器を使用して分類されます。
Full Text
In this study, some machine learning algorithms are used such as Naive Bayes, Sequential Minimal Optimization (SMO), logistic regression, Stochastic Gradient Descent (SGD), bagging classifier, J48 classifier, decision tree classifier, and random forest classifier.
この研究では、単純ベイズ、シーケンシャル最小最適化(SMO)、ロジスティック回帰、確率的勾配降下(SGD)、バギング分類器、J48分類器、決定ツリー分類器、ランダムフォレスト分類器などのいくつかの機械学習アルゴリズムが使用されます。
この研究では、単純ベイズ、シーケンシャル最小最適化(SMO)、ロジスティック回帰、確率的勾配降下(SGD)、バギング分類器、J48分類器、決定ツリー分類器、ランダムフォレスト分類器などのいくつかの機械学習アルゴリズムが使用されます。
Full Text
Gradient Descent sentence examples within mean square error
Our simulation results show that the proposed algorithm affords a near-global-optimum solution with lower computation complexity than exhaustive search, and outperforms the fixed-power, weighted minimum mean square error (WMMSE), gradient descent method, and Newton-Raphson approaches.
私たちのシミュレーション結果は、提案されたアルゴリズムが、全数検索よりも計算の複雑さが低く、固定電力、加重最小平均二乗誤差(WMMSE)、勾配降下法、およびニュートンラプソンアプローチよりも優れた、ほぼグローバルな最適解を提供することを示しています。
私たちのシミュレーション結果は、提案されたアルゴリズムが、全数検索よりも計算の複雑さが低く、固定電力、加重最小平均二乗誤差(WMMSE)、勾配降下法、およびニュートンラプソンアプローチよりも優れた、ほぼグローバルな最適解を提供することを示しています。
Full Text
Gradient Descent is the process which uses cost function on gradients for minimizing the complexity in computing mean square error.
最急降下法は、平均二乗誤差の計算の複雑さを最小限に抑えるために、勾配のコスト関数を使用するプロセスです。
最急降下法は、平均二乗誤差の計算の複雑さを最小限に抑えるために、勾配のコスト関数を使用するプロセスです。
Full Text
Gradient Descent sentence examples within Stochastic Gradient Descent
Stochastic gradient descent (adam optimizer) was used to change the weights for each input on each epoch.
確率的勾配降下法(adamoptimizer)を使用して、各エポックの各入力の重みを変更しました。
確率的勾配降下法(adamoptimizer)を使用して、各エポックの各入力の重みを変更しました。
Full Text
One of the key challenges in FL is the non-independent and identically distributed (Non-IID) data across the clients, which decreases the efficiency of stochastic gradient descent (SGD) based training process.
FLの重要な課題の1つは、クライアント間で独立していない同一分布(Non-IID)データであり、確率的勾配降下(SGD)ベースのトレーニングプロセスの効率を低下させます。
FLの重要な課題の1つは、クライアント間で独立していない同一分布(Non-IID)データであり、確率的勾配降下(SGD)ベースのトレーニングプロセスの効率を低下させます。
Full Text
Gradient Descent sentence examples within Projected Gradient Descent
iterative-FGSM–, projected gradient descent (PGD), and Carlini-Wagner (CW) attack.
反復-FGSM–、投影勾配降下(PGD)、およびCarlini-Wagner(CW)攻撃。
反復-FGSM–、投影勾配降下(PGD)、およびCarlini-Wagner(CW)攻撃。
Full Text
We prove that even though our approach leads to a non-convex objective, any local minimizer has an optimal statistical error (up to a log term) and the projected gradient descent algorithm has geometric convergence rates.
私たちのアプローチが非凸の目的につながるとしても、任意の局所最小化器には最適な統計誤差(対数項まで)があり、射影勾配降下アルゴリズムには幾何学的収束率があることを証明します。
私たちのアプローチが非凸の目的につながるとしても、任意の局所最小化器には最適な統計誤差(対数項まで)があり、射影勾配降下アルゴリズムには幾何学的収束率があることを証明します。
Full Text
Gradient Descent sentence examples within Parallel Gradient Descent
In order to improve the wavefront distortion correction performance of the classical stochastic parallel gradient descent (SPGD) algorithm, an optimized algorithm based on Nesterov-accelerated adaptive momentum estimation is proposed.
古典的な確率的平行勾配降下(SPGD)アルゴリズムの波面歪み補正性能を改善するために、ネステロフ加速適応運動量推定に基づく最適化されたアルゴリズムが提案されます。
古典的な確率的平行勾配降下(SPGD)アルゴリズムの波面歪み補正性能を改善するために、ネステロフ加速適応運動量推定に基づく最適化されたアルゴリズムが提案されます。
Full Text
The performance difference between the Q-learning algorithm and the stochastic parallel gradient descent optimization algorithm(SPGD) is analyzed by simulating time-domain coherent synthesis.
Q学習アルゴリズムと確率的並列勾配降下最適化アルゴリズム(SPGD)のパフォーマンスの違いは、時間領域のコヒーレント合成をシミュレートすることによって分析されます。
Q学習アルゴリズムと確率的並列勾配降下最適化アルゴリズム(SPGD)のパフォーマンスの違いは、時間領域のコヒーレント合成をシミュレートすることによって分析されます。
Full Text
Gradient Descent sentence examples within Batch Gradient Descent
We develop three distinct models: the batch gradient descent (BGD), the stochastic gradient descent (SGD), and the multilayer perceptron (MLP).
バッチ勾配降下法(BGD)、確率的勾配降下法(SGD)、多層パーセプトロン(MLP)の3つの異なるモデルを開発します。
バッチ勾配降下法(BGD)、確率的勾配降下法(SGD)、多層パーセプトロン(MLP)の3つの異なるモデルを開発します。
Full Text
The linear learning dynamics, in which the input vector maps to the output vector by a linear matrix whose elements are the subject of learning, has a stochastic version closely mimicking the Langevin dynamics when a full-batch gradient descent scheme is replaced by that of a stochastic gradient descent.
線形学習ダイナミクスは、要素が学習の対象である線形行列によって入力ベクトルが出力ベクトルにマッピングされ、フルバッチ最急降下法が確率的勾配降下法。
線形学習ダイナミクスは、要素が学習の対象である線形行列によって入力ベクトルが出力ベクトルにマッピングされ、フルバッチ最急降下法が確率的勾配降下法。
Full Text
Gradient Descent sentence examples within Online Gradient Descent
As a consequence, online gradient descent can be used to learn appropriate expert weights from repeated experiments with low regret.
結果として、オンライン勾配降下法を使用して、後悔の少ない繰り返しの実験から適切な専門家の重みを学ぶことができます。
結果として、オンライン勾配降下法を使用して、後悔の少ない繰り返しの実験から適切な専門家の重みを学ぶことができます。
Full Text
The proposed proximal online gradient descent algorithm is built to run in a fully decentralized manner and utilizes consensus updates over possibly disconnected graphs.
提案された近位オンライン勾配降下アルゴリズムは、完全に分散化された方法で実行されるように構築されており、切断されている可能性のあるグラフのコンセンサス更新を利用します。
提案された近位オンライン勾配降下アルゴリズムは、完全に分散化された方法で実行されるように構築されており、切断されている可能性のあるグラフのコンセンサス更新を利用します。
Full Text
Gradient Descent sentence examples within Proximal Gradient Descent
The proposed convex clustering formulation is numerically and efficiently solved with the proximal gradient descent algorithm within the Alternating Direction Method of Multipliers (ADMM) framework.
提案された凸型クラスタリングの定式化は、乗数の交互方向法(ADMM)フレームワーク内の近位最急降下アルゴリズムを使用して数値的かつ効率的に解決されます。
提案された凸型クラスタリングの定式化は、乗数の交互方向法(ADMM)フレームワーク内の近位最急降下アルゴリズムを使用して数値的かつ効率的に解決されます。
Full Text
Additionally, we develop an exhaustive search based proximal gradient descent method (PGM) for DL channel estimation.
さらに、DLチャネル推定のための全数検索ベースの最急降下法(PGM)を開発します。
さらに、DLチャネル推定のための全数検索ベースの最急降下法(PGM)を開発します。
Full Text
Gradient Descent sentence examples within Standard Gradient Descent
After that, we estimate the parameters separately using the standard gradient descent method.
その後、標準的な最急降下法を使用してパラメーターを個別に推定します。
その後、標準的な最急降下法を使用してパラメーターを個別に推定します。
Full Text
For the numerical realisation of both models, we consider standard gradient descent algorithms combined with Fourier-based approaches for the efficient computation of the sub-Laplacian evolution.
両方のモデルの数値的実現のために、サブラプラシアン進化の効率的な計算のためにフーリエベースのアプローチと組み合わせた標準的な勾配降下アルゴリズムを検討します。
両方のモデルの数値的実現のために、サブラプラシアン進化の効率的な計算のためにフーリエベースのアプローチと組み合わせた標準的な勾配降下アルゴリズムを検討します。
Full Text
Gradient Descent sentence examples within Adaptive Gradient Descent
We present a simple extension to the IRT modelling approach called IRT++, which combines both the 1-parameter and 2-parameter IRT models and modulates parameter optimisation through simple machine learning techniques like adaptive gradient descent and random-normal initialisation of parameters.
IRT ++と呼ばれるIRTモデリングアプローチの簡単な拡張機能を紹介します。これは、1パラメーターと2パラメーターの両方のIRTモデルを組み合わせ、適応勾配降下法やパラメーターのランダム正規初期化などの単純な機械学習手法を通じてパラメーターの最適化を調整します。
IRT ++と呼ばれるIRTモデリングアプローチの簡単な拡張機能を紹介します。これは、1パラメーターと2パラメーターの両方のIRTモデルを組み合わせ、適応勾配降下法やパラメーターのランダム正規初期化などの単純な機械学習手法を通じてパラメーターの最適化を調整します。
Full Text
We propose an efficient BERT-NILM tuned by new adaptive gradient descent with exponential long-term memory (Adax), using a deep learning (DL) architecture based on bidirectional encoder representations from transformers (BERT).
トランスフォーマー(BERT)からの双方向エンコーダー表現に基づく深層学習(DL)アーキテクチャを使用して、指数長期記憶(Adax)を備えた新しい適応勾配降下法によって調整された効率的なBERT-NILMを提案します。
トランスフォーマー(BERT)からの双方向エンコーダー表現に基づく深層学習(DL)アーキテクチャを使用して、指数長期記憶(Adax)を備えた新しい適応勾配降下法によって調整された効率的なBERT-NILMを提案します。