LOGIN TO YOUR ACCOUNT

Username
Password
Remember Me
Or use your Academic/Social account:

CREATE AN ACCOUNT

Or use your Academic/Social account:

Congratulations!

You have just completed your registration at OpenAire.

Before you can login to the site, you will need to activate your account. An e-mail will be sent to you with the proper instructions.

Important!

Please note that this site is currently undergoing Beta testing.
Any new content you create is not guaranteed to be present to the final version of the site upon release.

Thank you for your patience,
OpenAire Dev Team.

Close This Message

CREATE AN ACCOUNT

Name:
Username:
Password:
Verify Password:
E-mail:
Verify E-mail:
*All Fields Are Required.
Please Verify You Are Human:
fbtwitterlinkedinvimeoflicker grey 14rssslideshare1
Azarskov, Valerii N.; National Aviation University; Zhiteckii, Leonid S.; National Aviation University; Nikolaienko, Sergii A.; National Aviation University (2014)
Publisher: Национальный Авиационный Университет
Languages: English
Types: Unknown
Subjects: нелінійна система; нейромережна модель; градієнтний алгоритм; навчання; збіжність, UDC 681.5, nonlinear system; neural network model; gradient algorithm; learning; convergence, нелинейная система; нейросетевая модель; градиентный алгоритм; обучение; сходимость
Вивчено асимптотичні властивості градієнтного алгоритму зі сталим кроковим коефіцієнтом, що використовується для навчання в реальному часі нейромережних моделей нелінійних систем з одним прихованим шаром. Встановлено деякі умови, що гарантують збіжність цього алгоритму    Изучены асимптотические свойства градиентного алгоритма с постоянным шаговым коэффициентом, используемого для обучения в реальном времени нейросетевых моделей нелинейных систем с одним скрытым слоем. Установлены некоторые условия, гарантирующие сходимость этого алгоритма Asymptotic properties of the online gradient algorithm with a constant step size employed for learning in neural network models of nonlinear systems having one hidden layer are examined. Some conditions guaranteeing the convergence of this algorithm are established
  • No references.
  • No related research data.
  • No similar publications.