Особенности задачи оптимизации, возникающей при обучении нейронных сетей
Задачи оптимизации нейронных сетей имеют ряд специфических ограничений. Они связаны с огромной размерностью задачи обучения. Число параметров может достигать
![](../../../../img/tex/b/3/1/b31900aefd4e887336e5b9626c458223.png)
![](../../../../img/tex/3/1/5/315eaeb5964c1eea59a4bf48c9300e17.png)
![](../../../../img/tex/7/7/b/77b6a57f9f0ec10e5381fc0f2afe1350.png)
- Ограничение по памяти. Пусть - число параметров. Если алгоритм требует затрат памяти порядка, то он вряд ли применим для обучения. Желательно иметь алгоритмы, которые требуют затрат памяти.
- Возможность параллельного вычисления наиболее трудоемких этапов алгоритма, и желательно нейронной сетью.
- Обученный нейрокомпьютер должен с приемлемой точностью решать все тестовые задачи. Поэтому задача обучения становится многокритериальной задачей оптимизации: нужно найти точку общего минимума большого числа функций. Обучение нейрокомпьютера исходит из гипотезы о существовании этой точки.
- Обученный нейрокомпьютер должен иметь возможность приобретать новые навыки без утраты старых. Возможно более слабое требование: новые навыки могут сопровождаться потерей точности в старых, но потеря не должна быть существенной. Это означает, что в достаточно большой окрестности найденной точки общего минимума оценок их значения незначительно отличаются от минимальных. Итак, имеем четыре специфических ограничения, выделяющих обучение нейрокомпьютера из общих задач оптимизации:
- астрономическое число параметров;
- необходимость высокого параллелизма при обучении;
- многокритериальность решаемых задач;
- необходимость найти достаточно широкую область, в которой значения всех минимизируемых функций близки к минимальным.