Добавления к описанию
Типы векторов на входе сети
На форме "Наборы для обучения" мы выбираем вариант
формирования обучающего вектора. Исходя из этого варианта в Настройках сети мы определяем
количество нейронов во входном слое. Можно задать любое число, но
ориентироваться надо на выбранный в Наборах вариант.
Если количество нейронов входного слоя меньше, чем
количество коэффициентов уравнения (+ 1, если используем дискриминант), используется
меньше коэффициентов. Дискриминант используем обязательно, если он заказан.
Если количество нейронов входного слоя больше, чем
количество коэффициентов уравнения (+ 1, если используем дискриминант),
излишние члены обучающего вектора равны константе, заданной в Настройках, в
поле "Дополнение вектора на входе".
Итак, есть 4 варианта вектора, определяемые числом в поле
"Тип вектора на входе нейросети":
"1" – вектор состоит только из коэффициентов уравнения. Стандартное количество нейронов в этом случае
= Степень многочлена + 2.
"2" – вектор состоит только из квадратов коэффициентов уравнения. Стандартное количество нейронов
в этом случае = Степень многочлена + 2.
"3" – вектор состоит из коэффициентов
уравнения и дискриминанта. Стандартное количество нейронов в этом случае = Степень многочлена + 3.
"4" – вектор состоит из квадратов
коэффициентов уравнения и дискриминанта. Стандартное количество нейронов в
этом случае = Степень многочлена + 3.
Использование сохраненных коэффициентов уравнения
На главной форме есть галка «Сохраненное уравнение». При
завершении обучения сохраняются подогнанные коэффициенты уравнения. Для каждого
обучающего сигнала из набора они свои.
Если мы ставим эту галку, подгонка коэффициентов стартует с
сохраненного вектора коэффициентов, а не с базового.
Данная опция применяется при обучении и при распознавании,
т.к. подгонка уравнения по сигналу происходит и при распознавании.
При обучении это редко бывает полезно, т.к. сохраненные
коэффициенты могут находиться в «плохой» потенциальной яме в пространстве
решений. Разве что у нас есть хорошая, испытанная настройка и мы хотим ее
дообучить до еще более качественного состояния.
При распознавании ситуация похожая. Если мы все же включили
эту опцию при распознавании, надо следить за правильным выбором модельного
сигнала в Установках, т.к. подгонка коэффициентов будет стартовать с
сохраненных для этого модельного сигнала и может «застрять» в потенциальной яме
этого решения.
Описание функций активации
Каждая из функций активации параметризована двумя
параметрами:
k – множитель аргумента функции,
a – подъем по оси OY.
Функции заданы формулами:
Sigma:
f
= a + 1 / (1 + e(- k * x))
(Прим.: f(0) = a +
1/2)
Tanh:
f = a + tanh(k * x)
(Прим.: f(0) = a)
ReLU:
f = a, при x <= 0,
f = a + k * x, при x > 0.
(Прим.: f(0) = a)
Linear:
f = a + k * x
(Прим.: f(0) = a)
SQRT:
f = a, при x <= 0,
f = a + sqrt(k * x), при x > 0.
(Прим.: f(0) = a)
Log:
f = a, при x <= 0,
f = a + log(1 + k * x), при x > 0.
(Прим.: f(0) = a)