Если данные в файле имеют большие значения, которые выходят из эффективного диапазона входов или выходов нейронов, то нужно нормализовать данные.
Область «Learning Parameters Frame» управляет обучением сети.
Параметры Eta (h) и Alpha (a) напрямую связаны с алгоритмом обучения, т.к. новые веса - есть функция от производных предыдущих весов и самих предыдущих весов, например :
dW(i,j,t+1)=hdW(i,j,t)+adW(i,j,t-1)
W(i,j,t+1)=W(i,j,t)+dW(i,j,t)
Параметр Input Noise добавляет случайным образом входной шум на каждый входной узел. Обучение с шумом делает обучаемую сеть менее чувствительной к изменениям во входных значениях и может помогать избегать местных минимумов.
Параметр Weight Noise добавляет случайным образом входной шум к каждому весу. Этот шум заставит веса сети постоянно "колебаться", поскольку обучение прогрессирует.
Параметр Temp изменяет переменную Т в функции активации нейрона. Т - это множитель аргумента в функции активации, например, для сигмоидальной функции f(x,T)=1/(1+exp(-x*T)). Изменение параметра Т иногда делает процесс обучения быстрее, но в большинстве случаев наилучший результат достигается со значением этого параметра, которое стоит по умолчанию и равно 1.
Параметр Clip Patterns позволяет обучать сеть только на образцах - «patterns», имеющих ошибку в процессе обучения - «pattern error» большую, чем заданная целевая ошибка - «target error». Обученные образцы соответствуют следующему выражению
Pattern error >{значение параметра Clip Patterns}*Target error
Эту особенность очень полезно использовать, когда процент образцов, успешно прошедших обучение - «Good Patterns» (pattern error < target error) колеблется в пределах 90% - 100% и общая ошибка системы - «RMS» намного меньше, чем целевая ошибка - «target error». При установки этого параметра в 1 обучение будет производиться на образцах, не прошедших обучение и общая ошибка - «RMS» будет увеличиваться, но и процент образцов, прошедших обучение тоже будет увеличиваться.
Инициализация начальных весов производится случайным образом. Начальное и конечное значения генератора случайных чисел могут задаваться.
Результаты обучения можно наблюдать в области «Training Results Frame». В этой области можно ввести свою целевую ошибку - «target error».
Общая ошибка - «RMS error» ¾ ошибка обучения сети, которая показывает различие между ответом сети и обучающим образцом и подводит итог по всем выходам и всем обучающим образцам.
Изменение - «Change» ¾ различие между текущей общей ошибкой и значением предыдущей итерации.
Итерация - «Iterations» ¾ показывает количество итераций, которые были произведены в процессе обучения. Это число будет увеличиваться с шагом, определенным в параметре Iter/Calc, находящимся в области управления обучением сети «Learning Parameters Frame».
Процент образцов, успешно прошедших обучение - «Good Pats» ¾ процент числа образцов с ошибкой меньшей или равной целевой ошибке - «target error».
Целевая ошибка - «Target Error» ¾ установка критерия конца обучения. Обучение прекратится когда все образцы будут иметь ошибку, меньшую или равную целевой ошибке, другими словами когда параметр «Good Pats» = 100.
Для обучения сети был создан файл образцов p1.pat. Затем с помощью соответствующей команды open patterns открыт для работы в эмуляторе WinNN. После этого была произведены нормализация данных и запуск сети для обучения. Для достижения результата в процессе обучения нужно изменять значения начальных весов с помощью соответствующей кнопки Randomize и изменять параметр обучения h (Eta). В данном примере hзадавалось сначала 1, а потом уменьшалось до значения, которое удовлетворяло процесс обучения.
3.5 Результаты решения задачи.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.