Решение задач кластеризации и аппроксимации в нейросетевом логическом базисе. Описание сети Кохонена (алгоритм работы), страница 6

Если данные в файле имеют большие значения, которые выходят из эффективного диапазона входов или выходов нейронов, то нужно нормализовать данные.

Область «Learning Parameters Frame» управляет обучением сети.

Параметры Eta (h) и Alpha (a) напрямую связаны с алгоритмом обучения, т.к. новые веса - есть функция от производных предыдущих весов и самих предыдущих весов, например :

dW(i,j,t+1)=hdW(i,j,t)+adW(i,j,t-1)

W(i,j,t+1)=W(i,j,t)+dW(i,j,t)

Параметр Input Noise добавляет случайным образом входной шум на каждый входной узел. Обучение с шумом делает обучаемую сеть менее чувствительной к изменениям во входных значениях и может помогать избегать местных минимумов.

Параметр Weight Noise добавляет случайным образом входной шум к каждому весу. Этот шум заставит веса сети постоянно "колебаться", поскольку обучение прогрессирует.

Параметр Temp изменяет переменную Т в функции активации нейрона. Т - это множитель аргумента в функции активации, например, для сигмоидальной функции f(x,T)=1/(1+exp(-x*T)). Изменение параметра Т иногда делает процесс обучения быстрее, но в большинстве случаев наилучший результат достигается со значением этого параметра, которое стоит по умолчанию и равно 1. 

Параметр Clip Patterns позволяет обучать сеть только на образцах - «patterns», имеющих ошибку в процессе обучения - «pattern error» большую, чем заданная целевая ошибка - «target error». Обученные образцы соответствуют следующему выражению

Pattern error >{значение параметра Clip Patterns}*Target error

Эту особенность очень полезно использовать, когда процент образцов, успешно прошедших обучение - «Good Patterns» (pattern error < target error) колеблется в пределах 90% - 100% и общая ошибка системы  -   «RMS» намного меньше, чем целевая ошибка - «target error». При установки этого параметра в 1 обучение будет производиться на образцах, не прошедших обучение и общая ошибка  - «RMS» будет увеличиваться, но и процент образцов, прошедших обучение тоже будет увеличиваться.        

Инициализация начальных весов производится случайным образом. Начальное и конечное значения генератора случайных чисел могут задаваться.

Результаты обучения можно наблюдать в области «Training Results Frame». В этой области можно ввести свою целевую ошибку - «target error».

Общая ошибка - «RMS error» ¾  ошибка обучения сети, которая показывает различие между ответом сети и обучающим образцом и подводит итог по всем выходам и всем обучающим образцам.

Изменение - «Change» ¾  различие между текущей общей ошибкой и значением предыдущей итерации.

Итерация - «Iterations» ¾ показывает количество итераций, которые были произведены в процессе обучения. Это число будет увеличиваться с шагом, определенным в параметре Iter/Calc, находящимся в области управления обучением сети «Learning Parameters Frame». 

Процент образцов, успешно прошедших обучение - «Good Pats» ¾ процент числа образцов с ошибкой меньшей или равной целевой ошибке - «target error».

Целевая ошибка - «Target Error» ¾ установка критерия конца обучения. Обучение прекратится когда все образцы будут иметь ошибку, меньшую или равную целевой ошибке, другими словами когда параметр «Good Pats» = 100.

Для обучения сети был создан файл образцов p1.pat. Затем с помощью соответствующей команды open patterns открыт для работы в эмуляторе WinNN. После этого была произведены нормализация данных и запуск сети для обучения. Для достижения результата в процессе обучения нужно изменять значения начальных весов с помощью соответствующей кнопки Randomize и изменять параметр обучения h (Eta). В данном примере hзадавалось сначала 1, а потом уменьшалось до значения, которое удовлетворяло процесс обучения.

3.5 Результаты решения задачи.