Принятие управленческих решений в маркетинге с помощью компьютерных средств, страница 53

Иногда для унификации построения и настройки нейронной сети с учетом структуры нейрона (см. рис. 20Рис. 20) значение Θ принимается равным нулю, а для смещения используется еще один вход-константа x0 с единичным весом w0 = 1. Можно также использовать вход-константу, равную единице (x0 = 1), и подбирать вес этого входа w0.

○  Логистическая функция (см. рис. 3Рис. 3, а):

.

Эта активационная функция имеет вид сглаженного порога:  =0; F(0)= 0,5; =1, где σ – положительный параметр. Если он близок к 0, то функция близка к пороговой. Если σ = 1, то значение функции изменяется от 0,01 до 0,99 при изменении аргумента от -5 до +5. Величина σ обычно задается до начала обучения и в дальнейшем не изменяется.

○  Гауссиан

.

используется в качестве активационной функции для систем с радиальной базисной функцией.

Из нейронов строятся структуры различного вида, часто многоуровневые. Связи в них могут быть прямые (от низших уровней на высшие), обратные, между нейронами одного уровня и с временной задержкой.

Если сеть служит для классификации, то могут использоваться архитектуры

○  OCON[59], в которой имеется один выход с возможными значениями 0 (случай не принадлежит к данному классу) и 1 (принадлежит). Если классов несколько, то для каждого строится отдельная сеть;

○  ACON[60] , в которой строится единая сеть с числом выходов, равным числу классов.

Характеристики нейронной сети [43]:

○  потенциальная возможность параллельной обработки информации (эта возможность реализована в специализированных чипах распознавания образов);

○  адаптивность и самоорганизация: можно задавать структуру связей и настраивать веса входов и пороги каждого нейрона;

○  нелинейность, позволяющая добиться большой гибкости работы.

Обучение начинается с задания некоторых «разумных» значений w для всех входов всех нейронов, например, равных 1. Выбираются также начальные значения Θ, например, также равные 1.

Далее начинается тренировка – уточнение весов и порогов. Все применяемые методы эвристические, их сходимость в общем случае не доказана. На практике оказывается, что обучение происходит медленно, требуя многократных повторений.

На вход сети подаются заранее классифицированные наборы параметров. Цикл, в течение которого используются все имеющиеся случаи, называется эпохой. Тренировка требует нескольких эпох, а в ряде случаев – нескольких тысяч эпох.

В случае, если очередной набор параметров вызвал появление правильного выхода (соответствующего имеющемуся решению), сеть остается без изменений. Если же имеется отклонение полученного на выходе сети результата и имеющегося решения, то ее параметры корректируются. Здесь целесообразно пояснить процесс этой корректировки на содержательном уровне, не вводя дополнительных математических обозначений.

Если, например, сеть состоит из единственного нейрона с пороговой активационной функцией и его выход равен 1 (ситуация признана принадлежащей к заданному классу), а правильное решение – 0 (ситуация не принадлежит к заданному классу), то выходную величину следует уменьшить. Это можно сделать, уменьшив порог нейрона или уменьшив веса входов в базисной функции. Но веса входов бессмысленно уменьшать в одинаковой степени. Их надо изменять по-разному. Для этого определяется, «кто больше всех виноват». Это те входы, по которым пришли большие сигналы, и те входы, которые усилили входной сигнал в наибольшей степени. Веса таких входов уменьшаются сильнее. Существует ряд эвристических правил изменения весов и порогов. Например, на начальном этапе они изменяются быстрее, а к концу процесса – медленнее.