* и – число разрядов цифрового эквивалента для ПФИ и .
2.3. Модели и процедуры синтеза структур ПФИ на базе многослойных персептронных сетей
2.3.1. Двухслойная персептронная модель структуры преобразователя , осуществляющего классификацию аналогового сигнала
Далее приводятся этапы синтеза нейросетевой модели преобразователя с унитарным способом кодирования в диапазоне , , …, в виде:
, (2.17)
где определенное (s+1)‑е положение единственного единичного бита отражает значение преобразуемой аналоговой величины x, т.е.: , если , и иначе; причем .
Данный пример иллюстрирует возможность применения предложенной методики синтеза для построения моделей преобразователей на основе двухслойной нейросети.
Выбор архитектуры сети
В основу построения модели преобразователя с указанным способом кодирования (2.17) положен двухслойный персептрон. Как видно из формулы (2.17), для нахождения значения , , требуется, в отличие от определения (1.7), построить не одну, а две пороговые прямые (см. рис. 2.2,б), ограничивающие плоскость единичных значений с двух сторон, что говорит о невозможности применения однослойного персептрона для формирования результата в виде (2.17). С учетом этого матричное описание исходной двухслойной персептронной сети примет вид:
Ее аналитическое описание получается на основе (1.3), если принять число слоев :
, ,
где и – входные и выходные сигналы сети соответственно;
и – пороговые функции активации вида (2.3).
Определение базовой конфигурации структуры преобразователя как аппроксимирующей сети
Фиксированное размещение бит в представлении унитарного кода (2.17) приводит к тому, что матрица выходных сигналов ИНС-аппроксиматора (как сети) должна учитывать местоположение бит , если . Поэтому матрица , изображенная в виде матрицы-столбца этих сигналов, будет отражать результат как упорядоченную последовательность бит в виде или .
Как уже отмечалось, при преобразовании в качестве входных сигналов сети выступают преобразуемая величина и эталон , например (см. табл. 2.1). Поэтому число нейронов ее входного слоя равно , а матрица сети имеет вид (2.4).
В качестве выходных сигналов рассматриваемой сети (рис. 2.5) выступают значения бит (), формируемые нейронами выходного слоя, число которых =. Количество нейронов скрытого слоя рекомендуется выбирать равным удвоенному числу нейронов выходного слоя. Операцию аналого-цифрового преобразования осуществляют нейроны первого слоя. В связи с этим выходные сигналы и нейроузлов скрытого и выходного слоев представляются в виде двоичных значений бит, поэтому для их получения используются бинарные функции активации (2.3).
Рис. 2.5. Структура ИНС-преобразователя на основе двухслойного персептрона
С учетом количества , и нейронов, составляющих входной, скрытый и выходной слои соответственно, двухслойная персептронная сеть, реализующая операцию преобразования , описывается в виде системы:
, , (2.18)
где – входная переменная, ; – эталон преобразования , задаваемый в соответствии с табл. 1.1;
и – функции активации вида (2.3).
Зависимость (2.18) в матричной форме для всех бит эквивалента примет вид:
(2.19)
где – матрица-строка, состоящая из входных аналоговых величин;
и –
транспонированные матрицы весовых коэффициентов между распределительным и скрытым, а также между скрытым и выходным слоями сети;
– матрица-столбец, состоящая из бит эквивалента , образующих результат преобразования.
Нейросетевая модель преобразователя, реализующая аналитическую зависимость (2.18) с ее матричным представлением (2.19), показана на рис. 2.5. Время преобразования , затрачиваемое на формирование цифрового эквивалента , находится следующим образом:
, (2.20)
где – время преобразования аналоговой переменной в бит ;
– время вычисления бита на основе значений ().
Время в выражении (2.20) при аппаратной реализации 2‑го слоя определяется величиной времени задержки цифрового логического элемента, выполняющего нейрооперацию на выходном слое. Поэтому, учитывая что , выражение (2.20) можно переписать в виде:
.
Максимальная абсолютная погрешность линейного преобразования определяется, как и в предыдущей модели, значением дискрета преобразования : . Так как относительная погрешность преобразования находится из выражения (1.13), то зависимость, связывающая с числом нейронов выходного слоя, примет вид:
. (2.21)
Выражение (2.21) показывает, что относительная погрешность преобразования обратно пропорциональна числу нейронов выходного слоя.
Обучение сети
Обучение персептрона со скрытыми слоями целесообразно осуществлять с использованием алгоритма обратного распространения ошибки. С целью настройки синаптических связей он использует метод градиентного спуска в пространстве весовых коэффициентов и порогов нейронной сети. Для задачи преобразования аналоговой величины x в ее цифровой эквивалент (2.17) полученные в результате обучения 2-слойной сети значения весов ее синаптических связей показаны на рис. 2.5, а также представлены матрицами:
и . (2.22)
C учетом полученных при обучении сети весов (2.22) и порогов и на основе (2.19) можно сформировать системы бинарных активационных функций и , реализуемых нейронами:
1-го слоя:
(2.23)
2-го слоя:
. (2.24)
Поскольку сигналы и являются однобитными переменными, то зависимость (2.24), реализуемая i‑м нейроном 2-го слоя сети (рис. 2.5), тождественна логической операции "И" над и . Значения составляющих параметров n, V и структуры нейросети (рис. 2.5) даны в табл. 2.2.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.