В результате обучения
исходной сети, описываемой системой (2.19), также получено решение, позволяющее
при формировании (2.17) сократить в два раза число нейронов
ее скрытого слоя за счет увеличения нулевых связей между ним и выходным слоем.
В итоге найдены значения порогов
(
) и
(
) нейронов 1‑го и 2‑го слоев
ИНС-преобразователя, а также веса синаптических связей сети, отраженные матрицами
и
:
и
. (2.25)
2.3.2.Трехслойная
персептронная модель структуры ПФИ
с двоично-взвешенным позиционным
кодированием
Применение трехслойных нейронных сетей нашло особенно широкое применение в задачах аппроксимации нелинейных функций, при решении которых использование двухслойных сетей не обеспечивает требуемую погрешность приближения.
Ниже рассматриваются
этапы построения нейросетевой модели структуры аналого-цифрового
преобразователя с двоично-позиционным
способом кодирования цифрового эквивалента
(1.18).
Выбор архитектуры
сети. В основу
построения модели преобразователя положен трехслойный
персептрон. Как видно из формулы (1.18) и рис. 2.2,в, для нахождения значений
требуется построить несколько непересекающихся
плоскостей (конкретное число плоскостей зависит от номера разряда
и числа разрядов
эквивалента
),
каждая из которых задается двумя пороговыми прямыми, что говорит о
необходимости применения для формирования результата (1.18) трехслойного
персептрона, имеющего матричное описание в виде:
(2.26)
Аналитическое описание исходной 3‑слойной аппроксимирующей сети, полученное на основе (2.26), представляется как:
,
, (2.27)
где и
– ее входные и выходные сигналы;
– число ее выходов;
,
и
–
пороговые функции активации вида (2.3).
Выбор исходной
структуры ИНС. При
формировании матрицы выходных сигналов данной
нейросети следует учитывать фиксированное местоположение бит позиционного кода
(1.18). Поэтому для
матрица
,
представленная в виде матрицы-столбца этих сигналов, будет отражать результат
как упорядоченную последовательность бит
в
виде
или
.
При преобразовании в качестве входных сигналов
и
сети
соответственно выступают преобразуемая величина
и
эталон преобразования
, определяющие число
нейронов входного слоя, равное
, и вид матрицы
:
.
Как и в рассмотренных
выше моделях, операцию аналого-цифрового преобразования осуществляют нейроны первого скрытого слоя.
В качестве выходных сигналов
рассматриваемой сети выступают значения бит (
), формируемые нейронами
выходного слоя. Поэтому число
нейронов
выходного слоя равно
. Необходимое число
и
нейронов
скрытых слоев определится на этапе обучения. Операцию аналого-цифрового
преобразования осуществляют нейроны
первого слоя. Из
этого следует, что выходные сигналы нейроузлов скрытых и выходного слоев
представляются в виде значений бит унитарного эквивалента, поэтому для их
получения используются функции активации вида (2.3).
С учетом количества и
нейронов,
составляющих входной и выходной слои соответственно, трехслойная персептронная
сеть (2.27), реализующая операцию преобразования
,
описывается зависимостью:
,
, (2.28)
где ;
;
,
и
–
функции активации вида (2.3).
Зависимость (2.28) в
матричной форме для всех бит эквивалента примет
вид:
(2.29)
где –
матрица-строка, состоящая из входных аналоговых величин;
,
и
–
транспонированные матрицы весовых коэффициентов между распределительным и первым,
первым и вторым, а также между вторым и выходным слоями;
и
– матрицы-столбцы, состоящие из
выходных сигналов скрытых слоев;
–
матрица-столбец, состоящая из бит позиционного эквивалента
, образующих результат
преобразования.
Предлагаемая нейросетевая модель преобразователя, реализующая аналитическую зависимость (2.28) и матричную (2.29), показана на рис. 2.6.
Рис. 2.6.
Нейросетевая структура преобразователя с
формированием
на основе трехслойного
персептрона (для числа разрядов
)
Для 3-слойной структуры
время преобразования , затрачиваемое на
формирование цифрового эквивалента
,
находится следующим образом:
, (2.30)
где –
время преобразования аналоговой переменной
в
бит
;
и
– времена вычисления бита
на основе значений
(
)
и бита
на основе значений
(
)
соответственно.
Поскольку на 2‑м и 3‑м слоях сеть оперирует логическими (двоичными) переменными, то последними двумя слагаемыми в зависимости (2.30) можно пренебречь. Поэтому
.
Обучение ИНС. Обучение персептрона со скрытыми слоями
целесообразно осуществлять с использованием алгоритма обратного распространения
ошибки. С целью настройки синаптических связей он использует метод градиентного
спуска в пространстве весовых коэффициентов и порогов нейронной сети.
Полученные в результате обучения значения весовых коэффициентов для двухразрядного эквивалента
показаны на рис. 2.6 и определены в
виде матриц:
,
и
. (2.31)
Величины порогов для
активационных функций в результате обучения
имеют вид:
,
и
,
где ,
,
.
Следует отметить, что
матрицы весовых коэффициентов (2.31) не являются единственным решением
поставленной задачи. Так, например, элементы и
матрицы
могут
принять значения "2" и "‑2" соответственно, что также будет
решением задачи преобразования
(1.18). Однако
аппаратные затраты на реализацию связей
,
формируемых в результате умножения аналоговой переменной
на цифровой вес
с формированием результата в виде
аналоговой величины, зависят от значения веса
.
Так, если
, то аппаратные затраты на реализацию
связи
равны нулю. В связи с этим среди
множества решений целесообразно выбирать такую матрицу
,
в которой содержится наибольшее число элементов
с
нулевыми и единичными значениями.
На этапе обучения сети
также определено количество и
нейронов ее скрытых слоев,
необходимое для решения поставленной задачи преобразования в зависимости от
числа
разрядов эквивалента
:
,
.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.