В результате обучения исходной сети, описываемой системой (2.19), также получено решение, позволяющее при формировании (2.17) сократить в два раза число нейронов ее скрытого слоя за счет увеличения нулевых связей между ним и выходным слоем. В итоге найдены значения порогов () и () нейронов 1‑го и 2‑го слоев ИНС-преобразователя, а также веса синаптических связей сети, отраженные матрицами и :
и . (2.25)
2.3.2.Трехслойная персептронная модель структуры ПФИ
с двоично-взвешенным позиционным кодированием
Применение трехслойных нейронных сетей нашло особенно широкое применение в задачах аппроксимации нелинейных функций, при решении которых использование двухслойных сетей не обеспечивает требуемую погрешность приближения.
Ниже рассматриваются этапы построения нейросетевой модели структуры аналого-цифрового преобразователя с двоично-позиционным способом кодирования цифрового эквивалента (1.18).
Выбор архитектуры сети. В основу построения модели преобразователя положен трехслойный персептрон. Как видно из формулы (1.18) и рис. 2.2,в, для нахождения значений требуется построить несколько непересекающихся плоскостей (конкретное число плоскостей зависит от номера разряда и числа разрядов эквивалента ), каждая из которых задается двумя пороговыми прямыми, что говорит о необходимости применения для формирования результата (1.18) трехслойного персептрона, имеющего матричное описание в виде:
(2.26)
Аналитическое описание исходной 3‑слойной аппроксимирующей сети, полученное на основе (2.26), представляется как:
, , (2.27)
где и – ее входные и выходные сигналы; – число ее выходов;
, и – пороговые функции активации вида (2.3).
Выбор исходной структуры ИНС. При формировании матрицы выходных сигналов данной нейросети следует учитывать фиксированное местоположение бит позиционного кода (1.18). Поэтому для матрица , представленная в виде матрицы-столбца этих сигналов, будет отражать результат как упорядоченную последовательность бит в виде или .
При преобразовании в качестве входных сигналов и сети соответственно выступают преобразуемая величина и эталон преобразования , определяющие число нейронов входного слоя, равное , и вид матрицы :
.
Как и в рассмотренных выше моделях, операцию аналого-цифрового преобразования осуществляют нейроны первого скрытого слоя.
В качестве выходных сигналов рассматриваемой сети выступают значения бит (), формируемые нейронами выходного слоя. Поэтому число нейронов выходного слоя равно . Необходимое число и нейронов скрытых слоев определится на этапе обучения. Операцию аналого-цифрового преобразования осуществляют нейроны первого слоя. Из этого следует, что выходные сигналы нейроузлов скрытых и выходного слоев представляются в виде значений бит унитарного эквивалента, поэтому для их получения используются функции активации вида (2.3).
С учетом количества и нейронов, составляющих входной и выходной слои соответственно, трехслойная персептронная сеть (2.27), реализующая операцию преобразования , описывается зависимостью:
, , (2.28)
где ; ; , и – функции активации вида (2.3).
Зависимость (2.28) в матричной форме для всех бит эквивалента примет вид:
(2.29)
где – матрица-строка, состоящая из входных аналоговых величин;
, и – транспонированные матрицы весовых коэффициентов между распределительным и первым, первым и вторым, а также между вторым и выходным слоями;
и – матрицы-столбцы, состоящие из выходных сигналов скрытых слоев;
– матрица-столбец, состоящая из бит позиционного эквивалента , образующих результат преобразования.
Предлагаемая нейросетевая модель преобразователя, реализующая аналитическую зависимость (2.28) и матричную (2.29), показана на рис. 2.6.
Рис. 2.6. Нейросетевая структура преобразователя с формированием на основе трехслойного персептрона (для числа разрядов )
Для 3-слойной структуры время преобразования , затрачиваемое на формирование цифрового эквивалента , находится следующим образом:
, (2.30)
где – время преобразования аналоговой переменной в бит ;
и – времена вычисления бита на основе значений () и бита на основе значений () соответственно.
Поскольку на 2‑м и 3‑м слоях сеть оперирует логическими (двоичными) переменными, то последними двумя слагаемыми в зависимости (2.30) можно пренебречь. Поэтому
.
Обучение ИНС. Обучение персептрона со скрытыми слоями целесообразно осуществлять с использованием алгоритма обратного распространения ошибки. С целью настройки синаптических связей он использует метод градиентного спуска в пространстве весовых коэффициентов и порогов нейронной сети. Полученные в результате обучения значения весовых коэффициентов для двухразрядного эквивалента показаны на рис. 2.6 и определены в виде матриц:
, и . (2.31)
Величины порогов для активационных функций в результате обучения имеют вид:
, и ,
где , , .
Следует отметить, что матрицы весовых коэффициентов (2.31) не являются единственным решением поставленной задачи. Так, например, элементы и матрицы могут принять значения "2" и "‑2" соответственно, что также будет решением задачи преобразования (1.18). Однако аппаратные затраты на реализацию связей , формируемых в результате умножения аналоговой переменной на цифровой вес с формированием результата в виде аналоговой величины, зависят от значения веса . Так, если , то аппаратные затраты на реализацию связи равны нулю. В связи с этим среди множества решений целесообразно выбирать такую матрицу , в которой содержится наибольшее число элементов с нулевыми и единичными значениями.
На этапе обучения сети также определено количество и нейронов ее скрытых слоев, необходимое для решения поставленной задачи преобразования в зависимости от числа разрядов эквивалента :
, .
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.