Возможен также вариант
построения нейроподобной структуры преобразователя 
 (рис.
1.15), в 
‑х каскадах которой, начиная с 
, организован процесс совместного,
неразделимого нахождения потоков бит 
 чисел
 и значений 
 кода 
 с
помощью 
‑пар нейроузлов 
 и 
,
рассматриваемых как единые двухкаскадные узлы 
.
С учетом этого для получения 
 и бита 
 узлы 
 и 
 реализуют совокупность следующих
операций:
                        (1.28)
,                                        (1.29)
,                                                         (1.30)
где
 – номера интервалов 
 (тактов) на оси аргумента 
, на которых определяются биты 
 и 
; 
; 
;
 – номера формируемых бит 
 кода 
;
; 
.

Рис. 1.15. Нейроподобная структура Пр 
 с совместным нахождением 
 и 
 чисел
 и 
,
начиная с младшего разряда 
 (1.28) –
(1.30), для ![]()
Исходной информацией для получения 
 (1.30) с помощью 
 служит поток единичных бит 
, следующих с интервалом 
. Значение 
 характеризует
период и частоту (интенсивность) появления 
 в
этом потоке и является его информативным параметром.
2. СИНТЕЗ СТРУКТУР НЕЙРОПРЕОБРАЗОВАТЕЛЕЙ ИМПУЛЬСНО‑АНАЛОГОВЫХ СИГНАЛОВ В КОД С ФУНКЦИЯМИ ОБУЧЕНИЯ (на примере сетей прямого распространения)
2.1. Процедура синтеза преобразователей импульсно-аналоговых сигналов в цифровой код с функцией обучения
Рассматриваемое далее решение задачи синтеза новой
структуры преобразователя сводится к обучению выбранной аппроксимирующей
нейросети с целью получения на ее основе конфигурации схемы устройства с
минимально возможными затратами на ее последующую реализацию. Приводимые при
этом этапы синтеза и их содержание определяют последовательность применения
принципов организации ИНС для конкретных задач преобразования аналоговой
величины 
, заданной в виде частоты 
 или интервала 
, в ее цифровой эквивалент 
, представленный в виде унитарного
кода 
. Необходимость их реализации часто
возникает для выявления принадлежности измеряемой величины 
 определенным диапазонам ее
изменения, а также при получении на основе 
 результата
АЦ‑преобразования в виде двоичного позиционного кода 
.
Этап 1. Выбор и обоснование архитектуры исходной нейросети
Выполнение этого этапа требует определения: вида сети (персептронная, рекуррентная и т.д.), возможного количества ее слоев, структуры связей между ними, разновидностей применяемых активационных функций (все эти характеристики могут уточняться). Наряду с этим, необходимо проведение анализа аналитического и матричного описания исходной сети с возможностью ее обучения с целью построения нейросетевой модели преобразователя.
Выбор вида сети в значительной степени обосновывается ее характерными свойствами, а также известными предпочтениями в ее применении, зависящими от конкретных характеристик задачи преобразования информации. В частности, к ним относится необходимость адаптации преобразователя к динамическим и статистическим характеристикам преобразуемого сигнала, что требует, наряду с аппроксимацией, реализации ряда дополнительных операций, например сглаживания и экстраполяции (предсказания). Так, на их выполнение ориентированы гетерогенные ИНС и сети с обратными связями, относящиеся к классу систем следящего типа. При необходимости возможно комплексирование различных видов сетей. Таким образом, можно утверждать, что уже на уровне выбора вида сети предопределяется направление успешного выполнения поставленной задачи преобразования, что в значительной степени повышает эффективность разработки преобразователей с нейросетевой структурой, в том числе за счет сокращения сроков и затрат на ее проведение.
Для ИНС-преобразователей 
 прямого действия (преобразования)
целесообразно в основу их построения положить использование персептронного
нейрона. Такой выбор обусловлен формированием им результирующего бинарного
сигнала 
 посредством реализации
активационной функции 
 релейного типа:
.                                                (2.1)
По своей сути операция 
 (2.1) может, в частности,
интерпретироваться как однобитное аналого-цифровое преобразование.
Однонейронный персептрон состоит из суммирующего и порогового устройств.
Сумматор образует сумму 
 взвешенных
значений 
 для каждой входной переменной 
 как аргумент функции 
. Если 
 больше
заданного порога 
, то значение переменной 
 на выходе порогового устройства
нейрона равно, например, единице, в противном случае – нулю. На основе таких
нейронов строятся одно- и многослойные персептроны.
Однослойный персептрон
является двухуровневой нерекуррентной сетью, вид которой показан на рис. 2.1.
Входные сигналы такой сети описываются матрицей-строкой 
,
выходные – матрицей-столбцом 
. Весовые
коэффициенты 
 образуют матрицу 
:
,
где 
 –
сила (вес) синаптической связи между 
-м нейроном
входного (распределительного) слоя и 
-м нейроном
преобразующего слоя; 
, 
;
 и 
 –
число входов и выходов сети соответственно.

Рис. 2.1. Однослойная персептронная сеть
Зависимость между матрицами
 и 
 имеет
вид:
,                                                  (2.2)
где 
 –
функция активации, применимая к каждому элементу 
 матрицы
;
 –
транспонированная матрица для 
. В 
 каждый 
-й
столбец содержит веса 
 связей 
-го нейрона 0-го слоя со всеми 
-ми нейронами 1-го слоя.
Обучение с учителем
однослойного персептрона происходит путем настройки весовых коэффициентов 
 между распределительным и выходным
слоями.
Нейросеть, состоящую из 
 последовательно включенных слоев
нейронов с пороговой функцией активации, называют 
‑слойным
персептроном. Слои нейроузлов (за исключением распределительного), не формирующие
выходной результат сети, называют скрытыми. Число слоев персептронной сети (обычно
1-3) выбирается исходя из возможности успешного ее обучения поставленной задаче
преобразования. Установление их количества приводит к соответствующему
изменению выражения (1.3), характеризующего функционирование 3-слойного
персептрона, путем установления необходимого числа и вида базовых (активационных)
функций: например, только 
 или 
¸
 для 1- или 2-слойной сети
соответственно.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.