В результате обучения на основе правила Розенблатта матрица весовых коэффициентов для сети (см. рис. 2.3) примет вид (число разрядов ):
. (2.14)
Рис. 2.4. Нелинейное преобразование в виде ступенчатой аппроксимации
Матрица (2.14) показывает, что однослойный персептрон может быть обучен также нелинейному аналого-цифровому преобразованию. Данное утверждение определяет такое достоинство нейросетевой организации ПФИ, как обобщающая способность сети, когда она выдает корректные выходные значения на примерах, не входящих в обучающую выборку.
Максимальная абсолютная погрешность линейного преобразования определяется значением дискрета преобразования : . С учетом того, что относительная погрешность преобразования находится исходя из выражения (1.13), зависимость, связывающая с числом нейронов выходного слоя, примет вид:
. (2.15)
Выражение (2.15) показывает, что увеличение числа нейронов выходного слоя приводит к уменьшению относительной погрешности преобразования при кодировании в виде (1.7).
2.2. Целевая функция проектирования (синтеза) структур преобразователей с минимальными аппаратными затратами
Необходимо отметить, что при синтезе нейропреобразователя следует учитывать ряд параметров (характеристик) его структуры, влияющих на предполагаемые аппаратные затраты (1.4) на реализацию устройства. В их качестве могут выступать:
1) число нейронов L-слойной сети без учета 0-го слоя, так как в случае выполнения им только распределительных функций принимается, что в (2.1) ; – количество нейронов в ‑м слое;
2) число ненулевых синаптических связей нейросети, где – число этих связей, идущих от нейронов ‑го слоя к нейронам ‑го слоя с учетом в количества единичных и неединичных связей: ; , где и – число входов и выходов ‑го слоя сети.
При генерировании новой структуры преобразователя, особенно на стадии обучения, эти параметры выступают в качестве первичных критериев, определяющих ее поиск в направлении минимизации возможных затрат (2.1) на его реализацию.
Для конкретной структуры нейропреобразователя элемент в (2.2) отражает аппаратные затраты на реализацию нейроузла (нейрона) преобразователя. Затраты предлагается рассчитывать как:
,
где – затраты на формирование всех синаптических связей , идущих от нейронов () предыдущего слоя к нейрону ; – затраты на реализацию активационной функции нейроузла .
Величина затрат зависит от формы представления компонент произведений (синаптических связей) , а также от конкретных значений весов , задаваемых при обучении сети, как правило в виде позиционного кода, причем затраты на связи с весами и принимаются равными нулю. С учетом этого, если затраты на реализацию любой синаптической связи с равны некоторой постоянной величине , то суммарные затраты на построение всех связей между ‑м и ‑м слоями сети целесообразно определять как:
.
На величину затрат влияют форма представления и число входных сигналов пороговой функции , а также величина ее порога . Причем частотно-импульсный способ представления сигналов предопределяет возможность реализации с достаточно низкими затратами. Поскольку затраты на реализацию бинарной функции активации любого нейрона в ‑м слое персептрона одинаковы и равны некоторой постоянной величине , то суммарные затраты на реализацию всех пороговых элементов в этом слое целесообразно находить как: . Цена уменьшается с сокращением числа составляющих аргумента функции активации (2.3) порогового устройства нейрона с одновременным увеличением на его входе количества связей с единичными весами . С учетом найденных величин и затраты на реализацию L-слойной сети можно определять как:
. (2.16)
Зависимость (2.16) может выступать в качестве целевой функции проектирования ПФИ на этапе обучения сети: . Это связано с тем, что ее аргументами являются элементы (вид и число нейронов и синаптических связей между ними), определяющие искомую структуру преобразователя.
Таким образом, при синтезе ИНС-преобразователя как L-слойной аппроксимирующей сети необходимо уменьшать значения параметров и , составляющих содержание и соответственно и максимизировать при этом характеристику – как составляющую . Необходимо отметить, что при обучении сети целесообразно также выбирать решения, для которых, например, получаются весовые коэффициенты , кратные степени 2. Наличие таких весов обеспечивает, как и при , снижение цен для слоев, осуществляющих собственно преобразование "аналог – код".
Для нейронных сетей (см. рис. 2.3, рис. 2.5 и рис. 2.6) значения параметров, отражающих возможные затраты на их реализацию, даны в табл. 2.2. С целью построения нейропреобразователя (см. рис. 2.3) в виде логической схемы вначале производится представление его входов-выходов в виде логических (бинарных) сигналов, а затем задание выявленных в его структуре нейроопераций, например (2.13), в булевом базисе с последующим проведением структурного синтеза цифровых автоматов, выполняющих эти операции. После этого на основе специальных САПР осуществляется реализация синтезируемой структуры преобразователя на базе ПЛИС.
Таблица 2.2
Значения параметров сети, отражающих возможные аппаратные затраты на ее реализацию для линейной операции преобразования *
Параметр сети |
Значение параметра для сети |
|||||
(рис. 2.3) |
(рис. 2.5) |
(рис. 2.6) |
||||
Слой 1 |
Слой 1 |
Слой 2 |
Слой 1 |
Слой 2 |
Слой 3 |
|
Число нейронов сети без учета 0‑го слоя |
(2.19) (2.22) |
|||||
Число ненулевых синаптических связей |
(2.19) (2.22) |
|||||
Число единичных синаптических связей из |
(2.19) (2.22) |
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.