Як і в попередніх випадках, приймемо , що спростить обчислення і не вплине на властивості міри (3.4.1). Крім того, за аналогією з мірою Шеннона, замінемо десятковий логарифм на двійковий. Тоді замість (3.4.1) отримаємо:
* (3.4.2)
Оскільки
і
тобто це відповідно перша достовірність і похибка другого роду при розпізнаванні реалізацій класів і , які належать побудованому на k-му кроці навчання контейнеру класу , то вираз (3.4.2) подамо у модифікації, яку назвемо частковою мірою Кульбака:
(3.4.3)
З метою узагальнення формули (3.4.3) введемо логарифмічне відношення повної ймовірності правильного прийняття рішень про належність реалізацій класів і контейнеру до повної ймовірності помилкового прийняття рішень , яке для двохальтернативної системи оцінок рішеннь має такий вигляд:
де – гіпотеза про належність контейнеру реалізацій класу ;
– гіпотеза про належність контейнеру реалізацій класу .
При допущенні, що , загальна міра Кульбака остаточно набуває вигляду:
(3.4.4)
Модифікації нормованих критеріїв (3.4.3) і (3.4.4) можна подати відповідно у вигляді:
, (3.4.5)
де – значення критерію при і для формули (3.4.3) і при і для формули (3.4.4).
У задачах оптимізації параметрів функціонування СК в процесі навчання за МФСВ нормування критеріїв оптимізації не є обов’язковим, оскільки тут розв’язується задача пошуку екстремальних значень параметрів навчання, які відповідають глобальному максимуму КФЕ у робочій області його визначення. Але нормування критеріїв оптимізації є доцільним при порівняльному аналізі результатів досліджень і при оцінці ступеню близькості реальної СК, що навчається, до потенційної.
3.5. Обчислювальний аспект оцінювання функціональної ефективності навчання СК
Обчислювальний аспект оцінювання функціональної ефективності машинного навчання набуває важливого значення в задачах інформаційного синтезу СК і потребує врахування специфіки як їх функціонування, так і їх призначення.
Розглянемо процедуру обчислення інформаційного КФЕ в рамках алгоритму навчання за МФСВ. Оскільки інформаційний критерій є мірою різноманітності не менше ніж двох об¢єктів, то для його обчислення потрібна навчальна матриця, яка складається із векторів-реалізацій двох класів: і
Нехай клас є базовим, тобто найбільше бажаним для ОПР. Тоді належність вектора-реалізації образу із навчальної матриці класу приймається за основну гіпотезу g1 , а неналежність – за альтернативну гіпотезу g2. Алгоритм оброблення навчальної матриці може бути побудовано за двома способами. За першим способом послідовно зчитуються реалізації , а потім – реалізації . За іншим способом при кожному випробуванні обробляються реалізації обох класів.
Розглянемо процедуру обчислення модифікації ентропійного інформаційного КФЕ за Шенноном для двохальтернативного рішення при рівноймовірних гіпотезах згідно з формулою (3.2.2). Оскільки інформаційний критерій є функціоналом від точнісних характеристик, то при мінімальному обсязі репрезентативної навчальної вибірки слід користуватися їх оцінками:
; ; , (3.5.1)
де - кількість подій, які означають належність реалізацій образу контейнеру , якщо дійсно ;
– кількість подій, які означають неналежність реалізацій образу контейнеру , якщо дійсно ;
- кількість подій, які означають належність реалізацій образу контейнеру , якщо вони насправді належать класу ;
- кількість подій, які означають неналежність реалізацій образу контейнеру , якщо вони насправді належать класу ;
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.