–
екстремальне значення параметра поля контрольних допусків, де L– крок зміни поля допусків, при якому КФЕ
навчання досягає глобального значення
;
Розглянемо
послідовність , де L
–крок зміни параметра
, на якому КФЕ навчання
досягає значення
і
–
. Тут
–
будь-яке мале додатнє число.
Тоді має місце таке твердження:
Т в е р д ж е н н
я 4.4.2. Послідовність
при збільшенні параметра
до
величини
монотонно спадає і обмежена знизу.
Як витікає із
твердження 2.3.4 інформаційний КФЕ, який є функціоналом від точнісних
характеристик, має в робочій області його визначення глобальний максимум (за
допущенням при ), тому при
твердження 4.4.2 має місце.
Т е о р е м а
4.4.2. Алгоритм паралельної оптимізації контрольних допусків на ознаки
розпізнавання збігається за ймовірністю, тобто , де
– будь-яке мале додатнє число.
Для доведення
цієї теореми достатньо показати, що послідовність не є стаціонарною, тобто
, оскільки екстремальний
параметр
, по крайній мірі, для однієї
ознаки розпізнавання не є оптимальним.
Розглянемо схему
алгоритму LEARNING-1, призначеного для послідовної
оптимізації контрольних допусків на ознаки розпізнавання за процедурою (4.4.1).
Вхідні дані: масив реалізацій образу ; стартова СКД
і система нормованих допусків (СНД)
, яка
визначає область значень відповідних контрольних допусків. Стартовий параметр
поля контрольних допусків може
дорівнювати половині відповідного симетричного поля нормованих допусків для і-ї
ознаки за умови випадковості її значень. Попередньо для кожної ознаки визначається ціна градації
, на яку змінюється і-та ознака.
Схема алгоритму послідовної оптимізації контрольних допусків така:
1. Обнуління лічильника прогонів процедури оптимізації параметрів навчання: l:=0.
2. Для стартової системи
допусків обчислюється за базовим алгоритмом навчання LEARNING значення функції .
3. Формування лічильника прогонів: l: l+1.
4. Обнуління лічильника ознак розпізнавання: і:=0.
5. Формування лічильника ознак розпізнавання: і: і+1.
6. Визначення екстремального
значення параметра за процедурою (4.4.1), в якій
внутрішній цикл оптимізації реалізує базовий алгоритм LEARNING.
7. .
8. Якщо ,
то виконується пункт 5, інакше пункт 9.
9. Якщо ,
де
– будь-яке мале позитивне число, то
виконується пункт 10, інакше пункт 3.
10. і “Зупин”.
Приклад реалізації алгоритму послідовної оптимізації ознак розпізнавання наведено в сьомому розділі.
Паралельний
алгоритм LEARNING-2 оптимізує параметри контейнерів
класів розпізнавання за умови ітераційної процедури визначення для базового
класу оптимальних контрольних допусків на всі
ознаки одночасно. Вхідні дані такі самі як і для алгоритму LEARNING-1, але за область визначення
параметра
приймається інтервал
, де
- ширина нормованого поля
допусків. Розглянемо кроки реалізації цього алгоритму:
1.
Обнулюється
лічильник кроків зміни параметра : l:=0.
2.
Запускається
лічильник: l:=l+1 і обчислюються нижні та верхні контрольні
допуски для всіх ознак: і
, відповідно.
3. Реалізується базовий алгоритм навчання.
4.
Якщо , то виконується пункт 5, інакше пункт 6.
5.
Якщо , то виконується пункт 2, інакше пункт 6.
6.
і “ЗУПИН”.
Розглянемо
приклад паралельної оптимізації СКД в процесі автофокусування растрового електронного мікроскопа
РЕМ-103 за наведеними на рис. 4.2 зображеннями зразка, що
досліджувався. На кожному кроці настроювання для поточного значення , яке збільшувалося на
одиницю, обчислювався критерій оптимізації за формулою (3.5.5) і визначалось
оптимальне значення радіуса контейнера базового класу
.
На рис. 4.5 наведено залежність модифікації критерію Кульбака від параметра
в процесі навчання за
алгоритмом LEARNING-2.
J1
d
Рис. 4.5. Залежність КФЕ від параметра поля допусків
На рис. 4.6 показано
залежність КФЕ від радіуса контейнера класу для
оптимального значення
, яке є максимальним в робочій області
на рис. 4.5.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.