Искусственный интеллект как научное направление. Силлогистика. Планирование действий робота в недетерминированной среде, страница 6

d(x)=w1 x1 + w2 x2 +…+ wn xn

d(x)=w1 x1 + w2 x2 +…+ wn xn + wn+1

d(x)=x1 + x2 +…+  xn + wn+1

d(x)=x1 + x2 +…+  xn

54. Метод решающих функций

1)  основан на использовании логических функций, принимающих одно из двух возможных значений

2)  основан на совместном использовании метода дискриминантных функций и метода функций близости

3)  является разновидностью метода дискриминантных функций

4)  является разновидностью метода функций близости

55. В методе решающих функций при наличии m классов предполагается существование m функций di(x), называемых решающими, таких, что если x  принадлежит Xi, то для всех j не равных i:

di(x) > dj(x)

di(x) dj(x) >0

di(x) < dj(x)

di(x) dj(x) <0

56. Классификатор, основанный на оценке минимума евклидова расстояния в пространстве признаков между точкой образа и эталоном реализует метод

евклидовых функций детерминантных функций классификационных функций

решающих функций

57. Достоинством метода дискриминантных функций и машины, реализующей данный метод является

1)  простая структура машины и возможность ее автоматического обучения

2)  высокая универсальность метода и возможность автоматического обучения машины

3)  простая структура распознающей машины и высокая универсальность метода

4)  возможность автоматического обучения машины и ее высокая надежность

58. Задача самообучения распознаванию образов сводится к отысканию вектора w,

обеспечивающего справедливость системы равенств

обеспечивающего справедливость системы неравенств

обеспечивающего справедливость системы линейных уравнений

обеспечивающего справедливость системы логических предикатов

59. Перцептрон включает в себя

1)  сетчатки сенсорных и ассоциативных элементов

2)  матрицы инжекторных и коллекторных элементов

3)  массивы результатов измерений и признаков распознавания

4)  векторы признаков и кодов соответствующих им образов

60. Схему перцентрона можно распространить на случай, когда число классов равно N, путем увеличения до значения  N числа элементов

1)  сетчатки S сенсорных элементов

2)  сетчатки A ассоциативных элементов

3)  сетчатки R реагирующих элементов

4)  числа связей между элементами сетчаток R и A

61. В перцептроне реакция всей системы R пропорциональна

1)  сумме взятых с определенными весами реакций элементов ассоциативной сетчатки.

2)  сумме взятых с определенными весами реакций элементов сенсорной сетчатки.

3)  произведению взятых с определенными весами реакций элементов ассоциативной сетчатки.

4)  сумме взятых с определенными весами реакций элементов сенсорной сетчатки.

62. Самообучение перцептрона основано на изменении

1)  числа составляющих его элементов

2)  связей между его элементами

3)  числа составляющих его элементов и связей между ними

4)  значений весовых коэффициентов (коэффициентов усиления) связей его элементов

63. Алгоритм самообучения перцептрона вносит на k-ом шаге обучения, изменение в вектор весовых коэффициентов реакций ассоциативных элементов в том и только в том случае, если

1)  образ, предъявляемый на k-ом шаге обучения, был при выполнении этого шага неправильно классифицирован

2)  образ, предъявляемый на k-ом шаге обучения, был при выполнении этого шага правильно классифицирован

3)  образ, предъявляемый на k-1-ом шаге обучения, был при выполнении этого шага неправильно классифицирован

4)  образ, предъявляемый на k-1-ом шаге обучения, был при выполнении этого шага правильно классифицирован