128
Таким образом, каждый вариант АВО определяется набором
значений параметров. В нашем случае- это векторы
)
1
(
m
p
p
p
,
)
,...,
1
(
m
. Если информация об объекте S представлена в виде
I(S) = (а
1,
..., а2), то элемент вектора опорных множеств ?
j
(S) = а
i
, a ?
j
-
j-й порог.
В качестве примера решающего правила можно привести сле-
дующее (линейное пороговое решающее правило):
объект S принадлежит к классу K
t
если
i
j
t
C
i
K
S,
Г
t
i
b
1
1
)
(
(3.5.4)
объект S не принадлежит к классу K
t
если
i
j
t
C
i
K
S,
Г
t
i
b
1
2
)
(
(3.5.5)
в остальных случаях -отказ от распознавания принадлежности
объекта S к классу K
t
.
В работе алгоритмов распознавания вообще и АВО в частно-
сти можно выделить два этапа: обучение и собственно распознава-
ние. На этапе обучения, как уже говорилось, происходит настройка
алгоритма, т. е. выбор таких его параметров, которые обеспечивают
оптимальное в нег котором смысле распознавание объектов обу-
чающей выборки (объектов, принадлежность которых к классам К1,
... ,K
i
, известна). На этапе собственно распознавания происходит от-
несение к классам K1,..., К
i
,
тех объектов, принадлежность которых к
классам априорно неизвестна.
Точность распознавания на этапе обучения измеряется полно-
той и адекватностью распознавания эталонных объектов. Наряду с
понятием «точность» (абсолютная отделимость) иногда удобно ис-
пользовать понятие относительной отделимости объектов обучаю-
щей выборки, принадлежащих к различным классам. В случае, когда
распознавание ведется для двух классов (например, в профориента-
ции - для дифференциального прогноза успешности оптанта в одной
из двух профессиональных областей), относительную отделимость
можно определить как
min
100
min
X
X
X
(3.5.6)
где X
- точность при обучении (выраженная в процентах), a
min
X
-минимальная возможная точность обучения (совпадает с до-
|