Мегаобучалка Главная | О нас | Обратная связь


Общие сведения из теории распознавания образов



2020-02-04 247 Обсуждений (0)
Общие сведения из теории распознавания образов 0.00 из 5.00 0 оценок




Описанные способы выделения полезного сигнала на фоне помех и шумов можно рассматривать как частные случаи решения общей задачи распознавания образов. Все наблюдаемые или исследуемые с помощью прибора объекты или создаваемые ими сигналы можно разделить на отдельные классы по ряду признаков — свойств объекта или сигнала, поддающихся количественному описанию: по спектру излучения, размерам, времени появления и т.д. Процесс распознавания сводится к определению класса наблюдаемого объекта или сигнала, т.е. к его идентификации с одним из возможных эталонов, характеризующим этот класс. Структурная схема системы распознавания представлена на рис. 11.31.

Рис.11.31. Структурная схема системы распознавания: ПО — поле объектов; ПС — приемная система; ВП — блок выделения признаков; ПР — блок принятия решений; БЭ — блок эталонов

 

После прохождения приемной системы или системы первичной обработки информации сигнал представляет собой функцию некоторого числа переменных (х1, x2, …, хn), одни из которых более информативны, т.е. лучше описывают специфику сигнала, другие —менее. Целесообразно в дальнейших звеньях системы распознавания использовать по возможности ограниченное число признаков, чтобы не перегружать ее память (память ЭВМ) и не усложнять конструкцию. Поэтому в состав системы часто вводят блок выделения таких признаков (у1, у2, …, yт), причем тЈп.

Принятие решения о принадлежности сигнала к тому или иному классу выполняется классификатором (блоком принятия решения). Этот блок выполняет две задачи: сначала разбивает пространство измерений (признаков, сигналов) на области решения, т.е. находит разделяющие их функции, а затем отождествляет любой сигнал (вектор измерения) с каким-либо из классов (областей) признаков.

Рассмотрим случай распознавания оптического сигнала —излучения какого-либо черного тела по создаваемой им освещенности в плоскости входного зрачка ОЭП. Эта монохроматическая освещенность может быть описана формулой (см. § 3.2)

где tcl — спектральное пропускание среды; Ll спектральная плотность яркости объекта Аоб видимая площадь объекта; l — расстояние до него.

В системе координат (Еl1, El2), представленной на рис. 11.32, а, в соответствии с законом Планка для идеального случая объекту с какой-либо температурой T, т.е. для определенной кривой Еl(рис. 11.32,б), будет соответствовать лишь одна точка. Однако в силу случайности величин tcl, Аоб, l, Т при распознавании объекта в области (El1, El2) мы имеем дело не с точкой, а с некоторой областью возможных значений (El1, El2), определяемой законами распределения вероятностей этих случайных величин. Совокупность случайно распределенных значений сигналов образует так называемый кластер. Можно отметить, что корреляция между сигналами в различных областях (l1 и l2) приводит к вытянутости кластера.

Рис.11.32. Признаки объектов в области (El1, El2): а — кластеры сигналов; б — кривые El для двух излучателей

 

Объекты (сигналы) могут быть отнесены к тому или иному классу по разным правилам. Одним из простейших случаев является тот, когда удается установить линейные границы разделения классов (границы решения), например прямые линии, равноудаленные от точек, соответствующих средним значениям сигналов, относящихся к тому или иному классу.

Обычно при распознавании используются вероятностные методы и методы теории статистических решений. Если законы распределения, характеризующие признаки различных объектов или явлений различных классов, могут быть представлены кривыми, которые не пересекаются, то объект или явление можно достоверно отнести к одному из классов. На практике почти всегда указанные кривые пересекаются, и для оценки вероятности принадлежности сигнала к тому или иному классу рассматриваются полные вероятности этой принадлежности.

В общем случае для распознавания сигнала (образа) можно использовать п признаков. Тогда этот сигнал можно представить точкой или вектором в n-мерном пространстве.

Критерий распознавания — правило, по которому определяется поверхность, разделяющая классы в n-мерном пространстве первичных признаков. Обычно распознаются объекты по признакам одной и той же физической природы, но вероятностное их распределение различно.

Распространенными критериями распознавания являются критерий максимальной плотности вероятности n-мерного распределения в данной точке пространства первичных признаков и критерий минимума среднего квадратического отклонения значения сигнала от эталона.

Рассмотрим простейший пример двумерного распределения, когда случайная точка на плоскости признаков El1, El2 (см. рис. 11.32) относится к классу A1 или А2 по максимуму величины:

где pi вес i-го класса (i=1, 2), назначаемый в произвольных безразмерных единицах; рAi(El1 , El2) плотность вероятности i-го класса.

Если для какой-либо точки плоскости (El1, El2) соблюдается неравенство вида p1pA1 (El1, El2)>p2 pA2(El1 , El2), то ее следует относить к классу А1 в противном случае — к классу А2.

Уравнение оптимальной решающей границы разделения классов А1 и А2 может быть получено при гауссовских кривых рA1 и рA2 из условия

в виде уравнения второго порядка:

где А, В, С, D, Е, F — постоянные коэффициенты, определяемые математическими ожиданиями, дисперсиями, коэффициентами корреляции, входящими в выражения для pA1 и pA2, a также весами р1 и р2. Это выражение (дискриминантная функция) в общем виде описывает плоские кривые 2-го порядка: окружность, эллипс, гиперболу, а при А=В=С=0 — прямую линию.

Дискриминантными (решающими, разделяющими) функциями называется множество функций х, т.е. g1(x), g2(x), …, gm(x), обладающее тем свойством, что gi(x) имеет большее значение, чем все остальные функции g, в том случае, если х принадлежит к i-й области. Предположим, что имеется т классов и соответствующие им области решения. Для классификации любого сигнала хk нужно вычислить значения g1(xk), g2(xk), …, gm(xk). Сигнал хk будет принадлежать тому классу, для которого функция g имеет наибольшее значение.

Решающие функции обычно вычисляют на основе информации, извлекаемой из набора сигналов с известной классификацией. Создание классификатора называется его обучением.

Если функции распределения вероятностей, связанные с тем или иным классом, известны, то для обучающего набора сигналов нужно оценить параметры этих распределений (математическое ожидание, дисперсия и др.), что снижает требования к емкости памяти ЭВМ, необходимой для обучения.

Для многомерных гауссовских распределений обычно применяют вектор математического ожидания и ковариационную матрицу для каждого класса сигналов (образов).

Если при распознавании используются п сигналов, например п значений яркости в п областях спектра, то для обучения необходимо иметь, как минимум, 10n (и даже более) обучающих сигналов (образов).

Оптимальный набор решающих функций g находят с помощью теории статистических решений. Так, в случае задачи об отнесении сигнала к той или иной области по максимуму правдоподобия ЭВМ вычисляет произведения функции плотности вероятности рsi(хi) на опорные вероятности класса i-p(si), т. е. на вероятности наблюдения сигнала si. Эти произведения и образуют набор решающих функций. Если считать функции распределения вероятностей гауссовскими, то решающие функции определяются как

где çSi | — определитель ковариационной матрицы Si:

mxi — вектор математического ожидания; (х-mxi) Т — транспонированный вектор (х-mxi); x — вектор данных (сигнал).

Более сложным является определение решающих функций в случае многомодального распределения случайных сигналов, что довольно часто встречается в практике работы ОЭП.

Обычно такой класс разбивается на несколько подклассов, для каждого из которых функция распределения вероятностей может быть принята гауссовской.

Критерий максимума функции распределения плотности вероятности сводится часто к максимуму функции правдоподобия в предположении, что имеет место гауссовский закон распределения случайных величин, описывающих распознаваемый сигнал и параметры всей системы (их «случайные части»).

Представим сигнал на выходе ОЭП или какого-либо его звена в виде вектора с компонентами уj

 (11.31)

где xj(a) — j-я компонента входного сигнала, который часто принимается детерминированным; kj(a) — коэффициент передачи (чувствительность) ОЭП, который часто также принимается детерминирован ной величиной; a — один из возможных аргументов (пространственная или угловая координата, длина волны излучения, время и т. д.).

В общем случае функции yj, хj, kj носят случайный характер. Число составляющих j=1, 2,..., J векторов у и k определяется как число каналов J, например спектральных, в которых идет работа прибора.

Возможен случай, когда аргумент a является, в свою очередь, многомерной векторной величиной, например, если в канале j сигнал х рассматривается одновременно как функция двух пространственных координат и длины волны излучения.

В силу случайности величин, входящих в (11.31), вектор выходного сигнала у является многомерной случайной величиной со средним значением и ковариационной матрицей , имеющими компоненты:

mj = < yj > и Cjj = <( yj - mj )( yj - mj )>,

где <·> обозначает среднее по ансамблю случайных величин.

Обнаружение (распознавание) какого-то частного значения вектора сигнала у обычно основывается на сравнении полученных значений mу с рядом эталонных значений средних величин mу и матрицы Cij с рядом матриц, хранящихся в памяти блока сравнения. В случае применения критерия минимума среднего квадратического отклонения не используется информация, содержащаяся в ковариационной матрице. Поэтому алгоритм обнаружения, сводящийся к нахождению минимального значения | у-mу| 2, менее точен, чем алгоритм, основанный на максимизации функции плотности вероятности гауссовского случайного процесса:

Максимизация этой функции эквивалентна более удобной с точки зрения вычислений минимизации функции ln[p(yn)], т.е.

где Dc детерминант матрицы Сn.

Этот критерий более надежен, чем минимизация среднего квадратического отклонения, так как он полнее учитывает случайный характер сигналов, свойств среды их распространения, параметров прибора. Находящаяся в составе ОЭС ЭВМ вычисляет эту функцию для каждого из п классов и относит сигнал к тому из них, которому соответствует минимум функции.

Оценки качества распознавания, в частности, вероятности принятия ошибочного решения, могут быть выполнены различными способами. Если обозначить через pj вероятность правильного распознавания j-й выборки сигнала (j-го признака сигнала), а через qj —вероятность неправильного распознавания, то pj+ qj=1. Вероятность того, что в N выборках сигнала правильно будут классифицированы j точек, описывается биномиальным распределением

где

Для этого распределения среднее значение m=Np, а среднее квадратическое отклонение.

Качество распознавания определяется вероятностью Р того, что из N выборок сигнала правильно классифицированы j выборок.

Статистическая различимость двумерных классов признаков часто характеризуется отношением Фишера:

где m1 и т2 математические ожидания; — дисперсии .

По принципу работы большинство оптико-электронных распознающих систем можно разделить на две группы:

1. 1. системы, в которых выделяются характерные признаки сигнала;

2. 2. системы с оптической корреляцией.

К первой группе могут быть отнесены системы, рассмотренные в §§ 11.4-11.9. Системы второй группы описаны в предыдущем параграфе; при их использовании задача часто сводится также к распознаванию признаков, но не самого сигнала, а его ковариационной или корреляционной функции.

Преимуществом способов распознавания, основанных на выделении характерных признаков сигнала, перед корреляционными способами является то, что при их использовании можно применять более простые и гибкие схемы обработки выходных сигналов. Однако корреляционные способы более помехоустойчивы, часто для их реализации предварительная обработка изображения не требуется.

В качестве признаков, служащих для распознавания оконтуренных, т.е. имеющих достаточно четкие границы, оптических сигналов (образов), могут быть использованы:

- - площадь контура (площадь пятна, представляющего корреляционную или ковариационную функцию, взятую по какому-то одному или по нескольким уровням освещенности),

- - длина контура или длины контуров, взятых по нескольким уровням освещенности, а также гистограммы их распределений, определяемые сравнительно просто в цифровой части гибридной системы.

Другими достаточно инвариантными к искажениям оптических сигналов признаками могут быть:

- - -отношения амплитуд отдельных гармоник пространственно-частотного спектра;

- - -гистограмма распределения переходов от одного уровня освещенности к другому вдоль нескольких направлений, например вдоль ортогональных осей координат и двух диагональных направлений;

- - -гистограмма распределения локальных максимумов и минимумов вдоль нескольких направлений в плоскости изображений;

- - -канонические моменты двумерных распределений освещенности Е(х, у) по отношению к координатам (хц, уц) их энергетических центров тяжести, т.е.

или для дискретизированного на N´N элементов изображения

где i, j, iц, jц — координаты (номера элементов);

гистограмма расстояний между элементами изображения с одинаковой освещенностью и ряд других.

Например, достаточно распространенным способом распознавания, применяемым в системах технического зрения, является использование моментов функции f(x, у), описывающей распределение освещенности в изображении объекта. В общем виде момент (р, q)-го порядка представляется как

Инвариантность к масштабу достигается нормированием центральных моментов следующим образом:

Определяя моменты m10 и m01, можно определить смещение изображения по осям х и у, а определяя m00 — размер (масштаб) изображения.

Инвариантны к сдвигу, повороту и изменению масштаба следующие соотношения, которые являются классификационными признаками при распознавании различных образов и могут быть определены по нормированным моментам первого, второго и третьего порядков [33]:

Вычисление этих соотношений в реальном масштабе времени при современных возможностях вычислительной техники не представляет принципиальной трудности. Для учета весьма разнообразных ситуаций, возникающих при распознавании, например при наблюдении какого-либо объекта под разными ракурсами, возможно создать самообучающуюся систему (классификатор) на базе нейронных сетей (см. § 11.12).

Использование инвариантных моментных соотношений с параллельной их обработкой для самообучения нейронных сетей позволяет заметно сократить время обучения и вести распознавание в масштабе времени, близком к реальному.

Возможности современной цифровой вычислительной техники позволяют проводить достаточно оперативно анализ изображений по большому числу признаков. Например, можно практически в реальном масштабе времени получить значения нескольких сотен канонических моментов (до 20-го порядка и выше).

 

 



2020-02-04 247 Обсуждений (0)
Общие сведения из теории распознавания образов 0.00 из 5.00 0 оценок









Обсуждение в статье: Общие сведения из теории распознавания образов

Обсуждений еще не было, будьте первым... ↓↓↓

Отправить сообщение

Популярное:



©2015-2024 megaobuchalka.ru Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. (247)

Почему 1285321 студент выбрали МегаОбучалку...

Система поиска информации

Мобильная версия сайта

Удобная навигация

Нет шокирующей рекламы



(0.01 сек.)