패턴 인식에 대한 최신 아이디어. 패턴 인식 문제의 예

지식 기반에서 좋은 작업을 보내는 것은 간단합니다. 아래 양식을 사용하세요

연구와 업무에 지식 기반을 활용하는 학생, 대학원생, 젊은 과학자들은 여러분에게 매우 감사할 것입니다.

게시 날짜 http://www.allbest.ru/

러시아 연방 교육과학부

노보시비르스크 주립 경제 경영 대학 "NINKh"

정보 기술 학부

응용정보기술학과

퍼지 논리 및 신경망 분야에서

패턴 인식

방향 : 비즈니스 정보학 (전자 비즈니스)

학생 이름 : Mazur Ekaterina Vitalievna

확인자: Pavlova Anna Illarionovna

노보시비르스크 2016

  • 소개
  • 1. 인정의 개념
    • 1.1 개발 이력
    • 1.2 패턴 인식 방법의 분류
  • 2. 패턴 인식 방법
  • 3. 패턴인식 문제의 일반적인 특징과 유형
  • 4. 패턴인식 발전의 문제점과 전망
    • 4.1 실제 패턴 인식 적용
  • 결론

소개

꽤 오랫동안 패턴인식의 문제는 생물학적 관점에서만 고려되어 왔습니다. 이 경우에는 질적 특성만 관찰되었으므로 기능 메커니즘을 설명할 수 없었습니다.

20세기 초 N. Wiener가 도입한 개념 사이버네틱스(기계, 생명체 및 사회의 제어 프로세스 및 정보 전달의 일반 법칙에 대한 과학)을 통해 인식 문제에 정량적 방법을 도입하는 것이 가능해졌습니다. 즉, 수학적 방법을 사용하여 이 과정(본질적으로 자연 현상)을 표현하는 것입니다.

패턴 인식 이론은 이론 및 응용 측면 모두에서 사이버네틱스의 주요 분야 중 하나입니다. 따라서 일부 프로세스의 자동화에는 일정한 수의 긍정적인 반응을 통해 외부 환경의 변화하는 특성에 대응할 수 있는 장치를 만드는 것이 포함됩니다.

이 수준의 문제를 해결하기 위한 기초는 고전적인 통계 솔루션 이론의 결과입니다. 프레임워크 내에서 인식된 개체를 분류할 수 있는 클래스를 결정하는 알고리즘이 구축되었습니다.

이 작업의 목적은 패턴 인식 이론의 개념에 익숙해지는 것입니다. 즉, 주요 정의를 밝히고, 발생 이력을 연구하고, 이론의 주요 방법과 원리를 강조하는 것입니다.

주제의 관련성은 현재 패턴 인식이 사이버네틱스의 주요 영역 중 하나라는 사실에 있습니다. 따라서 최근 몇 년 동안 점점 더 많이 사용되고 있습니다. 인간과 컴퓨터의 상호 작용을 단순화하고 다양한 인공 지능 시스템을 사용하기 위한 전제 조건을 만듭니다.

이미지 인식 애플리케이션

1. 인식의 개념

오랫동안 인식 문제는 응용수학 분야의 과학자들만의 관심을 끌었습니다. 결과적으로 R. Fischer의 작품은 20대, 패턴 인식의 이론 및 실제 분야 중 하나인 판별 분석이 형성되었습니다. 안에 40대 A. N. Kolmogorov와 A. Ya. Khinchin은 두 분포의 혼합을 분리한다는 목표를 세웠습니다. 그리고 50~60대 20세기에 수많은 연구를 바탕으로 통계적 결정 이론이 등장했습니다. 사이버네틱스의 틀 내에서 이론적 기초 개발 및 메커니즘의 실제 구현, 객체와 프로세스를 인식하도록 설계된 시스템과 관련된 새로운 방향이 나타나기 시작했습니다. 새로운 분야는 "패턴 인식"이라고 불립니다.

패턴 인식(객체)는 이미지(광학 인식), 오디오 녹음(음향 인식) 또는 기타 특성을 통해 객체를 식별하는 작업입니다. 영상특정 기준에 따라 개체 그룹을 결합할 수 있는 분류 그룹화입니다. 이미지에는 한 세트의 유한한 수의 현상에 익숙해지면 많은 수의 대표자를 인식할 수 있다는 특징이 있습니다. 인식 문제의 고전적 공식화에서 세트는 여러 부분으로 나누어집니다.

기본 정의 중 하나는 개념입니다. 다수.컴퓨터에서 집합은 동일한 유형의 반복되지 않는 요소 집합입니다. "비반복"이란 집합의 요소가 존재하거나 존재하지 않음을 의미합니다. 범용 집합에는 가능한 모든 요소가 포함되어 있고, 빈 집합에는 아무것도 포함되어 있지 않습니다.

일부 이미지에 요소를 할당하는 기술을 호출합니다. 결정적인 규칙.또 다른 중요한 개념은 측정항목- 세트의 요소 사이의 거리를 결정합니다. 이 거리가 작을수록 우리가 인식하는 물체(기호, 소리 등)는 더 유사해집니다. 표준적으로 요소는 숫자 집합으로 지정되고 메트릭은 일종의 함수로 지정됩니다. 프로그램의 효율성은 이미지 표현과 측정항목 구현의 선택에 따라 달라집니다. 측정항목이 다른 동일한 인식 알고리즘은 빈도가 다르면 실수를 하게 됩니다.

훈련일반적으로 시스템에 대한 반복적인 영향을 통해 특정 시스템에서 외부 유사한 신호 요인에 대한 하나 또는 다른 반응을 개발하는 프로세스라고 합니다. 자율학습반응에 대한 추가 정보가 시스템에 제공되지 않는다는 점에서 훈련과 다릅니다.

패턴 인식 작업의 예는 다음과 같습니다.

문자 인식;

바코드 인식;

번호판 인식;

얼굴 및 기타 생체 인식 데이터 인식

음성인식 등

1.1 이야기 개발

50년대 중반에 R. Penrose는 뇌의 신경망 모델에 의문을 제기하여 뇌의 기능에 있어서 양자 역학적 효과의 중요한 역할을 지적했습니다. 이를 바탕으로 F. Rosenblatt는 퍼셉트론(perceptron)이라는 시각적 이미지 인식 학습 모델을 개발했습니다.

그림1 - 퍼셉트론 회로

또한 퍼셉트론의 다양한 일반화가 발명되었으며 뉴런의 기능은 복잡했습니다. 뉴런은 입력 숫자를 곱하고 결과를 임계값과 비교할 수 있을 뿐만 아니라 더 복잡한 기능을 입력에 적용할 수도 있었습니다. 그림 2는 그러한 합병증 중 하나를 보여줍니다.

쌀. 2 신경망의 다이어그램.

게다가 신경망의 토폴로지는 훨씬 더 복잡해질 수 있습니다. 예를 들어 다음과 같습니다.

그림 3 - Rosenblatt 신경망의 다이어그램.

수학적 분석을 위한 복잡한 개체인 신경망을 올바르게 사용하면 매우 간단한 데이터 법칙을 찾을 수 있습니다. 그러나 이러한 장점은 잠재적인 오류의 원인이기도 합니다. 일반적인 경우 분석의 어려움은 복잡한 구조로만 설명되지만 결과적으로 다양한 패턴을 일반화할 수 있는 실질적으로 무한한 가능성으로 설명됩니다.

1.2 분류행동 양식인식이미지

우리가 이미 언급한 바와 같이, 패턴 인식은 현실 세계나 이상 세계에서 객체의 특정 이미지 모델 간의 등가 관계를 설정하는 작업을 의미합니다.

이러한 관계는 인식된 개체가 독립적인 단위로 간주되는 모든 클래스에 속하는지 여부를 결정합니다.

인식 알고리즘을 구성할 때 이러한 클래스는 자신의 아이디어를 사용하거나 주어진 작업의 맥락에서 개체의 유사성 또는 차이점에 대한 추가 정보를 사용하는 연구자가 지정할 수 있습니다. 이 경우에는 “선생님과의 인정”에 대해 이야기합니다. 또 다른 예는 다음과 같습니다. 자동화된 시스템이 추가 정보를 포함하지 않고 분류 문제를 해결하는 경우 "비지도 인식"을 말합니다.

V.A. Duke는 인식 방법에 대한 학문적 개요를 제공하고 지식을 표현하는 두 가지 주요 방법을 사용합니다.

의도적(속성 간의 연결 다이어그램 형식)

특정 사실(객체, 예)을 사용하여 확장됩니다.

의도적 표현은 데이터의 구조를 설명하는 패턴을 포착합니다. 진단 문제와 관련하여 이러한 고정은 원하는 결과를 가져오는 개체의 특성에 대한 작업을 결정하는 것으로 구성됩니다. 의도적 표현은 값에 대한 연산을 통해 구현되며 특정 객체에 대한 연산을 포함하지 않습니다.

결과적으로, 지식의 확장적 표현은 주제 영역의 특정 객체에 대한 설명 및 고정과 연관되며 작업에서 구현되며 그 요소는 객체인 독립 시스템입니다.

따라서 V.A.가 제안한 인식 방법 분류의 기초입니다. 공작님, 원칙적으로 인간의 인지 방식의 기초가 되는 기본 법칙이 정해져 있습니다. 이로 인해 이 분류는 인위적이고 불완전해 보이는 잘 알려지지 않은 다른 분류에 비해 특별한 위치에 있는 클래스로 분류됩니다.

2. 행동 양식패턴 인식

무차별 대입 방법.이 방법에서는 각 개체에 대해 디스플레이 수정을 위한 다양한 옵션이 제공되는 특정 데이터베이스와 비교가 이루어집니다. 예를 들어, 광학적 패턴 인식의 경우 다양한 각도나 크기, 변위, 변형 등을 열거하는 방법을 사용할 수 있습니다. 문자의 경우 글꼴이나 해당 속성을 열거할 수 있습니다. 소리 패턴 인식의 경우 알려진 몇 가지 패턴(많은 사람들이 사용하는 단어)과 비교합니다. 다음으로, 이미지의 특성에 대한 보다 심층적인 분석이 수행됩니다. 광학 인식의 경우 이는 기하학적 특성의 결정일 수 있습니다. 이 경우 사운드 샘플은 주파수 및 진폭 분석을 거칩니다.

다음 방법 - 인공 신경망 사용(INS). 이를 위해서는 인식 작업에 대한 수많은 예가 필요하거나 특정 작업의 세부 사항을 고려하는 특수 신경망 구조가 필요합니다. 그러나 그럼에도 불구하고 이 방법은 매우 효율적이고 생산적이다.

특성값의 분포 밀도 추정을 기반으로 하는 방법. 연구 대상이 일부 법칙에 따라 특성 공간에 분포된 다차원 확률 변수의 구현으로 간주되는 고전적인 통계 결정 이론에서 차용되었습니다. 이는 특정 클래스에 속하는 개체의 초기 확률과 특성의 조건부 분포 밀도에 호소하는 베이지안 의사 결정 체계를 기반으로 합니다.

특징값의 분포 밀도를 추정하는 방법 그룹은 판별 분석 방법과 직접적인 관련이 있습니다. 의사 결정에 대한 베이지안 접근 방식은 현대 통계에서 가장 발전된 모수적 방법 중 하나로, 분포 법칙(정규 법칙)의 분석적 표현이 알려져 있고 소수의 매개 변수(평균 벡터 및 공분산 행렬)만 알려진 것으로 가정합니다. ) 추정이 필요합니다. 이 방법을 사용할 때 가장 어려운 점은 밀도 추정치를 계산하기 위해 전체 훈련 샘플을 기억해야 한다는 점과 훈련 샘플에 대한 높은 민감도입니다.

의사결정 기능 클래스에 대한 가정을 기반으로 한 방법. 이 그룹에서는 결정 기능의 유형이 알려진 것으로 간주되며 품질 기능이 지정됩니다. 이 기능을 기반으로 훈련 시퀀스를 사용하여 결정 기능에 대한 최적의 근사치를 찾습니다. 결정 규칙 품질 기능은 일반적으로 오류와 관련이 있습니다. 이 방법의 주요 장점은 인식 문제의 수학적 공식이 명확하다는 것입니다. 객체의 본질에 대한 새로운 지식, 특히 속성의 상호 작용 메커니즘에 대한 지식을 추출하는 능력은 근본적으로 주어진 구조에 의해 제한됩니다. 의사결정 기능의 선택된 형태로 고정된 상호작용.

프로토타입과의 비교방법. 이는 실제로 가장 쉬운 확장 인식 방법입니다. 인식된 클래스를 컴팩트한 기하학적 클래스로 표시할 때 사용됩니다. 그런 다음 기하학적 그룹의 중심(또는 중심에 가장 가까운 객체)이 프로토타입 점으로 선택됩니다.

정의되지 않은 객체를 분류하려면 해당 객체와 가장 가까운 프로토타입을 찾고 해당 객체는 동일한 클래스에 속해야 합니다. 분명히 이 방법에서는 일반화된 이미지가 형성되지 않습니다. 다양한 유형의 거리를 측정값으로 사용할 수 있습니다.

k 최근접이웃 방법. 이 방법은 알려지지 않은 객체를 분류할 때 어떤 클래스에서 이미 알려진 멤버십을 가진 다른 가장 가까운 이웃의 공간에서 기하학적으로 가장 가까운 특정 수(k)를 찾는다는 사실로 구성됩니다. 알려지지 않은 객체를 분류하는 결정은 가장 가까운 이웃에 대한 정보를 분석하여 이루어집니다. 훈련 표본(진단 선례)의 객체 수를 줄여야 한다는 점은 훈련 표본의 대표성을 감소시키기 때문에 이 방법의 단점입니다.

서로 다른 인식 알고리즘이 동일한 샘플에서 다르게 작동한다는 사실을 기반으로 모든 알고리즘의 장점을 활용하는 합성 결정 규칙에 대한 의문이 제기됩니다. 이를 위해 각 방법의 가장 긍정적인 측면을 결합하는 합성 방법 또는 의사결정 규칙 그룹이 있습니다.

인식 방법에 대한 검토를 마무리하기 위해 위의 내용을 요약표에 제시하고 실제로 사용되는 다른 방법도 추가하겠습니다.

표 1. 인식 방법 분류, 적용 영역 비교 및 ​​제한 사항 표

인식방법의 분류

적용분야

제한사항(단점)

집중 인식 방법

밀도 추정에 기초한 방법

알려진 분포(정규)에 대한 문제, 대규모 통계 수집의 필요성

인식 중에 전체 훈련 샘플을 열거해야 할 필요성, 훈련 샘플 및 아티팩트의 비대표성에 대한 높은 민감도

가정 기반 방법

클래스는 잘 분리되어야 합니다.

의사결정 함수의 유형을 미리 알고 있어야 합니다. 특성 간의 상관관계에 대한 새로운 지식을 고려할 수 없음

부울 메서드

작은 문제

논리적인 의사결정규칙을 선택할 때에는 철저한 검색이 필요하다. 높은 노동 강도

언어학적 방법

특정 문장 집합(객체 설명)에서 문법을 결정하는 작업은 형식화하기 어렵습니다. 해결되지 않은 이론적 문제

확장 인식 방법

프로토타입과의 비교방법

작은 차원의 특징 공간 문제

측정항목에 대한 분류 결과의 의존도가 높습니다. 알 수 없는 최적 측정항목

k 최근접이웃 방법

측정항목에 대한 분류 결과의 의존도가 높습니다. 인식하는 동안 훈련 샘플을 완전히 열거해야 합니다. 계산 노력

추정치 계산 알고리즘(ABO)

클래스 수 및 기능 수 측면에서 작은 차원의 문제

측정항목에 대한 분류 결과의 종속성. 인식하는 동안 훈련 샘플을 완전히 열거해야 합니다. 방법의 높은 기술적 복잡성

DRC(Decision Rule Collective)는 합성 방법입니다.

클래스 수 및 기능 수 측면에서 작은 차원의 문제

개인 방법의 역량 영역과 개인 방법 자체를 결정하는 데 있어 방법의 매우 높은 기술적 복잡성, 해결되지 않은 이론적 문제의 수

3. 패턴인식 문제의 일반적인 특징과 유형

인식 시스템의 일반적인 구조와 그 단계는 그림 4에 나와 있습니다.

그림 4 - 인식 시스템의 구조

인식 작업에는 다음과 같은 특징적인 단계가 있습니다.

원본 데이터를 인식하기 편리한 형식으로 변환합니다.

인식(객체가 특정 클래스에 속함을 나타냄)

이러한 문제에서는 객체 유사성 개념을 도입하고 객체가 하나 또는 다른 클래스에 포함되는 규칙 집합을 공식화할 수 있습니다.

또한 분류가 알려져 있고 주어진 설명의 형태로 학습 과정 중 작업 조정을 위해 인식 알고리즘에 선언될 수 있는 일련의 예제를 사용하여 작업할 수도 있습니다.

인식 문제 해결의 어려움은 수정 없이 고전적인 수학적 방법을 적용할 수 없는 것과 관련이 있습니다(종종 정확한 수학적 모델에 대한 정보를 사용할 수 없음).

다음 유형의 인식 작업이 구별됩니다.

인식 작업은 설명에 따라 제시된 객체를 주어진 클래스 중 하나에 할당하는 것입니다(지도 학습).

자동 분류 작업은 세트를 분리된 클래스(분류, 클러스터 분석, 자체 학습) 시스템으로 분할하는 것입니다.

인식 중에 유익한 속성 세트를 선택하는 작업

원본 데이터를 편리한 형태로 가져오는 작업입니다.

동적 인식 및 분류;

예측 문제 - 즉, 결정은 미래의 특정 시점과 관련되어야 합니다.

기존 인식 시스템에는 가장 어려운 두 가지 문제가 있습니다.

"1001 클래스" 문제 - 기존 1000개의 클래스에 1개의 클래스를 추가하면 시스템을 재교육하고 이전에 수신한 데이터를 확인하는 데 어려움이 있습니다.

'사전과 출처의 상관관계' 문제는 음성인식에서 가장 두드러진다. 현재 시스템은 소규모 개인 그룹의 많은 단어 또는 대규모 개인 그룹의 소수 단어를 인식할 수 있습니다. 화장을 하거나 얼굴을 찡그린 얼굴이 많으면 알아보기도 어렵습니다.

신경망은 이러한 문제를 직접 해결하지는 않지만 그 특성상 입력 시퀀스의 변화에 ​​훨씬 더 쉽게 적응합니다.

4. 문제점과 전망개발패턴 인식

4.1 패턴 인식의 실제 적용

일반적으로 패턴 인식 문제는 훈련과 인식이라는 두 부분으로 구성됩니다. 학습은 독립적인 개체를 보여주고 이를 하나 또는 다른 클래스에 할당함으로써 수행됩니다. 훈련의 결과로 인식 시스템은 한 이미지의 모든 객체에 대해 동일한 반응으로 반응하고 다른 모든 이미지에 대해서는 다른 객체로 반응하는 능력을 획득해야 합니다. 학습 과정에서는 개체 자체와 이미지와의 연관성만 표시되는 것이 중요합니다. 훈련 후에는 이미 훈련된 시스템의 동작을 특징짓는 인식 프로세스가 이어집니다. 이러한 절차의 자동화가 문제입니다.

어떤 물체에 대한 분석을 시작하기 전에 해당 물체에 대한 확실하고 질서 있고 정확한 정보를 얻어야 합니다. 이러한 정보는 객체의 속성 집합이며 인식 시스템의 다양한 지각 기관에 표시됩니다.

그러나 각 관찰 대상은 인식 조건에 따라 다르게 영향을 미칠 수 있습니다. 또한 동일한 이미지의 개체도 서로 크게 다를 수 있습니다.

인식 시스템의 지각 기관에 대한 객체의 각 매핑은 이러한 기관과 관련된 위치에 관계없이 일반적으로 객체의 이미지라고 불리며, 일부 공통 속성으로 통합된 이러한 이미지 세트는 이미지입니다. 초기 설명(특징 공간)이 성공적으로 선택되면 인식 작업이 매우 쉬울 수 있으며, 반대로 선택이 실패하면 정보의 추가 처리가 매우 복잡해지거나 솔루션이 전혀 없을 수 있습니다.

물체, 신호, 상황, 현상을 인식하는 것은 사람이 매초 해결해야 하는 가장 일반적인 작업입니다. 이를 위해 엄청난 양의 뇌 자원이 사용되며 이는 10 10에 해당하는 뉴런 수와 같은 지표로 추정됩니다.

또한 기술적으로도 끊임없이 인정을 받고 있습니다. 형식 뉴런 네트워크의 계산은 여러 면에서 뇌의 정보 처리와 유사합니다. 지난 10년 동안 신경컴퓨팅은 엄청난 인기를 얻었으며 상용 제품 생산과 관련된 엔지니어링 분야가 되었습니다. 신경컴퓨팅을 위한 기본 기반을 구축하기 위한 많은 작업이 진행 중입니다.

이들의 주요 특징은 어떤 이유로든 솔루션 알고리즘이 제안되지 않은 비정형화된 문제를 해결하는 능력입니다. 신경컴퓨터는 학습을 통해 알고리즘을 도출하는 비교적 간단한 기술을 제공합니다. 이것이 그들의 주요 장점입니다. 따라서 신경컴퓨팅은 글로벌 개발을 위해 이미지 인식과 밀접하게 관련된 새로운 기술의 개발이 필요한 멀티미디어 전성기 동안 지금 당장 관련성이 있는 것으로 판명되었습니다.

인공지능의 개발과 응용에 있어서 가장 큰 문제점 중 하나는 소리와 시각적 이미지를 인식하는 문제이다. 다른 모든 기술은 이미 의학, 생물학, 보안 시스템에 적용할 준비가 되어 있습니다. 의학에서 패턴 인식은 의사가 보다 정확한 진단을 내리는 데 도움이 되며, 공장에서는 제품 배치의 결함을 예측하는 데 사용됩니다. 생체 인식 개인 식별 시스템도 인식 결과를 알고리즘 핵심으로 기반으로 합니다. 인간에게 자연스러운 언어와 음성을 통해 인간과 보다 직접적으로 소통할 수 있는 컴퓨터의 추가 개발과 설계는 인식 없이는 해결될 수 없습니다. 여기서 중요한 하위 시스템으로 인식 시스템을 포함하는 로봇 공학 및 인공 제어 시스템의 개발에 대한 의문이 제기됩니다.

결론

작업 결과, 패턴 인식과 같은 사이버네틱스 분야의 개념에 대한 주요 정의에 대한 간략한 개요가 작성되고 인식 방법이 강조되었으며 작업이 공식화되었습니다.

물론 이 과학의 발전 방향은 다양합니다. 또한, 각 장 중 하나에서 언급했듯이 인식은 현재 개발의 핵심 영역 중 하나입니다. 따라서 향후 수십 년 동안의 소프트웨어는 상용 형식을 획득하고 다수의 소비자에게 배포되기 시작하면 사용자에게 훨씬 더 매력적이고 현대 시장에서 경쟁력을 갖게 될 수 있습니다.

추가 연구는 주요 처리 방법에 대한 심층 분석과 새로운 결합 또는 수정된 인식 방법 개발 등의 측면을 목표로 할 수 있습니다. 수행된 연구를 바탕으로 선택된 인식 방법의 효율성을 테스트할 수 있는 기능 인식 시스템을 개발하는 것이 가능할 것입니다.

서지

1. David Formais, Jean Pons 컴퓨터 비전. 현대적인 접근 방식, 2004

2. Aizerman M.A., Braverman E.M., Rozonoer L.I. 기계 학습 이론의 잠재적 기능 방법. -M .: Nauka, 2004.

3. Zhuravlev Yu.I. 인식 또는 분류 문제를 해결하기 위한 대수적 접근 방식 // 사이버네틱스 문제. M.: Nauka, 2005. - 이슈. 33.

4. 마주로프 V.D. 불평등 시스템 위원회와 인정 문제 // Cybernetics, 2004, No. 2.

5. 포타포프 A.S. 패턴 인식 및 기계 인식. - 상트페테르부르크: Politekhnika, 2007.

6. 민스키 M., 페퍼트 S. 퍼셉트론. -M .: 미르, 2007.

7. Rastrigin L. A., Erenshtein R. Kh. 집단 인정 방법. M. Energoizdat, 2006.

8. 루다코프 K.V. 분류 문제에 대한 보편적 및 지역적 제한에 대한 대수적 이론 // 인식, 분류, 예측. 수학적 방법과 그 응용. Vol. 1. -M.: 나우카, 2007.

9. Fu K. 패턴 인식의 구조적 방법. -M .: 미르, 2005.

Allbest.ru에 게시됨

...

유사한 문서

    패턴인식 이론의 기본 개념과 그 의의. 패턴 인식의 수학적 이론의 본질. 이미지 인식 시스템을 개발할 때 발생하는 주요 작업입니다. 실시간 패턴 인식 시스템의 분류.

    코스 작업, 2014년 1월 15일에 추가됨

    패턴인식 알고리즘 구축의 개념과 특징. 인식 방법의 유형에 대한 다양한 접근 방식. 지식을 표현하는 기본 방법을 연구합니다. 의도적 및 확장적 방법의 특성, 품질 평가.

    프레젠테이션, 2014년 1월 6일에 추가됨

    패턴 인식의 이론적 기초. 인식 시스템의 기능 다이어그램. 패턴 인식 문제 해결에 베이지안 방법 적용. 베이지안 이미지 분할. 이미지 분류 문제를 해결하기 위한 TAN 모델.

    논문, 2017년 10월 13일 추가됨

    패턴 인식 시스템 개발에서 발생하는 문제를 검토합니다. 훈련 가능한 이미지 분류자. 퍼셉트론 알고리즘 및 그 수정. 최소 평균 제곱 오차 방법을 사용하여 이미지를 분류하도록 설계된 프로그램을 만듭니다.

    코스 작업, 2015년 4월 5일에 추가됨

    패턴 인식 방법(분류자): 베이지안, 선형, 잠재적 함수 방법. 사진에서 인물을 인식하는 프로그램 개발. 분류기가 작동하는 방식의 예, 방법의 정확성에 대한 실험 결과.

    코스 작업, 2011년 8월 15일에 추가됨

    인공 신경망을 기반으로 시각적 이미지 인식을 수행하는 소프트웨어 도구를 만듭니다. 패턴 인식에 사용되는 방법. 셀프리지의 대혼란. Rosenblatt 퍼셉트론. 체인 코드를 형성하는 규칙.

    논문, 2014년 4월 6일에 추가됨

    패턴 인식은 물체를 식별하거나 물체의 이미지나 오디오 녹음을 통해 물체의 속성을 결정하는 작업입니다. 이 분야의 이론적, 기술적 변화의 역사. 인식을 위해 컴퓨터 기술에 사용되는 방법과 원리.

    초록, 2010년 4월 10일에 추가됨

    패턴 인식 시스템의 개념. 인식 시스템의 분류. 미세 물체의 형상을 인식하는 시스템 개발. 결정학에서 미세 물체를 인식하는 시스템을 생성하는 알고리즘, 소프트웨어 환경에서의 구현 기능.

    코스 작업, 2014년 6월 21일에 추가됨

    신경망의 유형과 구조를 선택합니다. 인식 방법 선택, Hopfield 네트워크의 블록 다이어그램. 패턴 인식 시스템을 훈련합니다. 프로그램 작업의 특징, 장점 및 단점. 사용자 인터페이스 및 화면 형태에 대한 설명입니다.

    과정 작업, 2013년 11월 14일에 추가됨

    기술적인 자동 인식 시스템의 출현. 복잡한 자동 시스템의 요소 또는 링크로서의 인간. 자동 인식 장치의 가능성. 패턴 인식 시스템을 만드는 단계. 측정 및 코딩 프로세스.

기존 패턴 인식 방법 검토

L.P. 포포바 , 그리고 약. 다티예프

"인식"하는 능력은 인간뿐만 아니라 다른 생명체의 주요 속성으로 간주됩니다. 패턴 인식은 물체, 현상, 프로세스, 신호, 상황(객체를 특징짓는 일부 기호 또는 속성의 한정된 세트로 설명할 수 있는 모든 객체)의 식별뿐만 아니라 분류의 원리와 방법을 개발하는 사이버네틱스의 한 분야입니다. .

이미지는 사물에 대한 설명입니다. 이미지는 동일한 세트의 유한한 수의 현상에 익숙해지면 임의로 많은 수의 대표자를 인식할 수 있다는 사실에서 나타나는 특징적인 속성을 가지고 있습니다.

패턴 인식 이론에서는 두 가지 주요 방향을 구분할 수 있습니다.

    인간과 다른 생명체가 가지고 있는 인식 능력에 대한 연구;

    특정 응용 분야에서 패턴 인식의 개별 문제를 해결하도록 설계된 장치 구성에 대한 이론 및 방법 개발.

또한 이 기사에서는 두 번째 방향의 개발과 관련된 이미지 인식 시스템을 구현하는 문제, 원리 및 방법을 설명합니다. 기사의 두 번째 부분에서는 패턴 인식 이론의 첫 번째 방향에 기인할 수 있는 패턴 인식의 신경망 방법을 논의합니다.

영상인식 시스템 구축의 문제점

자동 패턴 인식 시스템을 구축할 때 발생하는 문제는 일반적으로 몇 가지 주요 영역으로 분류될 수 있습니다. 그 중 첫 번째는 인식 대상에 대한 측정 결과로 획득된 초기 데이터의 제시에 관한 것이다. 민감도 문제. 각각의 측정된 값은 이미지 또는 물체의 "특성입니다. 예를 들어 이미지가 영숫자 기호라고 가정해 보겠습니다. 이 경우 그림 1(a)에 표시된 것과 유사한 측정 망막이 성공적으로 측정될 수 있습니다. 센서에 사용됩니다. 망막이 n개 요소로 구성된 경우 측정 결과는 측정 벡터 또는 이미지 벡터로 표시될 수 있습니다. ,

여기서 각 요소 xi는 예를 들어 기호 이미지가 i번째 망막 세포를 통과하면 값 1을 취하고 그렇지 않으면 값 0을 갖습니다.

그림을 살펴보자. 2(b). 이 경우 이미지는 변수 t의 연속 함수(예: 소리 신호)입니다. 함수 값의 측정이 이산 지점 t1,t2, ..., tn에서 수행되면 x1= f(t1),x2=f(t2),...를 취하여 이미지 벡터를 형성할 수 있습니다. , xn = f(tn).

그림 1. 망막 측정

패턴 인식의 두 번째 문제는 획득된 원본 데이터로부터 특징적인 특징이나 속성을 분리하고 패턴 벡터의 차원을 줄이는 것과 관련됩니다. 이 문제는 종종 문제로 정의됩니다. 전처리 및 기능 선택.

이미지 클래스의 특징은 해당 클래스의 모든 이미지에 공통된 특징적인 속성입니다. 개별 클래스 간의 차이점을 특성화하는 기능은 클래스 간 기능으로 해석될 수 있습니다. 고려중인 모든 클래스에 공통된 클래스 내 기능은 인식 관점에서 유용한 정보를 전달하지 않으며 고려되지 않을 수도 있습니다. 특징 선택은 인식 시스템 구축과 관련된 중요한 작업 중 하나로 간주됩니다. 측정 결과를 통해 모든 클래스에 대한 완전한 고유 특징 세트를 얻을 수 있다면 이미지의 실제 인식 및 분류는 특별한 어려움을 초래하지 않습니다. 그러면 자동 인식은 테이블 스캐닝과 같은 간단한 매칭 프로세스나 절차로 축소됩니다. 그러나 대부분의 실제 인식 문제에서 고유한 특징의 전체 집합을 결정하는 것은 불가능하지는 않더라도 극도로 어려운 것으로 드러납니다. 일반적으로 원본 데이터에서 식별 가능한 특징 중 일부를 추출하고 이를 사용하여 자동 패턴 인식 프로세스를 단순화하는 것이 가능합니다. 특히, 정보 손실을 최소화하는 변환을 사용하면 측정 벡터의 차원을 줄일 수 있습니다.

패턴 인식 시스템 구축과 관련된 세 번째 문제는 식별 및 분류에 필요한 최적의 결정 절차를 찾는 것입니다. 인식할 이미지에 대해 수집된 데이터를 이미지 공간의 점이나 측정 벡터로 표현한 후, 우리는 이 데이터가 어떤 클래스에 해당하는지 기계가 파악하도록 합니다. w1, w2, ... ..., wm으로 표시되는 M 클래스를 구별하도록 기계를 설계하겠습니다. 이 경우 이미지 공간은 M개의 영역으로 구성되며 각 영역에는 한 클래스의 이미지에 해당하는 포인트가 포함되어 있다고 볼 수 있습니다. 이 경우, 인식 작업은 등록된 측정 벡터를 기준으로 M개의 클래스를 구분하는 결정 영역의 경계를 구성하는 것으로 간주할 수 있습니다. 이러한 경계는 예를 들어 결정 함수 d1(x), d2(x),..., dm(x)에 의해 정의됩니다. 판별 함수라고도 하는 이러한 함수는 x 이미지의 스칼라 및 단일 값 함수입니다. di(x) > dj(x)이면 이미지 x는 클래스 w1에 속합니다. 즉, i번째 결정 함수 di(x)가 가장 큰 값을 갖는 경우 의사 결정 프로세스의 구현을 기반으로 하는 자동 분류 방식의 의미 있는 그림이 그림 1에 표시됩니다. 2 (다이어그램에서 "GR"은 결정 기능의 생성기입니다).

그림 2. 자동 분류 체계.

결정적인 기능은 다양한 방법으로 얻을 수 있습니다. 인식된 이미지에 대한 완전한 사전 정보가 있는 경우 이 정보를 기반으로 결정 기능을 정확하게 결정할 수 있습니다. 이미지와 관련하여 질적 정보만 이용 가능하다면 결정적인 기능의 형태에 대해 합리적인 가정을 할 수 있습니다. 후자의 경우, 솔루션 영역의 경계가 실제 경계에서 크게 벗어날 수 있으므로 일련의 연속적인 조정을 통해 만족스러운 결과를 얻을 수 있는 시스템을 만드는 것이 필요합니다.

자동 패턴 인식 시스템을 이용하여 인식하고 분류하려는 객체(이미지)에는 측정 가능한 일련의 특성이 있어야 합니다. 전체 이미지 그룹에 대해 해당 측정 결과가 유사한 것으로 판명되면 이러한 객체는 동일한 클래스에 속하는 것으로 간주됩니다. 패턴 인식 시스템의 목적은 수집된 정보를 기반으로 인식되는 객체에서 측정된 특성과 유사한 특성을 가진 객체의 클래스를 결정하는 것입니다. 인식의 정확성은 측정된 특성에 포함된 식별 정보의 양과 이 정보를 사용하는 효과에 따라 달라집니다.

      패턴 인식 시스템을 구현하기 위한 기본 방법

패턴 인식은 현실 세계나 이상 세계에서 객체의 수치적 또는 상징적 표현에 대한 형식적 연산을 구성하고 적용하는 문제를 말하며, 그 결과는 이러한 객체 간의 등가 관계를 반영합니다. 동등 관계는 평가된 객체가 독립적인 의미 단위로 간주되는 모든 클래스에 속하는 것을 표현합니다.

인식 알고리즘을 구축할 때, 자신의 의미 있는 아이디어를 사용하거나 해결 중인 문제의 맥락에서 객체의 유사점과 차이점에 대한 외부 추가 정보를 사용하는 연구자가 등가 클래스를 지정할 수 있습니다. 그런 다음 그들은 "선생님과의 인정"에 대해 이야기합니다. 그렇지 않으면, 즉 자동화된 시스템이 외부 훈련 정보를 사용하지 않고 분류 문제를 해결하는 경우 자동 분류 또는 "비지도 인식"을 말합니다. 대부분의 패턴 인식 알고리즘에는 고성능 컴퓨터 기술을 통해서만 제공할 수 있는 매우 중요한 컴퓨팅 성능이 필요합니다.

다양한 저자(Yu.L. Barabash, V.I. Vasiliev, A.L. Gorelik, V.A. Skripkin, R. Duda, P. Hart, L.T. Kuzin, F.I. Peregudov, F.P. Tarasenko, Temnikov F.E., Afonin V.A., Dmitriev V.I., J. Tu, R. Gonzalez, P. Winston, K. Fu, Ya.Z. Tsypkin 등)은 패턴 인식 방법의 다른 유형을 제공합니다. 일부 저자는 모수적 방법, 비모수적 방법, 경험적 방법을 구별하고 다른 저자는 역사적으로 확립된 학파와 이 분야의 경향을 기반으로 방법 그룹을 식별합니다.

동시에 알려진 유형학은 공식적인 패턴 인식 알고리즘을 사용하여 주제 영역에 대한 지식을 표현하는 방식의 특수성을 반영하는 매우 중요한 특성 하나를 고려하지 않습니다. D.A. Pospelov는 지식을 표현하는 두 가지 주요 방법을 식별합니다.

    의도적 표현 - 속성(특성) 간의 연결 다이어그램 형식입니다.

    확장적 표현 - 특정 사실(객체, 예)을 사용합니다.

정확하게 이 두 가지 인식 방법 그룹, 즉 기호를 사용하는 그룹과 대상을 사용하는 그룹의 존재는 매우 자연스럽다는 점에 유의해야 합니다. 이러한 관점에서 볼 때, 이러한 방법 중 어느 것도 다른 방법과 별도로 취하면 주제 영역을 적절하게 반영할 수 없습니다. 이러한 방법들 사이에는 N. Bohr의 의미에서 상보성 관계가 있으므로 유망한 인식 시스템은 둘 중 하나가 아닌 두 가지 방법의 구현을 제공해야 합니다.

따라서 D.A. Pospelov가 제안한 인식 방법의 분류는 일반적으로 인간의 인지 방식의 기본 패턴을 기반으로 하며, 이러한 배경에 비해 더 가볍고 보이는 다른 분류에 비해 완전히 특별한(특권) 위치에 있습니다. 인공의.

의도적인 방법

인텐셔널 방법의 특징은 패턴 인식 알고리즘을 구성하고 적용할 때 특징의 다양한 특성과 그 연결을 작업 요소로 사용한다는 것입니다. 이러한 요소는 작업이 수행되는 개별 값 또는 특성 값의 간격, 평균값 및 분산, 특성 관계 행렬 등이 될 수 있으며 분석적 또는 구성적 형식으로 표현됩니다. 동시에 이러한 방법의 개체는 통합 정보 단위로 간주되지 않지만 해당 속성의 상호 작용 및 동작을 평가하기 위한 지표 역할을 합니다.

패턴 인식을 위한 의도적 방법 그룹은 광범위하며 하위 클래스로의 구분은 어느 정도 조건부입니다.

– 특성 값의 분포 밀도 추정을 기반으로 하는 방법

– 의사결정 기능의 클래스에 대한 가정에 기초한 방법

– 논리적 방법

– 언어적(구조적) 방법.

특성 값의 분포 밀도 추정을 기반으로 하는 방법입니다.이러한 패턴 인식 방법은 연구 대상이 일부 법칙에 따라 특징 공간에 분포된 다차원 확률 변수의 구현으로 간주되는 고전적인 통계 결정 이론에서 차용되었습니다. 이는 특정 인식 클래스에 속하는 개체의 사전 확률과 특징 벡터 값의 조건부 분포 밀도에 호소하는 베이지안 의사 결정 체계를 기반으로 합니다. 이러한 방법은 다차원 특징 공간의 다양한 영역에서 우도 비율을 결정하는 것으로 요약됩니다.

특징값의 분포 밀도를 추정하는 방법 그룹은 판별 분석 방법과 직접적인 관련이 있습니다. 의사 결정에 대한 베이지안 접근 방식은 현대 통계에서 가장 발전된 소위 모수적 방법 중 하나이며, 분포 법칙(이 경우 정규 법칙)의 분석적 표현은 알려진 것으로 간주되며 소수의 매개 변수( 평균값과 공분산 행렬의 벡터)를 추정해야 합니다.

이 그룹에는 독립 특성에 대한 우도 비율을 계산하는 방법도 포함됩니다. 특성의 독립성 가정(실제로는 거의 충족되지 않음)을 제외하고 이 방법은 분배법칙의 기능적 형태에 대한 지식을 전제로 하지 않습니다. 비모수적 방법으로 분류할 수 있다.

분포밀도곡선의 형태를 알 수 없고 분포밀도곡선의 성격에 대한 가정을 전혀 할 수 없을 때 사용되는 기타 비모수적 방법은 특별한 위치를 차지합니다. 여기에는 잘 알려진 다차원 히스토그램 방법, "k-최근접 이웃" 방법, 유클리드 거리 방법, 잠재적 함수 방법 등이 포함되며, 이를 일반화한 방법이 "Parzen 추정"입니다. 이러한 방법은 공식적으로 객체를 통합 구조로 사용하지만 인식 작업 유형에 따라 내포적 형태와 확장적 형태로 작용할 수 있습니다.

비모수적 방법은 주어진 다차원 볼륨에 속하는 객체의 상대적 수를 분석하고 훈련 세트의 객체와 인식되는 객체 사이의 거리에 대한 다양한 함수를 사용합니다. 정량적 특성의 경우, 그 수가 표본 크기보다 훨씬 적으면 객체에 대한 연산은 조건부 확률의 로컬 분포 밀도를 추정하는 데 중간 역할을 하며 객체는 독립적인 정보 단위의 의미론적 부하를 전달하지 않습니다. 동시에, 특징의 수가 연구 중인 개체의 수와 같거나 그보다 크고 특징이 질적 또는 이분법적 성격을 갖는 경우 확률 분포 밀도에 대한 지역적 추정에 대해 이야기할 수 없습니다. 이 경우 지정된 비모수적 방법의 객체는 독립적인 정보 단위(통합 경험적 사실)로 간주되며 이러한 방법은 연구 대상의 유사점과 차이점을 평가하는 의미를 얻습니다.

따라서 문제의 조건에 따라 비모수적 방법의 동일한 기술적 작업은 특징 값의 확률 분포 밀도에 대한 로컬 추정 또는 객체의 유사성과 차이에 대한 추정을 의미합니다.

지식의 의도적 표현의 맥락에서 확률 분포 밀도의 추정치인 비모수적 방법의 첫 번째 측면이 여기에서 고려됩니다. 많은 저자들은 실제로 Parzen 추정기와 같은 비모수적 방법이 잘 작동한다고 지적합니다. 이러한 방법을 사용할 때 가장 어려운 점은 지역 확률 분포 밀도의 추정치를 계산하기 위해 전체 훈련 표본을 기억해야 한다는 점과 훈련 표본의 비대표성에 대한 높은 민감도입니다.

의사결정 기능의 클래스에 대한 가정을 기반으로 하는 방법입니다.이 방법 그룹에서는 결정 기능의 일반적인 형태가 알려진 것으로 간주되며 해당 품질의 기능이 지정됩니다. 이 기능을 기반으로 훈련 시퀀스에서 결정 기능의 최상의 근사치가 검색됩니다. 가장 일반적인 것은 선형 및 일반화된 비선형 다항식 형태의 의사결정 함수 표현입니다. 결정 규칙 품질 기능은 일반적으로 분류 오류와 관련이 있습니다.

결정 함수 클래스에 대한 가정을 기반으로 한 방법의 주요 장점은 극값 검색 문제로서 인식 문제의 수학적 공식이 명확하다는 것입니다. 이 문제에 대한 해결책은 종종 일부 그래디언트 알고리즘을 사용하여 달성됩니다. 이 그룹의 다양한 방법은 광범위한 의사결정 규칙 품질 기능과 사용된 극한 검색 알고리즘으로 설명됩니다. 특히 뉴턴 알고리즘, 퍼셉트론 유형 알고리즘 등을 포함하여 고려 중인 알고리즘의 일반화는 확률론적 근사 방법입니다. 파라메트릭 인식 방법과 달리 이 방법 그룹을 사용하는 성공 여부는 특징 공간에서 객체 분포 법칙에 대한 이론적 아이디어와 경험적 현실 사이의 불일치에 크게 좌우되지 않습니다. 모든 작업은 하나의 주요 목표, 즉 의사결정 규칙의 기능적 품질의 극한값을 찾는 데 종속됩니다. 동시에, 모수적 방법과 고려된 방법의 결과는 유사할 수 있습니다. 위에서 볼 수 있듯이, 동일한 공분산 행렬을 사용하여 서로 다른 클래스에 있는 객체의 정규 분포에 대한 매개변수적 방법은 선형 결정 함수로 이어집니다. 또한 선형 진단 모델에서 정보 기능을 선택하기 위한 알고리즘은 극값 검색을 위한 경사 알고리즘의 특수 버전으로 해석될 수 있습니다.

특히 선형 결정 규칙 그룹에서 경사 극값 검색 알고리즘의 기능은 상당히 잘 연구되었습니다. 이러한 알고리즘의 수렴은 인식된 객체 클래스가 컴팩트한 기하학적 구조로 특징 공간에 표시되는 경우에만 입증되었습니다. 그러나 결정 규칙의 충분한 품질을 달성하려는 욕구는 전역 극값에 대한 솔루션 수렴에 대한 엄격한 수학적 증거가 없는 알고리즘의 도움으로 종종 충족될 수 있습니다.

이러한 알고리즘에는 진화 모델링의 방향을 나타내는 대규모 경험적 프로그래밍 절차 그룹이 포함됩니다. 진화 모델링은 자연에서 빌린 생체 공학적 방법입니다. 이는 복잡한 대상의 의미 있는 모델링 프로세스를 진화의 현상학적 모델링으로 대체하기 위해 알려진 진화 메커니즘의 사용을 기반으로 합니다.

패턴 인식에서 진화 모델링의 잘 알려진 대표적인 방법은 MGUA(Group Accounting of Argument) 방법입니다. GMDH의 기본은 자기 조직화의 원리이며, GMDH 알고리즘은 대량 선택 방식을 재현합니다. GMDH 알고리즘에서 일반화된 다항식의 구성원은 종종 Kolmogorov-Gabor 다항식이라고 불리는 특별한 방식으로 합성되고 선택됩니다. 이러한 합성과 선택은 점점 더 복잡해지며, 일반화된 다항식이 어떤 최종 형태를 갖게 될지 미리 예측하는 것은 불가능합니다. 첫째, 일반적으로 초기 특징의 간단한 쌍별 조합이 고려되며, 이로부터 결정 함수의 방정식이 컴파일되며 일반적으로 2차 이하입니다. 각 방정식은 독립적인 결정 함수로 분석되며, 컴파일된 방정식의 매개변수 값은 훈련 샘플을 사용하여 어떤 방식으로든 찾아집니다. 그런 다음 결정 함수의 결과 집합에서 가장 좋은 함수 중 일부가 선택됩니다. 개별 결정 기능의 품질은 외부 추가 원칙이라고도 하는 제어(검증) 샘플에서 확인됩니다. 선택된 부분 결정 기능은 새로운 결정 기능 등의 유사한 합성을 위한 초기 인수 역할을 하는 중간 변수로 추가로 간주됩니다. 이러한 계층적 합성 프로세스는 결정 기능의 품질 기준의 극한값에 도달할 때까지 계속됩니다. 원래 특징에 비해 다항식 항의 차수를 더 늘리려고 할 때 이러한 품질이 저하되는 것으로 나타납니다.

GMDH의 근간을 이루는 자기 조직화 원리를 경험적 자기 조직화라고 합니다. 왜냐하면 전체 프로세스가 경험적으로 선택된 외부 추가의 도입을 기반으로 하기 때문입니다. 결정의 결과는 이러한 경험적 방법에 따라 크게 달라질 수 있습니다. 결과 진단 모델은 객체가 훈련 및 테스트 샘플로 분할되는 방식, 인식 품질 기준이 결정되는 방식, 다음 선택 행에 전달되는 변수 수 등에 따라 달라집니다.

GMDH 알고리즘의 표시된 특징은 진화 모델링에 대한 다른 접근 방식의 특징이기도 합니다. 그러나 여기에서 고려 중인 방법의 한 가지 측면을 더 살펴보겠습니다. 이것이 그들의 의미있는 본질입니다. 결정 함수 클래스(진화 및 경사)에 대한 가정을 기반으로 하는 방법을 사용하면 매우 복잡한 진단 모델을 구축하고 실질적으로 수용 가능한 결과를 얻을 수 있습니다. 동시에, 이 경우 실제 목표 달성에는 인식된 대상의 성격에 대한 새로운 지식 추출이 수반되지 않습니다. 이러한 지식, 특히 속성(특징)의 상호작용 메커니즘에 대한 지식을 추출할 가능성은 여기서 근본적으로 결정 기능의 선택된 형태로 고정된 해당 상호작용의 주어진 구조에 의해 제한됩니다. 따라서 특정 진단 모델을 구성한 후 말할 수 있는 가장 큰 것은 결과 모델에 포함된 특징의 조합과 특징 자체를 나열하는 것입니다. 그러나 연구 대상 개체의 분포 특성과 구조를 반영하는 조합의 의미는 이 접근 방식의 틀 내에서 공개되지 않는 경우가 많습니다.

부울 메서드. 패턴 인식의 논리적 방법은 논리 대수학 장치를 기반으로 하며 개별 기능뿐만 아니라 기능 값의 조합에도 포함된 정보를 사용하여 작동할 수 있습니다. 이러한 방법에서는 모든 속성의 값이 기본 이벤트로 간주됩니다.

가장 일반적인 형태에서 논리적 방법은 논리적 패턴의 훈련 샘플을 통한 검색 유형과 특정 논리적 결정 규칙 시스템의 형성(예: 기본 이벤트의 접속사 형태)으로 특징지어질 수 있습니다. 그 자체의 무게가 있습니다. 논리적 방법 그룹은 다양하며 분석의 복잡성과 깊이가 다양한 방법을 포함합니다. 이분형(부울) 특성의 경우 소위 트리형 분류기, 막다른 테스트 방법, "Bark" 알고리즘 등이 널리 사용됩니다. 더 복잡한 방법은 D.S. Mill의 귀납적 방법의 형식화를 기반으로 합니다. 형식화는 준공리 이론을 구성하여 수행되며 가변 길이의 튜플에 대한 수량자를 사용하여 다중 정렬된 다중 값 논리를 기반으로 합니다.

패턴 인식의 다른 논리적 방법과 마찬가지로 "Kora" 알고리즘은 접속사를 선택할 때 완전한 검색이 필요하기 때문에 상당히 노동 집약적입니다. 따라서 논리적 방법을 사용할 때 계산 프로세스의 효율적인 구성에 대한 요구가 높으며 이러한 방법은 상대적으로 작은 크기의 특징 공간 및 강력한 컴퓨터에서만 잘 작동합니다.

언어적(구문적 또는 구조적) 방법.패턴 인식의 언어적 방법은 인식된 개체의 속성 집합을 설명할 수 있는 언어를 생성하는 특수 문법의 사용을 기반으로 합니다. 문법은 파생되지 않은 요소로부터 객체를 구성하는 규칙을 나타냅니다.

비파생 요소(하위 이미지)와 그 관계를 사용하여 이미지를 설명하는 경우 속성의 일반성 원리를 사용하는 언어적 또는 구문적 접근 방식을 사용하여 자동 인식 시스템을 구축합니다. 이미지는 언어의 구문 구조와 유사한 하위 이미지의 계층 구조를 사용하여 설명할 수 있습니다. 이러한 상황은 이미지 인식 문제를 해결할 때 형식 언어 이론을 적용하는 것을 가능하게 합니다. 이미지 문법은 변수, 비파생 요소, 대체 규칙이라는 유한한 요소 집합을 포함한다고 가정합니다. 대체 규칙의 성격에 따라 문법 유형이 결정됩니다. 가장 많이 연구된 문법 중에는 일반 문법, 문맥 없는 문법, 직접 구성 요소 문법이 있습니다. 이 접근 방식의 핵심은 이미지의 비파생 요소 선택, 이러한 요소의 조합 및 이를 이미지 문법으로 연결하는 관계, 마지막으로 적절한 언어로 분석 및 인식 프로세스를 구현하는 것입니다. 이 접근 방식은 수치 측정으로 설명할 수 없거나 너무 복잡해서 로컬 특징을 식별할 수 없고 개체의 전체 속성을 참조해야 하는 이미지로 작업할 때 특히 유용합니다.

예를 들어 E.A. 부타코프, V.I. 오스트로프스키, I.L. Fadeev는 언어학적 접근 방식을 사용하여 이미지 처리를 위한 다음과 같은 시스템 구조를 제안합니다(그림 3). 여기서 각 기능 블록은 해당 기능을 구현하는 소프트웨어(마이크로프로그램) 복합체(모듈)입니다.

그림 3. 인식 장치의 블록 다이어그램

이미지 분석 문제에 수리 언어학 방법을 적용하려는 시도는 이미지의 2차원 구조를 형식 언어의 1차원 체인에 매핑하는 것과 관련된 여러 가지 문제를 해결해야 할 필요성으로 이어집니다.

확장 방법

이 그룹의 방법에서는 의도적인 방향과 달리 연구된 각 대상에 어느 정도 독립적인 진단적 중요성이 부여됩니다. 기본적으로 이러한 방법은 사람들을 하나의 지표 또는 다른 지표로 순위가 매겨진 개체 체인이 아니라 각각 개인적이고 특별한 진단 가치를 갖는 통합 시스템으로 간주하는 임상 접근 방식에 가깝습니다. 연구 대상에 대한 이러한 신중한 태도는 객체를 속성의 행동 패턴을 탐지하고 기록하는 목적으로만 사용하는 의도적 방향 방법을 사용할 때 발생하는 각 객체에 대한 정보를 배제하거나 손실하는 것을 허용하지 않습니다.

논의된 방법을 사용한 패턴 인식의 주요 작업은 객체의 유사점과 차이점을 결정하는 작업입니다. 지정된 메소드 그룹의 개체는 진단 선례의 역할을 합니다. 또한 특정 작업의 조건에 따라 개별 선례의 역할은 주요 및 결정 프로세스에서 인식 프로세스의 매우 간접적인 참여에 이르기까지 가장 넓은 범위 내에서 달라질 수 있습니다. 결과적으로, 문제의 조건은 성공적인 솔루션을 위해 다양한 수의 진단 선례의 참여를 요구할 수 있습니다. 즉, 인식된 각 클래스에서 하나부터 전체 표본 크기까지, 그리고 객체의 유사성과 차이에 대한 측정을 계산하는 다양한 방법까지 다양합니다. . 이러한 요구 사항은 확장 메서드를 하위 클래스로 추가로 나누는 방법을 설명합니다.

    프로토타입과의 비교 방법;

    k-최근접 이웃 방법;

    의사결정 규칙의 집합체.

프로토타입과의 비교 방법.이는 가장 간단한 확장 인식 방법입니다. 예를 들어, 인식된 클래스가 컴팩트한 기하학적 그룹화로 기능 공간에 표시될 때 사용됩니다. 이 경우 일반적으로 클래스의 기하학적 그룹화 중심(또는 중심에 가장 가까운 객체)이 프로토타입 지점으로 선택됩니다.

알려지지 않은 객체를 분류하기 위해서는 가장 가까운 프로토타입을 찾고, 해당 객체는 이 프로토타입과 동일한 클래스에 속합니다. 분명히 이 방법에서는 일반화된 클래스 이미지가 생성되지 않습니다.

근접성을 측정하는 방법으로 다양한 유형의 거리를 사용할 수 있습니다. 종종 이분법적 특징의 경우 해밍 거리(Hamming distance)가 사용되며, 이 경우 유클리드 거리의 제곱과 같습니다. 이 경우 객체 분류를 위한 결정 규칙은 선형 결정 함수와 동일합니다.

이 사실은 특히 주목되어야 한다. 이는 데이터 구조에 대한 정보의 프로토타입과 속성 표현 간의 연결을 명확하게 보여줍니다. 위의 표현을 사용하면 예를 들어 이분형 특성 값의 선형 함수인 기존 측정 척도를 가상 진단 프로토타입으로 고려할 수 있습니다. 결과적으로 인식된 클래스의 공간 구조 분석을 통해 기하학적 컴팩트성에 대한 결론을 도출할 수 있다면 이러한 각 클래스를 실제로 선형 진단 모델과 동일한 하나의 프로토타입으로 대체하는 것으로 충분합니다.

물론 실제로 상황은 설명된 이상적인 예와 다른 경우가 많습니다. 프로토타입 진단 클래스와의 비교를 기반으로 한 인식 방법을 적용하려는 연구자는 어려운 문제에 직면합니다. 이는 우선 근접성 측정(미터법)의 선택으로, 객체 분포의 공간 구성을 크게 변경할 수 있습니다. 둘째, 독립적인 문제는 실험 데이터의 다차원 구조를 분석하는 것입니다. 이 두 가지 문제는 실제 문제의 특징인 특징 공간의 고차원성 조건에서 연구자에게 특히 심각합니다.

k-최근접 이웃 방법.판별 분석 문제를 해결하기 위한 k-최근접 이웃 방법은 1952년에 처음 제안되었습니다. 다음과 같습니다.

알려지지 않은 객체를 분류할 때, 인식된 클래스에 이미 알려진 멤버십을 가진 다른 객체(가장 가까운 이웃)의 특징 공간에서 기하학적으로 가장 가까운 주어진 수(k)를 찾습니다. 알 수 없는 개체를 특정 진단 클래스에 할당하는 결정은 간단한 투표 수를 사용하여 가장 가까운 이웃의 알려진 소속에 대한 정보를 분석하여 이루어집니다.

처음에는 우도비를 추정하기 위한 비모수적 방법으로 k-최근접 이웃 방법을 고려했습니다. 이 방법의 경우 최적의 베이지안 분류기와 비교하여 효율성에 대한 이론적 추정치를 얻었습니다. k-최근접 이웃 방법의 점근적 오류 확률은 베이즈 규칙의 오류를 2배 이하로 초과하는 것으로 입증되었습니다.

위에서 언급했듯이 실제 문제에서는 많은 양의 질적(이분법적) 특징으로 설명되는 개체를 사용하여 작업해야 하는 경우가 많습니다. 이 경우 특징 공간의 크기는 연구 중인 샘플의 부피와 같거나 이를 초과합니다. 이러한 조건에서는 훈련 샘플의 각 객체를 별도의 선형 분류기로 해석하는 것이 편리합니다. 그런 다음 특정 진단 클래스는 하나의 프로토타입이 아니라 일련의 선형 분류기로 표현됩니다. 선형 분류기의 결합된 상호 작용은 궁극적으로 특징 공간에서 인식된 클래스를 분리하는 조각별 선형 표면을 생성합니다. 초평면 조각으로 구성된 분할 표면의 유형은 다양할 수 있으며 분류된 집합체의 상대적 위치에 따라 달라집니다.

k-최근접 이웃 규칙을 사용한 분류 메커니즘의 또 다른 해석도 사용할 수 있습니다. 이는 원래 특징 공간으로의 일부 변환을 통해 추상적이거나 관련된 일부 잠재 변수가 존재한다는 아이디어를 기반으로 합니다. 잠재 변수 공간에서 객체 간의 쌍별 거리가 원래 특징의 공간과 동일하고 이러한 변수의 수가 객체 수보다 현저히 적은 경우 k-최근접 이웃 방법의 해석은 다음과 같습니다. 조건부 확률 분포 밀도의 비모수적 추정치를 비교하는 관점에서 고려해야 합니다. 여기에 제시된 잠재 변수에 대한 관점은 본질적으로 실제 차원에 대한 관점과 다양한 차원 축소 기술에 사용되는 다른 관점에 가깝습니다.

패턴 인식을 위해 k-최근접 이웃 방법을 사용할 때 연구자는 진단된 객체의 근접성을 결정하기 위한 메트릭을 선택하는 어려운 문제를 해결해야 합니다. 특징 공간의 차원이 높은 조건에서 이러한 문제는 이 방법의 복잡성으로 인해 극도로 악화되며 이는 고성능 컴퓨터에서도 중요해집니다. 따라서 여기에는 프로토타입과의 비교 방법과 마찬가지로 실험 데이터의 다차원 구조를 분석하여 진단 클래스를 나타내는 객체의 수를 최소화하는 창의적인 문제를 해결하는 것이 필요하다.

등급(투표) 계산 알고리즘.평가 계산 알고리즘(ABO)의 작동 원리는 주어진 특징 세트의 하위 집합 시스템인 특징 앙상블 시스템에 따라 인식된 객체와 참조 객체의 "근접성"을 특성화하는 우선순위(유사성 점수)를 계산하는 것입니다. .

이전에 논의된 모든 방법과 달리 견적 계산 알고리즘은 근본적으로 새로운 방식으로 개체 설명과 함께 작동합니다. 이러한 알고리즘의 경우 객체는 특징 공간의 매우 다른 하위 공간에 동시에 존재합니다. ABO 클래스는 기능을 사용하여 논리적인 결론을 내립니다. 어떤 기능 조합이 가장 유익한지 항상 알 수 없기 때문에 ABO에서는 가능한 모든 또는 특정 조합을 비교하여 개체의 유사도를 계산합니다. 개체 설명에 포함된 기능입니다.

의사결정 규칙의 집합체.결정 규칙은 2단계 인식 체계를 사용합니다. 첫 번째 수준에서는 개인 인식 알고리즘이 작동하며 그 결과는 합성 블록의 두 번째 수준에서 결합됩니다. 이러한 통합의 가장 일반적인 방법은 특정 알고리즘의 역량 영역을 식별하는 것을 기반으로 합니다. 역량 영역을 찾는 가장 간단한 방법은 특정 과학의 전문적 고려 사항을 기반으로 속성 공간을 선험적으로 분할하는 것입니다(예: 특정 속성에 따라 표본을 계층화하는 것). 그런 다음 선택한 각 영역에 대해 자체 인식 알고리즘이 구축됩니다. 또 다른 방법은 특정 인식 알고리즘의 성공이 입증된 인식된 개체의 이웃으로 특징 공간의 로컬 영역을 결정하기 위한 형식 분석의 사용을 기반으로 합니다.

합성 블록을 구성하는 가장 일반적인 접근 방식은 특정 알고리즘의 결과 지표를 새로운 일반화된 결정 규칙을 구성하기 위한 초기 특성으로 간주합니다. 이 경우, 패턴인식에서 위의 인장방향과 확장방향의 방법을 모두 사용할 수 있다. 일련의 결정 규칙을 생성하는 문제를 해결하는 데 효과적인 것은 "Kora" 유형의 논리 알고리즘과 추정 계산을 위한 알고리즘(ABO)입니다. 이는 소위 대수적 접근 방식의 기초를 형성하며 다음과 같은 연구와 건설적인 설명을 제공합니다. 기존의 모든 유형의 알고리즘이 적합한 프레임워크 내에서 인식 알고리즘.

신경망 방법

신경망 방법은 다양한 유형의 신경망(NN) 사용을 기반으로 하는 방법입니다. 패턴 및 이미지 인식을 위한 다양한 신경망의 주요 적용 분야:

    주어진 이미지의 주요 특성이나 특징을 추출하는 애플리케이션,

    이미지 자체 또는 이미지에서 이미 추출된 특성 분류(첫 번째 경우 주요 특성 추출은 네트워크 내에서 암묵적으로 발생함)

    최적화 문제를 해결합니다.

다층 신경망.다층 신경망(MNN)의 아키텍처는 순차적으로 연결된 레이어로 구성됩니다. 각 레이어의 뉴런은 이전 레이어의 모든 뉴런에 대한 입력과 다음 레이어의 출력으로 연결됩니다.

단일 계층 신경망(자동 연관 메모리라고 함)의 가장 간단한 적용은 입력된 이미지를 재구성하도록 네트워크를 훈련시키는 것입니다. 테스트 이미지를 입력으로 제공하고 재구성된 이미지의 품질을 계산함으로써 네트워크가 입력 이미지를 얼마나 잘 인식했는지 평가할 수 있습니다. 이 방법의 긍정적인 특성은 네트워크가 왜곡되고 노이즈가 많은 이미지를 복원할 수 있다는 점이지만 더 심각한 목적에는 적합하지 않습니다.

MNN은 직접적인 이미지 분류에도 사용됩니다. 어떤 형태로든 이미지 자체 또는 이전에 추출된 이미지의 주요 특성 세트가 입력으로 제공됩니다. 출력에서 ​​최대 활동을 가진 뉴런은 인식된 클래스에 속함을 나타냅니다. 4). 이 활동이 특정 임계값 미만인 경우 제출된 이미지는 알려진 클래스에 속하지 않는 것으로 간주됩니다. 학습 과정은 입력에 제공된 이미지가 특정 클래스에 속하는지 확인합니다. 이를 지도 학습이라고 합니다. 이 접근 방식은 소규모 그룹의 액세스 제어 작업에 적합합니다. 이 접근 방식을 사용하면 네트워크가 이미지 자체를 직접 비교할 수 있지만 클래스 수가 증가하면 네트워크의 훈련 및 작동 시간이 기하급수적으로 늘어납니다. 따라서 대규모 데이터베이스에서 유사한 사람을 찾는 것과 같은 작업을 수행하려면 검색의 기반이 되는 핵심 특성의 압축된 집합을 추출해야 합니다.

전체 이미지의 주파수 특성을 이용한 분류 방법은 에 설명되어 있습니다. 다중값 뉴런을 기반으로 한 단일 레이어 신경망이 사용되었습니다.

이미지 분류를 위한 신경망의 적용은 네트워크 입력이 주성분 방법을 사용하여 이미지 분해 결과를 수신할 때 표시됩니다.

기존 MNN에서는 층간 신경 연결이 완전히 연결되어 있으며, 이미지는 2차원이지만 1차원 벡터로 표현됩니다. 컨볼루션 신경망 아키텍처는 이러한 단점을 극복하는 것을 목표로 합니다. 이는 로컬 수용체 필드(뉴런의 로컬 2차원 연결 제공), 공유 가중치(이미지의 어느 위치에서든 특정 특징 감지 제공) 및 공간 서브샘플링을 통한 계층적 구성을 사용했습니다. CNN(컨벌루션 신경망)은 규모 변경, 변위, 회전 및 왜곡에 대한 부분적인 저항을 제공합니다.

MNN은 특정 유형의 객체를 감지하는 데에도 사용됩니다. 훈련된 MNN은 이미지가 "자신의" 클래스에 속하는지 어느 정도 결정할 수 있다는 사실 외에도 특정 클래스를 안정적으로 감지하도록 특별히 훈련될 수 있습니다. 이 경우 출력 클래스는 지정된 이미지 유형에 속하거나 속하지 않는 클래스가 됩니다. 입력 영상에서 얼굴 영상을 검출하기 위해 신경망 검출기를 사용하였다. 이미지는 20x20 픽셀의 창으로 스캔되었으며, 이는 주어진 영역이 얼굴 클래스에 속하는지 여부를 결정하는 네트워크 입력에 공급되었습니다. 학습은 긍정적인 예시(다양한 얼굴 이미지)와 부정적인 예시(얼굴이 아닌 이미지)를 모두 사용하여 수행되었습니다. 탐지의 신뢰성을 높이기 위해 신경망 팀을 사용하고 다양한 초기 가중치로 훈련했으며 그 결과 신경망이 다양한 방식으로 오류를 발생시키고 전체 팀의 투표를 통해 최종 결정이 내려졌습니다.

그림 5. 주성분(고유면) 및 주성분으로의 이미지 분해

또한 신경망은 주요 이미지 특성을 추출하는 데 사용되며, 이는 후속 분류에 사용됩니다. 에서는 주성분 분석 방법의 신경망 구현 방법을 보여줍니다. 주성분 분석 방법의 핵심은 입력 영상을 특징짓는 최대로 장식된 계수를 얻는 것입니다. 이러한 계수를 주성분이라고 하며 통계적 영상 압축에 사용됩니다. 여기서는 소수의 계수를 사용하여 전체 영상을 표현합니다. 입력에 공급된 출력 이미지를 복원하기 위해 역전파 방법을 사용하여 훈련된 N개의 뉴런(이미지의 차원보다 훨씬 작음)을 포함하는 하나의 숨겨진 레이어가 있는 신경망은 출력에서 ​​첫 번째 N개의 주성분의 계수를 생성합니다. 비교에 사용되는 숨겨진 뉴런의 모습입니다. 일반적으로 10~200개의 주요 구성 요소가 사용됩니다. 컴포넌트의 개수가 많아지면 대표성이 크게 떨어지기 때문에 더 많은 개수의 컴포넌트를 사용하는 것은 의미가 없습니다. 신경 요소의 비선형 활성화 함수를 사용하면 주성분으로의 비선형 분해가 가능합니다. 비선형성을 통해 입력 데이터의 변화를 보다 정확하게 반영할 수 있습니다. 얼굴 이미지 분해에 주성분 분석을 적용하여 고유 얼굴이라는 주성분을 얻습니다. 이는 또한 유용한 속성을 가지고 있습니다. 즉, 성별, 인종, 감정과 같은 얼굴의 필수 특성을 주로 반영하는 구성 요소가 있습니다. 재구성할 때 구성 요소는 얼굴과 같은 모양을 가지며 전자는 얼굴의 가장 일반적인 모양을 반영하고 후자는 얼굴 간의 다양한 작은 차이를 나타냅니다(그림 5). 이 방법은 대규모 데이터베이스에서 유사한 얼굴 이미지를 찾는 데 매우 적합합니다. NN을 사용하여 주성분의 차원을 더욱 줄일 수 있는 가능성도 표시됩니다. 입력 이미지의 재구성 품질을 평가함으로써 해당 이미지가 얼굴 클래스에 속하는지 매우 정확하게 결정할 수 있습니다.

고차 신경망.고차 신경망(HANN)은 레이어가 하나만 있다는 점에서 MNN과 다르지만 뉴런 입력은 입력 벡터의 두 개 이상의 구성 요소의 곱인 고차 항도 수신합니다. 이러한 네트워크는 복잡한 분할 표면을 형성할 수도 있습니다.

홉필드 신경망. Hopfield NN(HNS)은 단일 레이어이고 완전히 연결되어 있으며(뉴런 자체에는 연결이 없음) 출력이 입력에 연결됩니다. MNS와 달리 NSC는 휴식입니다. 초기상태로 설정되어 안정된 상태에 도달할 때까지 동작하며, 이것이 출력값이 됩니다. 최적화 문제와 관련된 전역 최소값을 검색하기 위해 NSC의 확률론적 수정이 사용됩니다.

NSH를 연관 메모리로 사용하면 왜곡된 이미지가 입력에 공급될 때 네트워크가 훈련된 이미지를 정확하게 복원할 수 있습니다. 이 경우, 네트워크는 가장 가까운(로컬 최소 에너지의 의미에서) 이미지를 "기억"하여 이를 인식합니다. 이러한 기능은 위에서 설명한 자동 연상 메모리의 순차적 적용으로 표현될 수도 있습니다. 자동 연관 메모리와 달리 NSC는 이상적으로 이미지를 정확하게 복원합니다. 간섭 최소화를 방지하고 네트워크 용량을 늘리기 위해 다양한 방법이 사용됩니다.

자기 조직화 코호넨 신경망. KONN(자가 구성 코호넨 신경망)은 입력 이미지 공간의 위상적 순서를 제공합니다. n차원 입력 공간을 m차원 출력 공간 m으로 위상적으로 연속적으로 매핑할 수 있습니다.<

인지트론.코그니트론의 아키텍처는 시각 피질의 구조와 유사하며, 층간 뉴런이 국소적으로만 연결되는 계층적 다층 조직을 갖고 있다. 경쟁 학습을 통해 학습합니다(교사 없이). 뇌의 각 층은 서로 다른 수준의 일반화를 구현합니다. 입력 레이어는 선과 같은 단순한 패턴과 시각적 영역의 특정 영역에서의 방향에 민감한 반면, 다른 레이어의 응답은 더 복잡하고 추상적이며 패턴 위치와 무관합니다. 시각 피질의 조직을 모델링하여 유사한 기능이 인지트론에서 구현됩니다.

Neocognitron은 Cognitron의 아이디어를 더욱 발전시킨 것으로 시각 시스템의 구조를 보다 정확하게 반영하여 변형, 회전, 왜곡 및 크기 변화에 관계없이 이미지를 인식할 수 있습니다.

Cognitron은 강력한 이미지 인식 도구이지만 현재로서는 달성할 수 없는 높은 계산 비용이 필요합니다.

고려되는 신경망 방법은 빠르고 안정적인 영상 인식을 제공하지만, 이러한 방법을 사용할 경우 3차원 물체를 인식하는 데 문제가 발생합니다. 그러나 이 접근 방식에는 많은 장점이 있습니다.

      결론

현재 다양한 응용 작업에 대한 자동 패턴 인식 시스템이 상당히 많이 있습니다.

기본적인 과학적 방향인 형식적 방법에 의한 패턴 인식은 무궁무진합니다.

이미지 처리의 수학적 방법은 과학, 기술, 의학, 사회 분야 등 다양한 응용 분야를 가지고 있습니다. 앞으로는 인간의 삶에서 패턴 인식의 역할이 더욱 커질 것입니다.

신경망 방법은 빠르고 안정적인 이미지 인식을 제공합니다. 이 접근 방식은 많은 장점이 있으며 가장 유망한 접근 방식 중 하나입니다.

문학

    D.V. 브릴육, V.V. Starovoitov. 이미지 인식을 위한 신경망 방법 // /

    쿠진 L.T. 사이버네틱스의 기초: 사이버네틱스 모델의 기초. T.2. -M .: 에너지, 1979. - 584p.

    페레구도프 F.I., 타라센코 F.P. 시스템 분석 소개: 교과서. – M .: 고등 학교, 1997. - 389 p.

    Temnikov F.E., Afonin V.A., Dmitriev V.I. 정보 기술의 이론적 기초. -M .: 에너지, 1979. - 511 p.

    Tu J., Gonzalez R. 패턴 인식의 원리. /트랜스. 영어로부터 -M .: Mir, 1978. - 410 p.

    윈스턴 P. 인공 지능. /트랜스. 영어로부터 -M .: Mir, 1980.-520p.

    Fu K. 패턴 인식의 구조적 방법: 영어 번역. -M .: Mir, 1977. - 320 p.

    Tsypkin Ya.Z. 식별 정보 이론의 기초. -M .: Nauka, 1984.-520p.

    포펠로프 G.S. 인공지능은 새로운 정보기술의 기초이다. -M .: Nauka, 1988.-280p.

    Yu.Lifshits, 패턴 인식의 통계적 방법 ///modern/07modernnote.pdf

    Bohr N. 원자 물리학과 인간 인지. /영어에서 번역됨 -M .: Mir, 1961.-151 p.

    Butakov E.A., Ostrovsky V.I., Fadeev I.L. 컴퓨터에서 이미지 처리.1987.-236p.

    Duda R., Hart P. 패턴 인식 및 장면 분석. /영어에서 번역됨 -M .: Mir, 1978. - 510 p.

    듀크 V.A. 컴퓨터 심리 진단. - 상트페테르부르크: Brotherhood, 1994. - 365 p.

    Aizenberg I. N., Aizenberg N. N. 및 Krivosheev G. A. 다중 값 및 범용 이진 뉴런: 학습 알고리즘, 이미지 처리 및 인식에 대한 응용. 인공 지능 강의 노트 - 패턴 인식의 기계 학습 및 데이터 마이닝, 1999, pp. 21-35.

    Ranganath S. 및 Arun K. 변환 기능과 신경망을 사용한 얼굴 인식. 패턴 인식 1997, Vol. 30, pp. 1615-1622.

    Golovko V.A. 신경지능: 이론과 응용. 제 1권. 직접 및 피드백 연결을 갖춘 신경망의 구성 및 훈련 - 브레스트: BPI, 1999, - 260페이지.

    Vetter T. 및 Poggio T. 단일 예제 이미지의 선형 객체 클래스 및 이미지 합성. 패턴 분석 및 기계 지능에 관한 IEEE 거래 1997, Vol. 19, pp. 733-742.

    Golovko V.A. 신경지능: 이론과 응용. 제 2권. 자기 조직화, 내결함성 및 신경망 적용 - 브레스트: BPI, 1999, - 228 p.

    Lawrence S., Giles C. L., Tsoi A. C. 및 Back A. D. 얼굴 인식: 컨볼루션 신경망 접근 방식. 신경망에 대한 IEEE 트랜잭션, 신경망 및 패턴 인식에 관한 특별호, pp. 1-24.

    Wasserman F. 신경컴퓨터 기술: 이론 및 실제, 1992 – 184 p.

    Rowley, H. A., Baluja, S. 및 Kanade, T. 신경망 기반 얼굴 감지. 패턴 분석 및 기계 지능에 관한 IEEE 거래 1998, Vol. 20, pp. 23-37.

    Valentin D., Abdi H., O"Toole A. J. 및 Cottrell G. W. 얼굴 처리의 연결주의 모델: 설문조사. IN: Pattern Recognition 1994, Vol. 27, pp. 1209-1230.

    문서

    그들은 알고리즘을 구성합니다 인식이미지. 행동 양식인식이미지위에서 언급했듯이... 현실은 그렇지 않습니다. 존재한다"일반적인 생태계", 그리고 존재하다오직 개인적인... 이 세부적인 결론 검토행동 양식인식우리는 ...에서 발표했습니다.

  1. 시각적 인식의 특징을 고려한 얼굴 이미지 기반의 사람 식별 방법 검토

    검토

    ... 인식대비가 낮은 물체를 가진 사람이 포함합니다. 명 주어진 검토흔한 행동 양식 ... 존재한다전선 행동 양식 ... 방법, 연구 결과, 개발을 위한 플랫폼 방법인식 ...

  2. 다중 주제 하이퍼텍스트 문서 분류를 위한 소프트웨어 도구 구성 방법에 대한 Glazkova Valentina Vladimirovna 연구 및 개발의 이름을 따서 명명됨 전문 분야 05

    논문 초록

    하이퍼텍스트 문서. 이 장에서는 다음을 제공합니다. 검토기존의행동 양식고려중인 문제에 대한 해결책, 설명... 관련성이 가장 낮은 클래스를 잘라내 // 수학 행동 양식인식이미지: 제13차 전러시아 회의. 레닌그라드 지역...

  3. 슬라이드 0 유전 텍스트 분석 및 처리와 관련된 생물정보학 업무 검토

    강의

    DNA 및 단백질 서열. 검토작업으로서의 생물정보학 작업... 신호에는 현대적인 사용이 필요합니다. 행동 양식인식이미지, 통계적 접근 방식 및... 낮은 유전자 밀도를 사용합니다. 기존의유전자 예측 프로그램은...

이 기사에서는 분류 및 회귀 문제에 대한 지식이 있는 독자에게 개념을 명확하게 하는 방식으로 기계 학습 이론의 몇 가지 기본 결과를 강조하기 시작했습니다. 그런 기사를 쓰겠다는 생각은 책을 읽을 때마다 점점 더 명확해졌고, 기계가 인식하도록 가르치는 아이디어가 마치 중간에서 나온 것처럼 말했고 이 글의 저자가 무엇인지 완전히 불분명했습니다. 그 방법은 그것을 개발할 때 의존했습니다. 반면에 머신러닝의 기본 개념을 다루는 책이 많이 있지만, 그 안에 있는 자료의 표현은 처음 읽기에는 너무 복잡해 보일 수 있습니다.

동기 부여

이 문제를 생각해 봅시다. 우리는 맛있는 것과 맛이 없는 것, 1과 0이라는 두 가지 등급의 사과를 가지고 있습니다. 사과는 색상과 크기라는 특성을 가지고 있습니다. 색상은 0에서 1까지 연속적으로 변경됩니다. 0 - 완전히 녹색 사과, 1 - 완전히 빨간색. 크기는 0 - 작은 사과, 1 - 큰 등 동일한 방식으로 변경될 수 있습니다. 우리는 색상과 크기를 입력으로 받아 사과의 등급(맛있는지 아닌지)을 출력하는 알고리즘을 개발하고 싶습니다. 오류 수가 적을수록 더 좋은 것은 매우 바람직합니다. 동시에 사과의 색상, 크기 및 등급에 대한 과거 데이터가 포함된 최종 목록이 있습니다. 그러한 문제를 어떻게 해결할 수 있습니까?

논리적 접근

문제를 해결할 때 가장 먼저 떠오를 수 있는 방법은 다음과 같습니다. if-else와 같은 규칙을 수동으로 생성하고 색상 및 크기 값에 따라 특정 클래스를 사과에 할당하겠습니다. 저것들. 우리는 색상과 크기라는 전제 조건을 가지고 있으며 결과는 사과의 맛입니다. 징후가 거의 없고 비교를 위해 눈으로 임계값을 추정할 수 있는 경우에는 상당히 합리적입니다. 그러나 명확한 조건을 제시하는 것이 불가능할 수도 있고, 데이터에서 어떤 임계값을 취해야 하는지 명확하지 않으며, 향후 징후 수가 증가할 수도 있습니다. 과거 데이터가 포함된 목록에서 색상과 크기가 동일한 두 개의 사과를 찾았지만 하나는 맛있다고 표시되고 다른 하나는 그렇지 않은 경우 어떻게 될까요? 따라서 첫 번째 방법은 원하는 만큼 유연하고 확장 가능하지 않습니다.

명칭

다음 표기법을 소개하겠습니다. 우리는 번째 사과를 로 표시하겠습니다. 차례로 각각은 색상과 크기라는 두 개의 숫자로 구성됩니다. 우리는 이 사실을 한 쌍의 숫자로 표시할 것입니다: . 우리는 각 사과의 클래스를 로 표시합니다. 과거 데이터가 포함된 목록은 문자로 표시되며, 이 목록의 길이는 입니다. 이 목록의 번째 요소는 사과의 속성과 해당 클래스의 값입니다. 저것들. . 샘플이라고도 부르겠습니다. 특정 속성과 클래스의 값을 취할 수 있는 변수를 나타내기 위해 대문자를 사용합니다. 새로운 개념을 소개하겠습니다. 결정 규칙은 색상과 크기를 입력으로 사용하고 클래스 레이블을 출력으로 반환하는 함수입니다.

확률적 접근

전제와 결과가 포함된 논리적 방법에 대한 아이디어를 개발하면서 스스로에게 질문해 봅시다. 측정된 색상 및 크기 값을 고려할 때 샘플에 속하지 않는 사과가 맛있을 확률은 얼마입니까? ? 확률 이론의 표기법에서 이 질문은 다음과 같이 쓸 수 있습니다.

결과적으로 이 표현은 전제로 해석될 수 있지만 전제에서 결과로의 전환은 논리적 법칙이 아닌 확률 법칙을 따릅니다. 저것들. 클래스에 대해 부울 값 0과 1을 갖는 진리표 대신 0에서 1 사이의 확률 값이 있습니다. 베이즈 공식을 적용하고 다음 표현식을 얻습니다.

이 표현의 오른쪽 부분을 좀 더 자세히 살펴보겠습니다. 승수를 사전 확률이라고 하며, 가능한 모든 사과 중에서 맛있는 사과를 찾을 확률을 의미합니다. 맛없는 사과를 만날 가능성이 선험적으로 있습니다. 이 확률은 사과가 자연에 얼마나 맛있고 맛이 없는지에 대한 우리의 개인적인 지식을 반영할 수 있습니다. 예를 들어, 과거 경험을 통해 우리는 모든 사과의 80%가 맛있다는 것을 알고 있습니다. 또는 과거 데이터 S를 사용하여 목록에서 맛있는 사과의 비율을 계산하여 간단히 이 값을 추정할 수 있습니다. 다음 요소는 클래스 1 사과에 대해 특정 색상 및 크기 값을 얻을 가능성을 보여줍니다. 이 표현식은 우도 함수는 다음과 같이 보일 수 있습니다. 예를 들어 정규 분포와 같은 특정 분포입니다. 원하는 확률이 0에서 1까지 다양하도록 분모를 정규화 상수로 사용합니다. 우리의 궁극적인 목표는 확률을 검색하는 것이 아니라 즉시 클래스를 제공하는 결정적인 규칙을 검색하는 것입니다. 결정 규칙의 최종 형태는 우리에게 알려진 값과 매개변수에 따라 달라집니다. 예를 들어 사전 확률의 값만 알 수 있고 나머지 값은 추정할 수 없습니다. 그러면 결정적인 규칙은 이것이 될 것입니다. 모든 사과에 선험적 확률이 가장 큰 클래스의 값을 할당하는 것입니다. 저것들. 자연에 있는 사과의 80%가 맛있다는 것을 안다면 각 사과에 클래스 1을 부여합니다. 그러면 오류는 20%가 됩니다. 우도 함수 $p(X=x_m | Y=1)$의 값도 추정할 수 있다면 위에서 설명한 대로 베이즈 공식을 사용하여 원하는 확률 값을 찾을 수 있습니다. 여기서 결정적인 규칙은 다음과 같습니다. 확률이 최대인 클래스에 레이블을 지정합니다.

이 규칙을 베이지안 분류기라고 부르겠습니다. 확률을 다루고 있기 때문에 확률 값이 크다고 해서 사과가 클래스 0에 속하지 않는다고 보장할 수는 없습니다. 다음과 같이 사과에 대한 오류 확률을 추정해 보겠습니다. 결정 규칙이 1과 같은 클래스 값을 반환한 경우 , 오류가 발생할 확률은 다음과 같습니다.

우리는 이 특정 예뿐만 아니라 일반적으로 가능한 모든 사과에 대한 분류기 오류의 확률에 관심이 있습니다.

이 표현식은 예상되는 오류 값입니다. 그래서 원래의 문제를 해결해서 베이지안 분류기에 이르렀는데, 그 단점은 무엇일까요? 주요 문제는 데이터로부터 조건부 확률을 추정하는 것입니다. 우리의 경우 색상과 크기라는 한 쌍의 숫자로 객체를 표현하지만 더 복잡한 문제에서는 특징의 차원이 몇 배 더 높을 수 있으며 과거 데이터가 포함된 목록의 관찰 횟수가 다음을 추정하기에 충분하지 않을 수 있습니다. 다차원 확률 변수의 확률. 다음으로 분류기 오류의 개념을 일반화하고 문제를 해결하기 위해 다른 분류기를 선택하는 것이 가능한지 살펴보겠습니다.

분류기 오류 손실

이미 결정 규칙이 있다고 가정해 보겠습니다. 그러면 두 가지 유형의 오류가 발생할 수 있습니다. 첫 번째는 실제 클래스가 1인 클래스 0에 개체를 할당하는 것이고, 그 반대는 실제 클래스가 0인 클래스 1에 개체를 할당하는 것입니다. 일부 문제에서는 이것이 중요합니다. 이러한 경우를 구별하기 위해. 예를 들어, 맛있다고 라벨이 붙은 사과가 맛이 없다고 판명될 때 우리는 더 많은 고통을 겪으며, 그 반대의 경우도 마찬가지입니다. 우리는 개념에서 실망스러운 기대로 인한 불편함의 정도를 공식화합니다. 보다 일반적으로 각 분류기 오류에 대한 숫자를 반환하는 손실 함수가 있습니다. 실제 클래스 레이블이 되자. 그런 다음 손실 함수는 실제 클래스 레이블의 손실 값과 결정 규칙의 값을 반환합니다. 이 함수를 사용하는 예 - 알려진 클래스가 있는 사과에서 가져와 결정 규칙에 대한 입력으로 사과를 전달하고 결정 규칙에서 클래스 추정치를 얻은 다음 값이 일치하면 가정합니다. 분류자가 실수하지 않았으며 손실이 없으며 값이 일치하지 않으면 함수가 말하는 손실 금액입니다.

조건부 및 베이지안 위험

이제 손실 함수가 있고 객체 오분류로 인해 손실되는 양을 알았으므로 여러 객체에 걸쳐 평균적으로 손실되는 양을 이해하는 것이 좋을 것입니다. 값을 알고 있는 경우 - 측정된 색상 및 크기 값과 클래스의 실제 값을 고려하여 두 번째 사과가 맛있을 확률입니다(예를 들어 샘플 S에서 사과를 가져옵니다. 기사 시작 부분) 그런 다음 조건부 위험의 개념을 소개할 수 있습니다. 조건부 위험은 결정적인 규칙에 대한 시설의 평균 손실 가치입니다.

이진 분류의 경우 다음과 같습니다.

위에서 우리는 객체를 가장 높은 확률 값을 갖는 클래스로 분류하는 결정 규칙을 설명했는데, 이 규칙은 평균 손실(베이지안 위험)을 최소로 제공하므로 베이지안 분류기는 위험 기능 측면에서 최적입니다. 우리는 소개했습니다. 이는 베이지안 분류기가 분류 오류가 가장 작다는 것을 의미합니다.

몇 가지 일반적인 손실 함수

가장 일반적인 손실 함수 중 하나는 첫 번째 및 두 번째 유형의 오류로 인한 손실이 동일한 대칭 함수입니다. 예를 들어, 손실 함수 1-0(0-1 손실)은 다음과 같이 정의됩니다.

그러면 a(x) = 1에 대한 조건부 위험은 단순히 객체에서 클래스 0을 얻을 확률 값이 됩니다.

마찬가지로 a(x) = 0의 경우:

1-0 손실 함수는 분류자가 객체에 오류를 범하면 1의 값을 취하고 그렇지 않으면 0의 값을 갖습니다. 이제 결정 규칙과 실제 클래스 레이블에 따라 오류 값이 1이 아니라 다른 함수 Q인지 확인하겠습니다.

그러면 조건부 위험은 다음과 같이 작성할 수 있습니다.

표기에 관한 주의 사항

이전 텍스트는 Duda와 Hart가 책에서 채택한 표기법에 따라 작성되었습니다. V.N. Vapnik은 다음 프로세스를 고려했습니다. 자연은 분포 $p(x)$에 따라 개체를 선택한 다음 조건부 분포 $p(y|x)$에 따라 개체에 클래스 레이블을 할당합니다. 그러면 위험(손실에 대한 기대)은 다음과 같이 정의됩니다.

알 수 없는 종속성을 근사화하려는 함수는 실제 값과 함수 값에 대한 손실 함수입니다. 이 표기법은 다음 개념인 경험적 위험을 소개하기 위해 더욱 명확해졌습니다.

경험적 위험

이 단계에서 우리는 논리적 방법이 충분히 유연하지 않기 때문에 우리에게 적합하지 않다는 것을 이미 발견했으며, 특징이 많지만 훈련 데이터 수가 제한되어 있을 때 베이지안 분류기를 사용할 수 없습니다. 확률을 회복할 수 없습니다. 또한 베이지안 분류기는 분류 오류가 가장 작다는 것도 알고 있습니다. 베이지안 분류기를 사용할 수 없으므로 더 간단한 것을 사용하겠습니다. 일부 매개변수적 함수 계열 H를 수정하고 이 계열에서 분류자를 선택해 보겠습니다.

예: 다음 형식의 모든 기능을 설정해 보겠습니다.

이 세트의 모든 기능은 계수에 의해서만 서로 다릅니다. 이러한 패밀리를 선택할 때 클래스 1의 포인트와 클래스 0의 포인트 사이의 색상 크기 좌표에서 다음과 같은 계수로 직선을 그릴 수 있다고 가정했습니다. 서로 다른 클래스의 점이 직선의 서로 다른 측면을 따라 위치하는 방식입니다. 이 유형의 선에 대해 계수 벡터는 선에 수직인 것으로 알려져 있습니다. 이제 이 작업을 수행합니다. 사과를 가져다가 색상과 크기를 측정하고 색상 크기 축의 그래프에서 얻은 좌표로 점을 그립니다. 다음으로 이 점과 벡터 $w$ 사이의 각도를 측정합니다. 우리는 우리의 점이 직선의 한 쪽에 있을 수도 있고 다른 쪽에 있을 수도 있다는 것을 알게 됩니다. 그러면 과 점 사이의 각도는 예각이거나 둔각이 되며 스칼라 곱은 양수 또는 음수가 됩니다. 이는 다음과 같은 결정적인 규칙으로 이어집니다.

$H$ 함수의 클래스를 수정한 후에는 질문이 생깁니다. 필요한 계수를 사용하여 함수를 선택하는 방법은 무엇입니까? 대답은 베이지안 위험 $R()$을 최소화하는 함수를 선택하는 것입니다. 또 문제는 베이지안 위험값을 계산하기 위해서는 분포 $p(x,y)$를 알아야 하는데 우리에게 주어지지도 않고, 항상 복원이 가능한 것도 아니라는 점이다. 또 다른 아이디어는 가능한 모든 개체에 대한 위험을 최소화하는 것이 아니라 샘플에 대해서만 위험을 최소화하는 것입니다. 저것들. 최소화 기능:

이 기능을 경험적 위험이라고 합니다. 다음 질문은 경험적 위험을 최소화함으로써 베이지안 위험도 최소화하기로 결정한 이유입니다. 우리의 실제 임무는 분류 오류를 가능한 한 적게 만드는 것임을 상기시켜 드리겠습니다. 오류가 적을수록 베이지안 위험이 낮아집니다. 데이터 양이 증가함에 따라 경험적 위험이 베이지안 위험으로 수렴되는 것에 대한 정당화는 70년대 두 명의 과학자인 V. N. Vapnik과 A. Ya. Chervonenkis에 의해 얻어졌습니다.

융합을 보장합니다. 가장 간단한 경우

그래서 우리는 베이지안 분류기가 가능한 가장 작은 오류를 제공하지만 대부분의 경우 이를 학습할 수 없으며 오류(위험)를 계산할 수도 없다는 결론에 도달했습니다. 그러나 경험적 위험이라고 하는 베이지안 위험에 대한 근사치를 계산할 수 있으며, 경험적 위험을 알고 있으면 경험적 위험을 최소화하는 근사 함수를 선택할 수 있습니다. 경험적 위험을 최소화하면 베이지안 위험도 최소화하는 분류기가 생성되는 가장 간단한 상황을 살펴보겠습니다. 가장 간단한 경우에는 실제로 거의 만족되지 않지만 나중에 완화될 수 있는 가정을 세워야 합니다. 분류자를 선택할 유한한 함수 클래스를 수정하고 자연이 사과를 맛으로 분류하는 데 사용하는 실제 함수는 다음과 같은 유한한 가설 집합에 있다고 가정하겠습니다. 또한 객체에 대한 분포에서 얻은 샘플도 있습니다. 우리는 모든 샘플 객체가 동일하게 독립적으로 분포(iid)되는 것으로 간주합니다. 그러면 다음이 참이 될 것이다

정리

경험적 위험 최소화를 사용하는 클래스에서 함수를 선택하면 최소화를 수행하는 표본의 크기가 충분할 경우 베이지안 위험 값이 작은 함수를 찾을 수 있습니다.

"작은 값"과 "충분한 크기"는 무엇을 의미합니까? 아래 문헌을 참조하십시오.

증명의 아이디어

정리의 조건에 따라 우리는 분포로부터 표본을 얻습니다. 즉, 자연에서 사물을 선택하는 과정은 무작위입니다. 샘플을 수집할 때마다 동일한 분포에서 수집되지만 개체 자체는 다를 수 있습니다. 증명의 주요 아이디어는 우리가 이 표본에 대한 경험적 위험을 최소화하여 선택한 알고리즘이 베이지안 위험을 최소화하는 데는 좋지 않지만 동시에 좋은 결과를 얻을 정도로 나쁜 표본을 얻을 수 있다는 것입니다. 경험적 위험을 최소화하지만 그러한 표본을 얻을 확률은 작고 표본 크기가 증가하면 이 확률은 감소합니다. 보다 현실적인 가정을 위해 유사한 정리가 존재하지만 여기서는 고려하지 않습니다.

실제 결과

경험적 위험을 최소화하여 찾은 함수가 충분한 크기의 훈련 샘플을 사용하여 이전에 관찰되지 않은 데이터에 큰 오류가 없다는 증거가 있으면 실제로 이 원칙을 사용할 수 있습니다. 예를 들어 다음과 같이 표현합니다.

그리고 해결되는 문제에 따라 다른 손실 함수를 대체합니다. 선형 회귀의 경우:

로지스틱 회귀의 경우:

서포트 벡터 머신은 기본적으로 기하학적 동기를 갖고 있지만 경험적 위험 최소화 문제로 간주될 수도 있습니다.

결론

많은 지도 학습 방법은 무엇보다도 V. N. Vapnik 및 A. Ya. Chervonenkis가 개발한 이론의 특별한 사례로 간주될 수 있습니다. 이 이론은 훈련 샘플의 크기가 충분하고 알고리즘을 검색하는 가설 공간에 대한 특정 요구 사항이 있는 경우 테스트 세트의 오류에 대한 보장을 제공합니다.

중고 도서

  • 통계 학습 이론의 본질, Vladimir N. Vapnik
  • 패턴 분류, 2판, Richard O. Duda, Peter E. Hart, David G. Stork
  • 기계 학습의 이해: 이론에서 알고리즘까지, Shai Shalev-Shwartz, Shai Ben-David
추신 부정확한 내용이나 오타가 있는 경우 개인 메시지를 작성해 주세요.

태그: 태그 추가

3장: 패턴 인식 및 의사결정 방법의 분석적 검토

패턴 인식 이론 및 제어 자동화

적응형 패턴 인식의 주요 작업

인식은 입력과 출력이 있는 일부 정보 변환기(지능형 정보 채널, 인식 시스템)에 의해 구현되는 정보 프로세스입니다. 시스템의 입력은 제시된 객체가 어떤 특성을 가지고 있는지에 대한 정보입니다. 시스템 출력에는 인식된 개체가 어떤 클래스(일반화된 이미지)에 속하는지에 대한 정보가 표시됩니다.

자동화된 패턴 인식 시스템을 만들고 운영할 때 여러 가지 문제가 해결됩니다. 이러한 작업을 간단하고 간단하게 고려해 보겠습니다. 다른 저자는 이러한 문제에 대해 동일한 공식을 가지고 있으며 세트 자체는 어느 정도 특정 수학적 모델에 따라 달라지기 때문에 일치하지 않습니다. 또한 특정 인식 모델의 일부 문제에는 해결책이 없으므로 제기되지 않습니다.

주제 영역을 공식화하는 작업

본질적으로 이 작업은 코딩 작업입니다. 객체의 특정 구현이 속할 수 있는 일반화된 클래스 목록과 이러한 객체가 원칙적으로 가질 수 있는 특성 목록이 컴파일됩니다.

훈련 샘플을 구성하는 작업

트레이닝 세트는 기능 언어로 된 특정 객체 구현에 대한 설명을 포함하고 이러한 객체가 특정 인식 클래스에 속하는지에 대한 정보가 보충된 데이터베이스입니다.

인식시스템 훈련과제

훈련 샘플은 이 클래스와 다른 클래스에 속하는 훈련 샘플의 객체가 어떤 특징을 가지고 있는지에 대한 정보의 일반화를 기반으로 인식 클래스의 일반화된 이미지를 형성하는 데 사용됩니다.

특징 공간의 차원을 줄이는 문제

인식 시스템을 훈련한 후(클래스별 특성의 빈도 분포에 대한 통계 획득) 인식 문제를 해결하기 위한 각 특성의 값을 결정하는 것이 가능해집니다. 그 후에는 가장 가치가 낮은 기능을 기능 시스템에서 제거할 수 있습니다. 그런 다음 일부 기능을 제거한 결과 클래스별 나머지 기능 분포 통계가 변경되므로 인식 시스템을 다시 훈련해야 합니다. 이 프로세스는 반복될 수 있습니다. 반복적이어야 합니다.

인식 작업

인식된 샘플의 개체가 인식되며, 특히 하나의 개체로 구성될 수 있습니다. 인식 샘플은 훈련 샘플과 유사하게 형성되지만 개체가 클래스에 속하는지에 대한 정보는 포함하지 않습니다. 이는 인식 프로세스 중에 정확하게 결정되기 때문입니다. 각 객체를 인식한 결과는 인식된 객체와 유사한 정도의 내림차순으로 모든 인식 클래스를 분포 또는 목록으로 나타냅니다.

인식 품질 관리 문제

인식 후에는 그 타당성이 확립될 수 있습니다. 훈련 샘플의 객체에 대해서는 자신이 속한 클래스를 간단히 알 수 있으므로 즉시 수행할 수 있습니다. 다른 개체의 경우 이 정보는 나중에 얻을 수 있습니다. 어떤 경우든 모든 인식 클래스에 대한 실제 평균 오류 확률이 결정될 수 있을 뿐만 아니라 인식된 객체를 특정 클래스에 할당할 때 오류가 발생할 확률도 결정될 수 있습니다.

인식 결과는 인식 품질에 관해 이용 가능한 정보를 고려하여 해석되어야 합니다.

적응 문제

품질 관리 절차의 결과 만족스럽지 못한 것으로 판단되면 잘못 인식된 개체에 대한 설명을 인식 샘플에서 훈련 샘플로 복사하고 적절한 분류 정보를 추가하여 결정 규칙을 다시 형식화하는 데 사용할 수 있습니다. , 즉. 고려. 또한 이러한 객체가 기존 인식 클래스에 속하지 않아 잘못된 인식이 발생할 수 있는 경우 이 목록을 확장할 수 있습니다. 결과적으로 인식 시스템은 이러한 객체에 적응하고 적절하게 분류하기 시작합니다.

역인식 문제

인식 작업은 주어진 객체에 대해 알려진 특성을 기반으로 시스템이 이전에 알려지지 않은 클래스에 속하는지 확인하는 것입니다. 반대로 역 인식 문제에서는 주어진 인식 클래스에 대해 시스템이 이 클래스의 객체에 가장 특징적인 특징과 그렇지 않은 특징(또는 훈련 샘플의 어떤 객체가 이 클래스에 속하는지)을 설정합니다.

클러스터 및 구성 분석의 문제점

클러스터는 각 클러스터 내에서 가능한 한 유사하고 서로 다른 클러스터 간에는 가능한 한 다른 개체, 클래스 또는 기능의 그룹입니다.

구성(이 섹션에서 논의된 맥락에서)은 반대 클러스터의 시스템입니다. 따라서 어떤 의미에서 구성은 클러스터의 클러스터 분석 결과입니다.

군집분석에서는 객체(클래스, 특징) 간의 유사성과 차이점 정도를 정량적으로 측정하고, 이 정보를 분류에 활용합니다. 군집 분석의 결과는 객체를 군집으로 분류하는 것입니다. 이 분류는 의미 네트워크의 형태로 표현될 수 있습니다.

인지분석 과제

인지 분석에서는 클래스 또는 특성 간의 유사점과 차이점에 대한 정보가 연구자의 관심을 끄는 것이지 군집 및 구성 분석에서와 같이 분류에 사용하기 위한 것이 아닙니다.

동일한 기능이 두 인식 클래스의 특징이라면 이는 이 두 클래스의 유사성에 기여합니다. 클래스 중 하나에 대해 이 기능이 특징적이지 않으면 이것이 차이의 원인이 됩니다.

두 특성이 서로 상관관계가 있으면 어떤 의미에서는 하나의 특성으로 간주될 수 있고, 상관관계가 반대이면 다른 특성으로 간주될 수 있습니다. 이러한 상황을 고려하면, 서로 다른 클래스에 서로 다른 특성이 존재하는 것도 유사성과 차이점에 어느 정도 기여합니다.

인지분석의 결과는 인지도표의 형태로 표현될 수 있다.

패턴 인식 방법 및 특징

패턴 인식 방법의 분류 원리

패턴 인식은 현실 세계나 이상 세계에서 객체의 수치적 또는 상징적 표현에 대한 형식적 연산을 구성하고 적용하는 문제를 말하며, 그 결과는 이러한 객체 간의 등가 관계를 반영합니다. 동등 관계는 평가된 객체가 독립적인 의미 단위로 간주되는 모든 클래스에 속하는 것을 표현합니다.

인식 알고리즘을 구축할 때, 자신의 의미 있는 아이디어를 사용하거나 해결 중인 문제의 맥락에서 객체의 유사점과 차이점에 대한 외부 추가 정보를 사용하는 연구자가 등가 클래스를 지정할 수 있습니다. 그런 다음 그들은 "선생님과의 인정"에 대해 이야기합니다. 그렇지 않으면, 즉 자동화된 시스템이 외부 훈련 정보를 사용하지 않고 분류 문제를 해결하는 경우 자동 분류 또는 "비지도 인식"을 말합니다. 대부분의 패턴 인식 알고리즘에는 고성능 컴퓨터 기술을 통해서만 제공할 수 있는 매우 중요한 컴퓨팅 성능이 필요합니다.

다양한 저자(Yu.L. Barabash, V.I. Vasiliev, A.L. Gorelik, V.A. Skripkin, R. Duda, P. Hart, L.T. Kuzin, F.I. Peregudov, F.P. Tarasenko, F.E. Temnikov, J. Tu, R. Gonzalez, P. Winston, K. Fu, Ya.Z. Tsypkin 등)은 패턴 인식 방법의 다른 유형을 제공합니다. 일부 저자는 모수적 방법, 비모수적 방법, 경험적 방법을 구별하고 다른 저자는 역사적으로 확립된 학파와 이 분야의 경향을 기반으로 방법 그룹을 식별합니다. 예를 들어, 인식 방법에 대한 학문적 개요를 제공하는 작업에서는 다음과 같은 패턴 인식 방법 유형이 사용됩니다.

  • 분리 원리에 기초한 방법;
  • 통계적 방법;
  • "잠재적 기능"을 기반으로 구축된 방법;
  • 등급 계산 방법(투표)
  • 명제 계산법, 특히 논리 대수학 장치에 기초한 방법.

이 분류는 패턴 인식의 형식적 방법의 차이에 기초하므로 전문가 시스템에서 완전하고 적절하게 개발된 인식에 대한 경험적 접근 방식을 고려하지 않습니다. 휴리스틱 접근법은 연구자의 형식화하기 어려운 지식과 직관을 기반으로 합니다. 이 경우, 연구자는 필요한 인식 효과를 달성하기 위해 시스템이 어떤 정보를 어떻게 사용해야 하는지 스스로 결정합니다.

다양한 세부 수준을 지닌 유사한 인식 방법 유형이 인식에 관한 많은 연구에서 발견됩니다. 동시에 알려진 유형학은 공식적인 패턴 인식 알고리즘을 사용하여 주제 영역에 대한 지식을 표현하는 방식의 특수성을 반영하는 매우 중요한 특성 하나를 고려하지 않습니다.

D.A. Pospelov(1990)는 지식을 표현하는 두 가지 주요 방법을 식별합니다.

  • 의도적인, 속성(특징) 간의 연결 다이어그램 형태입니다.
  • 특정 사실(객체, 예)의 도움으로 확장됩니다.

의도적 표현은 데이터의 구조를 설명하는 패턴과 연결을 포착합니다. 진단 작업과 관련하여 이러한 고정은 필요한 진단 결과를 가져오는 개체의 속성(특징)에 대한 작업을 정의하는 것으로 구성됩니다. 의도적 표현은 속성 값에 대한 연산을 통해 구현되며 특정 정보 사실(객체)에 대한 연산을 암시하지 않습니다.

결과적으로, 지식의 확장적 표현은 주제 영역의 특정 객체에 대한 설명 및 고정과 연관되며 작업에서 구현되며 그 요소는 통합 시스템으로서의 객체입니다.

지식의 의도적 표현과 외연적 표현, 그리고 인간 두뇌의 좌반구와 우반구의 활동을 뒷받침하는 메커니즘 사이에 유사점이 그려질 수 있습니다. 우반구가 주변 세계에 대한 전체적인 원형 표현을 특징으로 한다면, 좌반구는 이 세계의 속성 간의 연결을 반영하는 패턴으로 작동합니다.

위에서 설명한 지식을 표현하는 두 가지 기본 방법을 통해 패턴 인식 방법의 다음 분류를 제안할 수 있습니다.

  • 기능을 사용한 작업을 기반으로 하는 의도적인 방법입니다.
  • 객체 작업을 기반으로 하는 확장 메서드.

특히 이 두 가지(단지 두 가지) 인식 방법 그룹, 즉 기호를 사용하는 그룹과 대상을 사용하는 그룹의 존재는 매우 자연스럽다는 점을 특히 강조해야 합니다. 이러한 관점에서 볼 때, 이러한 방법 중 어느 것도 다른 방법과 별도로 취하면 주제 영역을 적절하게 반영할 수 없습니다. 저자에 따르면 N. Bohr의 의미에서 이러한 방법 사이에는 보완 관계가 있으므로 유망한 인식 시스템은 둘 중 어느 하나가 아닌 두 가지 방법의 구현을 제공해야 합니다.

따라서 D. A. Pospelov가 제안한 인식 방법의 분류는 일반적으로 인간의 인지 방식의 기본 패턴을 기반으로 하며, 이는 다른 분류에 비해 완전히 특별한(특권) 위치에 위치하며, 이러한 배경에 비해 더 가볍고 인공의.

의도적인 방법

인텐셔널 방법의 특징은 패턴 인식 알고리즘을 구성하고 적용할 때 특징의 다양한 특성과 그 연결을 작업 요소로 사용한다는 것입니다. 이러한 요소는 작업이 수행되는 개별 값 또는 특성 값의 간격, 평균값 및 분산, 특성 관계 행렬 등이 될 수 있으며 분석적 또는 구성적 형식으로 표현됩니다. 동시에 이러한 방법의 개체는 통합 정보 단위로 간주되지 않지만 해당 속성의 상호 작용 및 동작을 평가하기 위한 지표 역할을 합니다.

패턴 인식을 위한 의도적 방법 그룹은 광범위하며 하위 클래스로의 구분은 어느 정도 조건부입니다.

특성값의 분포 밀도 추정을 기반으로 하는 방법

이러한 패턴 인식 방법은 연구 대상이 일부 법칙에 따라 특징 공간에 분포된 다차원 확률 변수의 구현으로 간주되는 고전적인 통계 결정 이론에서 차용되었습니다. 이는 특정 인식 클래스에 속하는 개체의 사전 확률과 특징 벡터 값의 조건부 분포 밀도에 호소하는 베이지안 의사 결정 체계를 기반으로 합니다. 이러한 방법은 다차원 특징 공간의 다양한 영역에서 우도 비율을 결정하는 것으로 요약됩니다.

특징값의 분포 밀도를 추정하는 방법 그룹은 판별 분석 방법과 직접적인 관련이 있습니다. 의사 결정에 대한 베이지안 접근 방식은 현대 통계에서 가장 발전된 소위 모수적 방법 중 하나이며, 분포 법칙(이 경우 정규 법칙)의 분석적 표현은 알려진 것으로 간주되며 소수의 매개 변수( 평균값과 공분산 행렬의 벡터)를 추정해야 합니다.

이러한 방법을 사용할 때 가장 어려운 점은 지역 확률 분포 밀도의 추정치를 계산하기 위해 전체 훈련 표본을 기억해야 한다는 점과 훈련 표본의 비대표성에 대한 높은 민감도입니다.

의사결정 기능 클래스에 대한 가정을 기반으로 한 방법

이 방법 그룹에서는 결정 기능의 일반적인 형태가 알려진 것으로 간주되며 해당 품질의 기능이 지정됩니다. 이 기능을 기반으로 훈련 시퀀스를 사용하여 결정 기능의 최상의 근사치를 찾습니다. 가장 일반적인 것은 선형 및 일반화된 비선형 다항식 형태의 의사결정 함수 표현입니다. 결정 규칙 품질 기능은 일반적으로 분류 오류와 관련이 있습니다.

결정 함수 클래스에 대한 가정을 기반으로 한 방법의 주요 장점은 극값 검색 문제로서 인식 문제의 수학적 공식이 명확하다는 것입니다. 이 그룹의 다양한 방법은 광범위한 의사결정 규칙 품질 기능과 사용된 극한 검색 알고리즘으로 설명됩니다. 특히 뉴턴 알고리즘, 퍼셉트론 유형 알고리즘 등을 포함하여 고려 중인 알고리즘의 일반화는 확률론적 근사 방법입니다.

특히 선형 결정 규칙 그룹에서 경사 극값 검색 알고리즘의 기능은 상당히 잘 연구되었습니다. 이러한 알고리즘의 수렴은 인식된 객체 클래스가 컴팩트한 기하학적 구조로 특징 공간에 표시되는 경우에만 입증되었습니다.

전역 극값에 대한 해의 수렴에 대한 엄격한 수학적 증명이 없는 알고리즘을 사용하면 충분히 높은 품질의 결정 규칙을 얻을 수 있습니다. 이러한 알고리즘에는 진화 모델링의 방향을 나타내는 대규모 경험적 프로그래밍 절차 그룹이 포함됩니다. 진화 모델링은 자연에서 빌린 생체 공학적 방법입니다. 이는 복잡한 대상의 의미 있는 모델링 프로세스를 진화의 현상학적 모델링으로 대체하기 위해 알려진 진화 메커니즘의 사용을 기반으로 합니다. 패턴 인식에서 진화 모델링의 잘 알려진 대표적인 방법은 MGUA(Group Accounting of Argument) 방법입니다. GMDH의 기본은 자기 조직화의 원리이며, GMDH 알고리즘은 대량 선택 방식을 재현합니다.

그러나 이 경우 실제 목표 달성에는 인식되는 대상의 성격에 대한 새로운 지식의 추출이 수반되지 않습니다. 이러한 지식, 특히 속성(특징)의 상호작용 메커니즘에 대한 지식을 추출할 가능성은 여기서 근본적으로 결정 기능의 선택된 형태로 고정된 해당 상호작용의 주어진 구조에 의해 제한됩니다.

부울 메서드

패턴 인식의 논리적 방법은 논리 대수학 장치를 기반으로 하며 개별 기능뿐만 아니라 기능 값의 조합에도 포함된 정보를 사용하여 작동할 수 있습니다. 이러한 방법에서는 모든 속성의 값이 기본 이벤트로 간주됩니다.

가장 일반적인 형태에서 논리적 방법은 논리적 패턴의 훈련 샘플을 통한 검색 유형과 특정 논리적 결정 규칙 시스템의 형성(예: 기본 이벤트의 접속사 형태)으로 특징지어질 수 있습니다. 그 자체의 무게가 있습니다. 논리적 방법 그룹은 다양하며 분석의 복잡성과 깊이가 다양한 방법을 포함합니다. 이분형(부울) 특성의 경우 소위 트리형 분류기, 막다른 테스트 방법, "Bark" 알고리즘 등이 널리 사용됩니다.

패턴 인식의 다른 논리적 방법과 마찬가지로 "Kora" 알고리즘은 접속사를 선택할 때 완전한 검색이 필요하기 때문에 계산 집약적입니다. 따라서 논리적 방법을 사용할 때 계산 프로세스의 효율적인 구성에 대한 요구가 높으며 이러한 방법은 상대적으로 작은 크기의 특징 공간 및 강력한 컴퓨터에서만 잘 작동합니다.

언어적(구조적) 방법

패턴 인식의 언어적 방법은 인식된 개체의 속성 집합을 설명하는 데 사용할 수 있는 언어를 생성하는 특수 문법의 사용을 기반으로 합니다.

다양한 객체 클래스에 대해 파생되지 않은(원자) 요소(하위 이미지, 속성) 및 이들 간의 가능한 관계가 식별됩니다. 문법은 파생되지 않은 요소로부터 객체를 구성하는 규칙을 나타냅니다.

따라서 각 개체는 어떤 방식으로든, 즉 일부 “언어”의 “문장”으로 서로 “연결된” 비파생 요소의 모음입니다. 나는 특히 이 사상의 매우 중요한 이념적 가치를 강조하고 싶습니다.

"문장"을 구문론적으로 분석함으로써 구문론적 "정확성"을 결정하거나, 동등하게 클래스를 설명하는 일부 고정 문법이 객체의 기존 설명을 생성할 수 있는지 여부를 결정합니다.

그러나 특정 언어를 생성하는 특정 명령문 집합(문장-객체 설명)에서 문법을 재구성(정의)하는 작업은 형식화하기 어렵습니다.

확장 방법

이 그룹의 방법에서는 의도적인 방향과 달리 연구된 각 대상에 어느 정도 독립적인 진단적 중요성이 부여됩니다. 기본적으로 이러한 방법은 사람들을 하나의 지표 또는 다른 지표로 순위가 매겨진 개체 체인이 아니라 각각 개인적이고 특별한 진단 가치를 갖는 통합 시스템으로 간주하는 임상 접근 방식에 가깝습니다. 연구 대상에 대한 이러한 신중한 태도는 객체를 속성의 행동 패턴을 탐지하고 기록하는 목적으로만 사용하는 의도적 방향 방법을 사용할 때 발생하는 각 객체에 대한 정보를 배제하거나 손실하는 것을 허용하지 않습니다.

논의된 방법을 사용한 패턴 인식의 주요 작업은 객체의 유사점과 차이점을 결정하는 작업입니다. 지정된 메소드 그룹의 개체는 진단 선례의 역할을 합니다. 또한 특정 작업의 조건에 따라 개별 선례의 역할은 주요 및 결정 프로세스에서 인식 프로세스의 매우 간접적인 참여에 이르기까지 가장 넓은 범위 내에서 달라질 수 있습니다. 결과적으로, 문제의 조건은 성공적인 솔루션을 위해 다양한 수의 진단 선례의 참여를 요구할 수 있습니다. 즉, 인식된 각 클래스에서 하나부터 전체 표본 크기까지, 그리고 객체의 유사성과 차이에 대한 측정을 계산하는 다양한 방법까지 다양합니다. . 이러한 요구 사항은 확장 메서드를 하위 클래스로 추가로 나누는 방법을 설명합니다.

프로토타입과의 비교방법

이는 가장 간단한 확장 인식 방법입니다. 예를 들어, 인식된 클래스가 컴팩트한 기하학적 그룹화로 특징 공간에 표시되는 경우에 사용됩니다. 이 경우 일반적으로 클래스의 기하학적 그룹화 중심(또는 중심에 가장 가까운 객체)이 프로토타입 지점으로 선택됩니다.

알려지지 않은 객체를 분류하기 위해서는 가장 가까운 프로토타입을 찾고, 해당 객체는 이 프로토타입과 동일한 클래스에 속합니다. 분명히 이 방법에서는 일반화된 클래스 이미지가 생성되지 않습니다.

근접성을 측정하는 방법으로 다양한 유형의 거리를 사용할 수 있습니다. 종종 이분법적 특징의 경우 해밍 거리(Hamming distance)가 사용되며, 이 경우 유클리드 거리의 제곱과 같습니다. 이 경우 객체 분류를 위한 결정 규칙은 선형 결정 함수와 동일합니다.

이 사실은 특히 주목되어야 한다. 이는 데이터 구조에 대한 정보의 프로토타입과 속성 표현 간의 연결을 명확하게 보여줍니다. 위의 표현을 사용하면 예를 들어 이분형 특성 값의 선형 함수인 기존 측정 척도를 가상 진단 프로토타입으로 고려할 수 있습니다. 결과적으로, 인식된 클래스의 공간 구조 분석을 통해 기하학적 컴팩트성에 대한 결론을 도출할 수 있다면 이러한 각 클래스를 실제로 선형 진단 모델과 동일한 하나의 프로토타입으로 대체하는 것으로 충분합니다.

물론 실제로 상황은 설명된 이상적인 예와 다른 경우가 많습니다. 프로토타입 진단 클래스와의 비교를 기반으로 한 인식 방법을 적용하려는 연구자는 어려운 문제에 직면합니다.

첫째, 이는 객체 분포의 공간 구성을 크게 변경할 수 있는 근접성 측정(미터법)의 선택입니다. 둘째, 독립적인 문제는 실험 데이터의 다차원 구조를 분석하는 것입니다. 이 두 가지 문제는 실제 문제의 특징인 특징 공간의 고차원성 조건에서 연구자에게 특히 심각합니다.

k 최근접이웃 방법

판별 분석 문제를 해결하기 위한 k-최근접 이웃 방법은 1952년에 처음 제안되었습니다. 다음과 같습니다.

알려지지 않은 객체를 분류할 때, 인식된 클래스에 이미 알려진 멤버십을 가진 다른 객체(가장 가까운 이웃)의 특징 공간에서 기하학적으로 가장 가까운 주어진 수(k)를 찾습니다. 알 수 없는 개체를 특정 진단 클래스에 할당하는 결정은 간단한 투표 수를 사용하여 가장 가까운 이웃의 알려진 소속에 대한 정보를 분석하여 이루어집니다.

처음에는 우도비를 추정하기 위한 비모수적 방법으로 k-최근접 이웃 방법을 고려했습니다. 이 방법의 경우 최적의 베이지안 분류기와 비교하여 효율성에 대한 이론적 추정치를 얻었습니다. k-최근접 이웃 방법의 점근적 오류 확률은 베이즈 규칙의 오류를 두 배 이상 초과하지 않는 것으로 입증되었습니다.

패턴 인식을 위해 k-최근접 이웃 방법을 사용할 때 연구자는 진단된 객체의 근접성을 결정하기 위한 메트릭을 선택하는 어려운 문제를 해결해야 합니다. 특징 공간의 차원이 높은 조건에서 이러한 문제는 이 방법의 복잡성으로 인해 극도로 악화되며 이는 고성능 컴퓨터에서도 중요해집니다. 따라서 여기에는 프로토타입과의 비교 방법과 마찬가지로 실험 데이터의 다차원 구조를 분석하여 진단 클래스를 나타내는 객체의 수를 최소화하는 창의적인 문제를 해결하는 것이 필요하다.

훈련 표본(진단 선례)의 객체 수를 줄여야 한다는 점은 훈련 표본의 대표성을 감소시키기 때문에 이 방법의 단점입니다.

등급 계산 알고리즘(“투표”)

평가 계산 알고리즘(ABO)의 작동 원리는 주어진 기능 세트의 하위 집합 시스템인 기능 앙상블 시스템에 따라 인식된 개체와 참조 개체의 "근접성"을 특성화하는 우선 순위(유사성 점수)를 계산하는 것입니다. .

이전에 논의된 모든 방법과 달리 견적 계산 알고리즘은 근본적으로 새로운 방식으로 개체 설명과 함께 작동합니다. 이러한 알고리즘의 경우 객체는 특징 공간의 매우 다른 하위 공간에 동시에 존재합니다. ABO 클래스는 기능을 사용하여 논리적인 결론을 내립니다. 어떤 기능 조합이 가장 유익한지 항상 알 수 없기 때문에 ABO에서는 가능한 모든 또는 특정 조합을 비교하여 개체의 유사도를 계산합니다. 개체 설명에 포함된 기능입니다.

저자는 사용된 기능 조합(하위 공간)을 지원 세트 또는 객체의 부분 설명 세트라고 부릅니다. 인식된 객체와 참조 객체라고 불리는 훈련 샘플의 객체(알려진 분류 포함) 사이의 일반화된 근접성 개념이 도입되었습니다. 이 근접성은 부분 설명 세트에서 계산된 인식된 객체와 참조 객체의 근접성의 조합으로 표현됩니다. 따라서 ABO는 k-최근접 이웃 방법의 확장으로, 객체의 근접성은 주어진 하나의 특징 공간에서만 고려됩니다.

ABO의 또 다른 확장은 이러한 알고리즘에서 객체의 유사성과 차이점을 결정하는 작업이 파라메트릭으로 공식화되고 훈련 세트를 기반으로 ABO를 설정하는 단계가 강조된다는 것입니다. 매개변수가 선택됩니다. 품질 기준은 인식 오류이며 문자 그대로 모든 것이 매개변수화됩니다.

  • 개별 특성을 기반으로 객체의 근접성을 계산하는 규칙;
  • 특징 부분 공간에서 객체의 근접성을 계산하기 위한 규칙;
  • 진단 선례로서 특정 참고 대상의 중요성 정도;
  • 인식된 개체와 진단 클래스의 유사성에 대한 최종 평가에 대한 각 참조 기능 세트의 기여도의 중요성.

ABO 매개변수는 임계값 및(또는) 지정된 구성 요소의 가중치 형식으로 지정됩니다.

AVO의 도움으로 연구 대상 개체에 대해 가능한 모든 작업을 구현할 수 있기 때문에 AVO의 이론적 기능은 다른 패턴 인식 알고리즘의 이론적 기능보다 낮지 않습니다.

그러나 일반적으로 그렇듯이 잠재적인 기능을 확장하는 것은 실제 구현, 특히 이러한 유형의 알고리즘을 구성(조정)하는 단계에서 큰 어려움에 직면합니다.

ABO의 잘린 버전으로 해석될 수 있는 k-최근접 이웃 방법을 논의할 때 앞서 몇 가지 어려움이 지적되었습니다. 또한 파라메트릭 형태로 고려될 수 있으며 선택한 유형의 가중치 메트릭을 찾는 문제를 줄일 수 있습니다. 동시에 이미 고차원 문제의 경우 효과적인 계산 과정의 구성과 관련된 복잡한 이론적 질문과 문제가 발생합니다.

AVO의 경우 이러한 알고리즘의 기능을 최대한 활용하려고 하면 이러한 어려움이 몇 배로 증가합니다.

언급된 문제는 실제로 고차원 문제를 해결하기 위해 ABO를 사용할 때 일부 경험적 제한 사항 및 가정이 도입된다는 사실을 설명합니다. 특히 정신진단에서 ABO를 활용한 사례가 잘 알려져 있는데, ABO의 한 유형을 테스트한 사례인데, 이는 실제로 k-최근접 이웃법과 동일하다.

결정 규칙 집단

패턴 인식 방법에 대한 검토를 완료하기 위해 한 가지 접근 방식을 더 살펴보겠습니다. 이것이 소위 의사결정규칙집단(DRG)이다.

서로 다른 인식 알고리즘은 동일한 개체 샘플에서 다르게 나타나므로 이러한 알고리즘의 장점을 적응적으로 사용하는 합성 결정 규칙에 대한 의문이 자연스럽게 발생합니다. 종합 결정 규칙은 2단계 인식 체계를 사용합니다. 첫 번째 수준에서는 개인 인식 알고리즘이 작동하며 그 결과는 합성 블록의 두 번째 수준에서 결합됩니다. 이러한 통합의 가장 일반적인 방법은 특정 알고리즘의 역량 영역을 식별하는 것을 기반으로 합니다. 역량 영역을 찾는 가장 간단한 방법은 특정 과학의 전문적 고려 사항을 기반으로 속성 공간을 선험적으로 분할하는 것입니다(예: 특정 속성에 따라 표본을 계층화하는 것). 그런 다음 선택한 각 영역에 대해 자체 인식 알고리즘이 구축됩니다. 또 다른 방법은 특정 인식 알고리즘의 성공이 입증된 인식된 개체의 이웃으로 특징 공간의 로컬 영역을 결정하기 위한 형식 분석의 사용을 기반으로 합니다.

합성 블록을 구성하는 가장 일반적인 접근 방식은 특정 알고리즘의 결과 지표를 새로운 일반화된 결정 규칙을 구성하기 위한 초기 특성으로 간주합니다. 이 경우, 패턴인식에서 위의 인장방향과 확장방향의 방법을 모두 사용할 수 있다. 의사결정 규칙 그룹을 생성하는 문제를 해결하는 데 효과적인 것은 "Kora" 유형의 논리적 알고리즘과 추정 계산을 위한 알고리즘(ABO)입니다. 이는 소위 대수적 접근 방식의 기초를 형성하며 다음과 같은 연구와 건설적인 설명을 제공합니다. 기존의 모든 유형의 알고리즘이 적합한 프레임워크 내에서 인식 알고리즘.

패턴 인식 방법의 비교 분석

위에서 설명한 패턴 인식 방법을 비교하고 복잡한 시스템의 적응형 자동 제어 시스템에 대한 SDA 모델에 대해 섹션 3.3.3에 공식화된 요구 사항에 대한 적합성의 정도를 평가해 보겠습니다.

의도적 방향의 방법 그룹에서 실제 문제를 해결하려면 매개변수적 방법과 의사결정 기능의 형태에 대한 제안을 기반으로 하는 방법이 실용적인 가치가 있습니다. 모수적 방법은 지표 구성을 위한 전통적인 방법론의 기초를 형성합니다. 실제 문제에 이러한 방법을 적용하는 것은 데이터 구조에 대한 강력한 제한을 부과하는 것과 관련되어 있으며, 이는 해당 매개변수를 매우 대략적으로 추정하는 선형 진단 모델로 이어집니다. 의사결정 함수의 형태에 대한 가정을 기반으로 한 방법을 사용할 때 연구자는 선형 모델을 사용해야 합니다. 이는 실제 문제의 특징인 특징 공간의 높은 차원성 때문입니다. 이는 다항식 결정 함수의 정도를 높이면 구성원 수가 크게 증가하고 이에 따라 인식 품질도 향상됩니다. 따라서 의도적 인식 방법의 잠재적 적용 영역을 실제 문제에 투영함으로써 우리는 선형 진단 모델의 잘 발달된 전통적인 방법론에 해당하는 그림을 얻습니다.

진단 지표가 초기 특성의 가중 합으로 표현되는 선형 진단 모델의 특성은 잘 연구되었습니다. 이러한 모델의 결과(적절한 정규화 포함)는 연구 중인 개체에서 특징 공간의 일부 초평면까지의 거리로 해석되거나, 동등하게 이 공간의 일부 직선에 대한 개체의 투영으로 해석됩니다. 따라서 선형 모델은 서로 다른 진단 클래스의 객체가 매핑되는 특징 공간 영역의 단순한 기하학적 구성에만 적합합니다. 분포가 더 복잡할수록 이러한 모델은 기본적으로 실험 데이터 구조의 많은 기능을 반영할 수 없습니다. 동시에 이러한 기능은 귀중한 진단 정보를 제공할 수 있습니다.

동시에, 단순한 다차원 구조(특히 다차원 정규 분포)의 실제 문제에 나타나는 현상은 규칙이 아닌 예외로 간주되어야 합니다. 진단 클래스는 복잡한 외부 기준을 기반으로 형성되는 경우가 많으며, 이는 기능 공간에서 이러한 클래스의 기하학적 이질성을 자동으로 수반합니다. 이는 실제로 가장 자주 접하게 되는 "필수" 기준의 경우 특히 그렇습니다. 이러한 조건에서 선형 모델을 사용하면 실험 정보의 가장 "거친" 패턴만 포착할 수 있습니다.

확장 방법의 사용은 인식된 클래스 내에 다소 유사한 개체로 구성된 하나 이상의 그룹이 있어야 하고 서로 다른 클래스의 개체가 서로 다소 달라야 한다는 점을 제외하고는 실험 정보의 구조에 대한 어떤 가정과도 관련이 없습니다. 분명히, 훈련 샘플의 유한한 크기에 대해(다른 어떤 것도 될 수 없음), 이 요구 사항은 단순히 개체 간에 무작위 차이가 있기 때문에 항상 충족됩니다. 유사성 측정으로는 특징 공간 내 객체의 근접성(거리)에 대한 다양한 측정이 사용됩니다. 따라서 패턴 인식의 확장 방법을 효과적으로 사용하는 것은 지정된 근접성 측정값이 얼마나 잘 결정되는지와 훈련 샘플의 어떤 개체(알려진 분류가 있는 개체)가 진단 선례로 사용되는지에 따라 달라집니다. 이러한 문제를 성공적으로 해결하면 이론적으로 달성 가능한 인식 효율성 한계에 접근하는 결과를 얻을 수 있습니다.

패턴 인식의 확장 방법의 장점은 무엇보다도 실제 구현의 높은 기술적 복잡성으로 인해 상쇄됩니다. 고차원 특징 공간의 경우 가장 가까운 점 쌍을 찾는 단순해 보이는 작업이 심각한 문제가 됩니다. 또한 많은 저자들은 인식된 클래스를 나타내는 충분히 많은 수의 객체를 기억해야 한다는 점을 문제로 지적합니다.

이는 그 자체로는 문제가 되지 않지만, 각 객체를 인식할 때 훈련 세트에 있는 모든 객체에 대한 완전한 검색이 발생한다는 이유로 문제(예를 들어 k-최근접 이웃 방법)로 인식됩니다.

따라서 인식 클래스의 일반화된 이미지를 생성할 때 한 번만 수행되므로 인식 중에 훈련 샘플의 객체를 완전히 열거하는 문제를 제거하는 인식 시스템 모델을 적용하는 것이 좋습니다. 인식 자체 중에 식별된 객체는 인식 클래스의 일반화된 이미지와만 비교되며, 그 수는 고정되어 있고 훈련 샘플의 크기와 완전히 독립적입니다. 이 접근 방식을 사용하면 필요한 높은 품질의 일반화된 이미지가 달성될 때까지 훈련 샘플의 크기를 늘릴 수 있습니다. 이로 인해 인식 시간이 허용할 수 없을 정도로 증가할 수 있다는 우려 없이(이 모델의 인식 시간은 이미지에 의존하지 않기 때문입니다) 훈련 샘플의 크기).샘플).

확장적 인식 방법을 사용하는 데 따른 이론적 문제는 정보가 있는 특징 그룹을 검색하는 문제, 객체의 유사점과 차이점을 측정하기 위한 최적의 메트릭을 찾는 문제, 실험 정보의 구조를 분석하는 문제와 관련됩니다. 동시에 이러한 문제를 성공적으로 해결하면 효과적인 인식 알고리즘을 구축할 수 있을 뿐만 아니라 경험적 사실에 대한 확장적 지식에서 구조 패턴에 대한 내포적 지식으로 전환할 수 있습니다.

확장적 지식에서 내재적 지식으로의 전환은 형식적 인식 알고리즘이 이미 구축되고 그 효과가 입증된 단계에서 발생합니다. 그런 다음 결과적인 효율성을 달성하는 메커니즘을 연구합니다. 예를 들어 데이터의 기하학적 구조 분석과 관련된 이러한 연구는 특정 진단 클래스를 나타내는 개체를 하나의 일반적인 대표자(프로토타입)로 대체하는 것으로 충분하다는 결론에 도달할 수 있습니다. 이는 위에서 언급한 바와 같이 전통적인 선형 진단 척도를 지정하는 것과 동일합니다. 각 진단 클래스를 일부 하위 클래스의 전형적인 대표자로 개념화되는 여러 개체로 대체하는 것만으로도 충분할 수도 있습니다. 이는 선형 규모의 팬을 구성하는 것과 같습니다. 아래에서 설명할 다른 옵션도 있습니다.

따라서 인식 방법을 검토하면 현재 이론적으로 다양한 패턴 인식 방법이 개발되었음을 알 수 있습니다. 문헌에서는 이에 대한 자세한 분류를 제공합니다. 그러나 이러한 방법의 대부분에는 소프트웨어 구현이 없으며 이는 매우 자연스러운 현상입니다. 인식 방법 자체의 특성에 따라 "미리 결정"되었다고 말할 수도 있습니다. 이는 이러한 시스템이 전문 문헌 및 기타 정보 소스에서 거의 언급되지 않는다는 사실로 판단할 수 있습니다.

결과적으로, 실제(즉, 매우 중요한) 데이터 차원과 실제 현대 컴퓨터에서 실제 문제를 해결하기 위한 특정 이론적 인식 방법의 실제 적용 가능성에 대한 문제는 아직 충분히 개발되지 않았습니다.

위에서 언급한 상황은 수학적 모델의 복잡성이 시스템의 소프트웨어 구현 복잡성을 기하급수적으로 증가시키고 동일한 정도로 이 시스템이 실제로 작동할 가능성을 감소시킨다는 점을 기억하면 이해될 수 있습니다. 이는 실제로 상당히 단순하고 "투명한" 수학적 모델을 기반으로 하는 소프트웨어 시스템만이 시장에서 구현될 수 있음을 의미합니다. 따라서 자신의 소프트웨어 제품 복제에 관심이 있는 개발자는 순전히 과학적인 관점이 아닌 실용주의자로서 소프트웨어 구현 가능성을 고려하여 수학적 모델을 선택하는 문제에 접근합니다. 그는 모델이 가능한 한 단순해야 한다고 믿습니다. 즉, 더 낮은 비용과 더 나은 품질로 구현되어야 하며 작동해야 합니다(실질적으로 효과적이어야 함).

이와 관련하여, 동일한 클래스에 속하는 객체의 설명을 일반화하기 위한 메커니즘을 인식 시스템에서 구현하는 작업은 특히 관련성이 있는 것 같습니다. 컴팩트한 일반 이미지를 형성하는 메커니즘. 분명히 이러한 일반화 메커니즘을 사용하면 모든 차원의 훈련 샘플을 차원별로 미리 알려진 일반화된 이미지 데이터베이스로 "압축"할 수 있습니다. 이를 통해 프로토타입 비교 방법, k-최근접 이웃 방법, ABO 등 인식 방법으로는 공식화할 수 없는 여러 가지 문제를 제기하고 해결할 수도 있습니다.

작업은 다음과 같습니다.

  • 일반화된 이미지의 정보 초상화에 대한 특징의 정보 기여를 결정하는 단계;
  • 일반화된 이미지의 클러스터 구성 분석;
  • 특징의 의미론적 부하 결정;
  • 특징의 의미적 클러스터 구성 분석;
  • 클래스 간의 일반화된 이미지와 특성 간의 의미 있는 비교(Merlin 다이어그램을 포함한 인지 다이어그램)

이러한 문제에 대한 해결책을 달성할 수 있게 만든 방법은 컴파일러가 해석기와 다른 것처럼 이를 기반으로 하는 유망 시스템을 다른 시스템과 구별합니다. 왜냐하면 이 유망 시스템에서 일반화된 이미지의 형성 덕분에 인식 시간의 독립성이 있기 때문입니다. 훈련 샘플의 크기가 달성됩니다. 충분한 통계에 대해 이야기할 수 있을 때 훈련 샘플의 이러한 차원에서 k-최근접 이웃 방법, ABO 및 KRP와 같은 방법에서 인식을 위한 컴퓨터 시간의 실질적으로 허용할 수 없는 비용을 초래하는 것은 이러한 의존성의 존재로 알려져 있습니다. .

인식 방법에 대한 간략한 개요를 마무리하기 위해 다음 매개변수에 따른 다양한 패턴 인식 방법에 대한 간략한 설명이 포함된 요약표(표 3.1)에 위 내용의 본질을 제시하겠습니다.

  • 인식 방법 분류;
  • 인식 방법 적용 분야;
  • 인식 방법의 한계 분류.
인식방법의 분류 적용분야 제한사항(단점)
집중 인식 방법 특징값의 분포 밀도(또는 객체의 유사점과 차이점) 추정을 기반으로 하는 방법 알려진 분포 문제(일반적으로 정상)에는 대규모 통계 수집이 필요합니다. 인식 중에 전체 훈련 샘플을 열거해야 할 필요성, 훈련 샘플 및 아티팩트의 비대표성에 대한 높은 민감도
의사결정 기능 클래스에 대한 가정을 기반으로 한 방법 클래스는 잘 분리 가능해야 하며 특성 시스템은 정규 직교여야 합니다. 의사결정 함수의 유형을 미리 알고 있어야 합니다. 특성 간의 상관관계에 대한 새로운 지식을 고려할 수 없음
부울 메서드 논리적 결정 규칙(접속사)을 선택할 때는 전체 검색이 필요합니다. 높은 계산 복잡성
언어적(구조적) 방법 작은 차원의 특징 공간 문제 특정 문장 집합(객체 설명)에서 문법을 재구성(정의)하는 작업은 형식화하기 어렵습니다. 해결되지 않은 이론적 문제
확장 인식 방법 프로토타입과의 비교방법 작은 차원의 특징 공간 문제 거리 측정(미터법)에 대한 분류 결과의 의존도가 높습니다. 알 수 없는 최적 측정항목
k 최근접이웃 방법 거리 측정(미터법)에 대한 분류 결과의 의존도가 높습니다. 인식하는 동안 훈련 샘플을 완전히 열거해야 합니다. 계산 노력
AVO의 등급(투표) 계산 알고리즘 클래스 수 및 기능 수 측면에서 작은 차원의 문제 거리 측정(미터법)에 대한 분류 결과의 종속성입니다. 인식하는 동안 훈련 샘플을 완전히 열거해야 합니다. 방법의 높은 기술적 복잡성
결정 규칙 집단(DRC) 클래스 수 및 기능 수 측면에서 작은 차원의 문제 개인 방법의 역량 영역과 개인 방법 자체를 결정하는 데 있어 방법의 매우 높은 기술적 복잡성, 해결되지 않은 이론적 문제의 수

표 3.1 - 인식 방법 분류 요약표, 적용 영역 비교 및 ​​제한 사항

복잡한 시스템 제어 자동화에서 패턴 인식의 역할과 위치

자동화 제어 시스템은 제어 개체와 제어 시스템이라는 두 가지 주요 부분으로 구성됩니다.

제어 시스템은 다음 기능을 수행합니다.

  • 제어 객체의 상태 식별;
  • 제어 개체의 상태와 환경을 고려하여 관리 목표를 기반으로 한 제어 조치 개발
  • 컨트롤 개체에 컨트롤 영향을 제공합니다.

패턴 인식은 어떤 물체의 상태를 식별하는 것 이상입니다.

결과적으로 제어 객체의 상태를 식별하는 단계에서 패턴 인식 시스템을 사용할 가능성은 매우 당연하고 자연스러워 보입니다. 그러나 이는 필요하지 않을 수도 있습니다. 따라서 자동 제어 시스템에서 인식 시스템을 사용하는 것이 바람직한 경우와 그렇지 않은 경우에 대한 의문이 제기됩니다.

문헌에 따르면 제어 개체의 상태를 식별하고 제어 작업을 개발하기 위한 하위 시스템의 이전에 개발된 현대 자동화 제어 시스템 중 상당수는 제어로 무엇을 해야 할지 명확하고 매우 간단하게 결정하는 "직접 계산"의 결정론적 수학적 모델을 사용합니다. 특정 외부 매개변수가 있는 경우 개체입니다.

동시에 이러한 매개변수가 제어 개체의 특정 상태와 어떻게 관련되는지에 대한 질문은 제기되거나 해결되지 않습니다. 이 입장은 "기본적으로" 일대일 관계가 허용된다는 관점에 해당합니다. 따라서 "컨트롤 개체의 매개변수"와 "컨트롤 개체의 상태"라는 용어는 동의어로 간주되며, "컨트롤 개체의 상태"라는 개념은 전혀 명시적으로 도입되지 않습니다. 그러나 일반적인 경우 제어 개체의 관찰 가능한 매개 변수와 해당 상태 간의 관계는 본질적으로 동적이며 확률적이라는 것이 분명합니다.

따라서 전통적인 자동화 제어 시스템은 본질적으로 파라메트릭 제어 시스템입니다. 제어 개체의 상태가 아니라 관찰 가능한 매개변수만 관리하는 시스템입니다. 제어 조치에 대한 결정은 "맹목적으로"와 같은 시스템에서 이루어집니다. 현재 상태의 제어 개체와 환경에 대한 전체적인 이미지를 형성하지 않고 환경의 발전과 특정 제어 영향에 대한 제어 개체의 반응을 예측하지 않고 예측된 환경 영향과 동시에 작용합니다. .

본 연구에서 발전된 관점에서 볼 때, 현대적인 의미의 "의사결정"이라는 용어는 전통적인 자동화 제어 시스템에 완전히 적용되기 어렵습니다. 사실 "의사 결정"은 최소한 현재 상태뿐만 아니라 역학, 그리고 상호 작용 및 제어 시스템과의 상호 작용을 통해 환경에 있는 객체에 대한 전체적인 비전을 전제로 합니다. 전체 시스템 개발을 위한 다양한 대안 옵션을 고려하고 특정 목표 기준에 따라 이러한 대안의 다양성을 축소(감소)합니다. 분명히 이 중 어느 것도 전통적인 자동화 제어 시스템에서는 발견되지 않거나 존재하지만 단순화된 형태입니다.

물론, 제어 대상이 실제로 안정적이고 엄격하게 결정된 시스템이고 이에 대한 환경의 영향을 무시할 수 있는 경우에는 전통적인 방법이 적절하고 그 사용이 매우 정확하고 정당합니다.

그러나 다른 경우에는 이 방법이 효과적이지 않습니다.

제어 개체가 동적이면 입력 매개변수와 출력 매개변수 간의 관계는 물론 필수 매개변수 세트 자체도 변경되기 때문에 제어 알고리즘의 기본 모델이 빠르게 부적절해집니다. 본질적으로 이는 전통적인 자동 제어 시스템이 약한 제어 조치를 통해 평형점 근처에서만 제어 개체의 상태를 제어할 수 있음을 의미합니다. 작은 섭동의 방법으로. 균형 상태와는 거리가 먼, 전통적인 관점에서 볼 때 제어 개체의 동작은 예측할 수 없고 제어할 수 없는 것처럼 보입니다.

제어 개체의 입력 매개변수와 출력 매개변수 사이에 명확한 연결이 없는 경우(즉, 입력 매개변수와 개체의 상태 사이), 즉 이 연결이 확연한 확률적 성격을 갖는 경우 결정론적 모델은 다음과 같습니다. 특정 매개변수를 측정한 결과가 단순히 숫자라고 가정하면 초기에는 적용할 수 없습니다. 또한 이 연결의 유형을 단순히 알 수 없을 수도 있으므로 가장 일반적인 가정, 즉 확률적이거나 전혀 결정되지 않은 가정에서 진행해야 합니다.

전통적인 원리를 바탕으로 구축된 자동화 제어 시스템은 연결 패턴이 이미 알려져 있고 연구되어 수학적 모델에 반영된 매개변수를 기반으로만 작동할 수 있습니다. 본 연구에서는 자동화 설계를 위한 이러한 방법을 개발하는 것이 과제입니다. 가장 중요한 매개변수를 식별할 수 있는 시스템을 생성하고 매개변수와 제어 개체의 상태 사이의 연결 특성을 결정할 수 있는 제어 시스템입니다.

이 경우 실제 상황에 적합한 보다 발전된 측정 방법을 사용할 필요가 있습니다.

  • 이미지 분류 또는 인식(훈련 세트 기반 학습, 인식 알고리즘의 적응성, 연구 중인 클래스 및 매개변수 세트의 적응성, 가장 중요한 매개변수 선택 및 주어진 중복성을 유지하면서 설명 차원의 축소 등)
  • 통계 측정, 특정 매개변수를 측정한 결과가 별도의 숫자가 아닌 확률 분포인 경우: 통계 변수의 변화는 그 값 자체의 변화를 의미하는 것이 아니라 확률 분포 특성의 변화를 의미합니다. 그 가치.

결과적으로, 전통적인 결정론적 접근 방식을 기반으로 하는 자동화된 제어 시스템은 실제로 " 과도기”, 계층적 엘리트 및 인종 집단, 사회 및 유권자, 인간 생리학과 정신, 자연 및 인공 생태계 등을 다루고 있습니다.

80년대 중반에 I. 프리고진(I. Prigogine) 학파가 모든 시스템(인간 포함)의 개발이 시스템이 "대부분 결정적"이거나 "대부분 무작위"로 동작하는 기간을 번갈아 사용하는 접근 방식을 개발했다는 ​​점은 매우 중요합니다. 당연히 실제 제어 시스템은 기록의 "결정론적" 섹션뿐만 아니라 향후 동작이 매우 불확실해지는 지점에서도 제어 개체를 안정적으로 제어해야 합니다. 이는 동작이 무작위성(또는 현재 수학적으로 "무작위성"으로 설명되는 요소)의 큰 요소를 포함하는 제어 시스템에 대한 접근 방식을 개발해야 함을 의미합니다.

따라서 복잡한 동적 다중 매개변수 약 결정론적 시스템의 제어를 제공하는 유망한 자동화 제어 시스템에는 인공 지능 방법(주로 패턴 인식)을 기반으로 환경 및 제어 개체의 상태를 식별하고 예측하기 위한 하위 시스템, 지원 방법 결정이 포함될 것입니다. 제작과 정보 이론.

제어 작업에 대한 결정을 내리기 위해 이미지 인식 시스템을 사용하는 문제를 간략하게 살펴보겠습니다(이 문제는 이 작업의 핵심이므로 나중에 자세히 설명합니다). 제어 개체의 대상 및 기타 상태를 인식 클래스로 취하고 이에 영향을 미치는 요소를 특징으로 취하면 패턴 인식 모델에서 요소와 상태 간의 관계에 대한 측정이 형성될 수 있습니다. 이를 통해 제어 개체의 특정 상태에 대해 이 상태로의 전환을 촉진하거나 방해하는 요인에 대한 정보를 얻을 수 있으며, 이를 기반으로 제어 작업에 대한 결정을 내릴 수 있습니다.

요인은 다음 그룹으로 나눌 수 있습니다.

  • 컨트롤 개체의 배경을 특성화하는 단계;
  • 제어 객체의 현재 상태를 특성화하는 단계;
  • 환경적 요인;
  • 기술적(통제 가능한) 요인.

따라서 패턴 인식 시스템은 자동 제어 시스템의 일부로 사용될 수 있습니다. 즉, 제어 개체의 상태를 식별하고 제어 작업을 개발하기 위한 하위 시스템에서 사용할 수 있습니다.

이는 제어 개체가 복잡한 시스템인 경우에 적합합니다.

자동화 제어 시스템의 제어 조치에 대한 결정

이 작업에서는 패턴 인식 방법과 의사 결정 방법 간의 수많은 심층적 유추를 고려하여 복잡한 시스템으로 적응형 자동 제어 시스템을 합성하는 문제에 대한 솔루션을 고려합니다.

한편, 패턴 인식의 문제는 인식된 객체가 특정 인식 클래스에 속하는지 여부를 결정하는 것입니다.

반면, 저자들은 의사결정 문제를 역디코딩 문제 또는 역패턴 인식 문제로 간주할 것을 제안합니다(섹션 2.2.2 참조).

패턴 인식 및 의사 결정 방법의 기초가 되는 기본 아이디어의 공통성은 정보 이론의 관점에서 이를 고려할 때 특히 분명해집니다.

다양한 의사결정 문제

목표 실현으로서의 의사결정

정의: 의사결정(“선택”)은 일련의 대안에 대한 조치로, 그 결과 초기 대안 집합이 좁아집니다. 그 감소가 발생합니다.

선택은 모든 활동에 목적을 부여하는 행동입니다. 모든 활동이 특정 목표 또는 일련의 상호 연관된 목표에 종속되는 것은 선택 행위를 통해 이루어집니다.

따라서 선택 행위가 가능해지기 위해서는 다음이 필요하다.

  • 선택을 내려야 하는 일련의 대안을 생성하거나 발견합니다.
  • 선택의 목적 결정;
  • 대안을 서로 비교하는 방법의 개발 및 적용, 즉 각 대안이 목표에 얼마나 잘 부합하는지 간접적으로 평가할 수 있는 특정 기준에 따라 각 대안에 대한 선호도 등급을 결정합니다.

의사결정 지원 분야의 현대 작업은 잘 연구되고 상대적으로 단순한 문제에 대해서만 최상의(어떤 의미에서) 솔루션을 찾는 완전한 형식화가 가능한 반면, 실제로는 약하게 구조화된 문제가 가능하다는 특징적인 상황을 보여주었습니다. 공식화된 알고리즘이 전혀 개발되지 않은 경우가 더 자주 발생합니다(철저한 검색 및 시행착오 제외). 그러나 경험이 풍부하고 유능하며 유능한 전문가들이 꽤 좋은 선택을 하는 경우가 많습니다. 따라서 자연 상황에서 의사 결정을 수행하는 현대적인 추세는 비공식적 문제를 해결하는 인간의 능력과 형식적 방법 및 컴퓨터 모델링의 기능(대화형 의사 결정 지원 시스템, 전문가 시스템, 적응형 인간-기계 자동화 제어 시스템)을 결합하는 것입니다. , 신경망 및 인지 시스템.

불확실성 제거를 통한 의사결정(정보접근)

정보를 획득하는 과정은 신호를 수신한 결과 불확실성이 감소하는 것으로 볼 수 있으며, 정보의 양은 불확실성 제거 정도를 정량적으로 측정하는 것으로 볼 수 있다.

그러나 세트에서 대안의 특정 하위 세트를 선택한 결과, 즉 의사결정의 결과에도 동일한 일이 발생합니다(불확실성 감소). 이는 모든 선택, 모든 결정이 일정량의 정보를 생성하므로 정보 이론으로 설명할 수 있음을 의미합니다.

의사결정 문제의 분류

의사결정 업무의 다양성은 의사결정이 내려지는 상황의 각 구성요소가 질적으로 다른 옵션으로 구현될 수 있다는 사실에 기인합니다.

다음 옵션 중 몇 가지만 나열해 보겠습니다.

  • 대안 세트는 한편으로는 유한하고, 셀 수 있거나 연속적일 수 있으며, 다른 한편으로는 폐쇄형(즉, 완전히 알려진) 또는 개방형(알 수 없는 요소 포함)일 수 있습니다.
  • 대안 평가는 하나 이상의 기준에 따라 수행될 수 있으며, 이는 정량적 또는 질적 성격을 가질 수 있습니다.
  • 선택 모드는 선택 결과에 대한 피드백을 포함하여 단일(일회성) 또는 다중 반복일 수 있습니다. 이전 선거의 결과를 고려하여 의사결정 알고리즘을 훈련할 수 있습니다.
  • 각 대안을 선택한 결과는 미리 정확히 알 수 있고(확실성의 조건 하에서의 선택), 선택한 후 가능한 결과의 확률이 알려졌을 때 확률적 성격을 갖거나(위험 조건 하의 선택), 알 수 없는 모호한 결과를 가질 수 있습니다. 확률(불확실한 조건에서의 선택)
  • 개인이든 그룹이든 선택에 대한 책임이 없을 수 있습니다.
  • 그룹 선택에서 목표의 일관성 정도는 당사자 이익의 완전한 일치(협력 선택)부터 반대(갈등 상황에서의 선택)까지 다양할 수 있습니다. 타협, 연합, 갈등의 증가 또는 소멸 등 중간 옵션도 가능합니다.

이러한 옵션의 다양한 조합은 다양한 수준으로 연구된 수많은 의사 결정 문제로 이어집니다.

의사결정 방법을 기술하는 언어

하나의 동일한 현상이 다양한 수준의 일반성과 타당성을 통해 다양한 언어로 언급될 수 있습니다. 현재까지 선택을 설명하는 세 가지 주요 언어가 등장했습니다.

가장 단순하고 가장 개발되었으며 가장 대중적인 것은 기준 언어입니다.

기준 언어

이 언어의 이름은 각 개별 대안이 특정(하나) 숫자로 평가될 수 있다는 기본 가정과 연관되어 있으며, 그 후 대안 비교는 해당 숫자 비교로 축소됩니다.

예를 들어, (X)는 대안의 집합이고 x는 이 집합에 속하는 특정 대안(x∈X)이라고 가정합니다. 그러면 모든 x에 대해 기준(품질 기준, 목적 함수, 선호 함수, 효용 함수 등)이라고 불리는 함수 q(x)가 지정될 수 있다고 믿어지며, 대안 x 1이 더 바람직하다는 속성을 갖습니다. x 2(표시: x 1 > x 2), q(x 1) > q(x 2).

이 경우 기준 함수의 값이 가장 높은 대안을 찾는 것이 선택입니다.

그러나 실제로 대안의 선호도를 비교하기 위해 하나의 기준만을 사용하는 것은 정당화되지 않은 단순화로 판명됩니다. 대안을 더 자세히 고려하면 대안을 하나가 아닌 여러 기준으로 평가해야 하기 때문입니다. 서로 성격이 다르고 질적으로도 다릅니다.

예를 들어 특정 유형의 노선에서 승객과 운영 조직에 가장 적합한 항공기 유형을 선택할 때 기술, 기술, 경제, 사회, 인체 공학 등 여러 기준 그룹에 따라 비교가 동시에 이루어집니다.

다기준 문제에는 고유한 일반 솔루션이 없습니다. 따라서 다기준 문제에 단일 일반 솔루션을 허용하는 특정 형식을 제공하기 위한 여러 가지 방법이 제안되었습니다. 당연히 이러한 솔루션은 일반적으로 방법에 따라 다릅니다. 따라서 아마도 다기준 문제를 해결하는 데 가장 중요한 것은 이러한 유형의 공식화에 대한 정당성을 확보하는 것일 것입니다.

다기준 선택 문제를 단순화하기 위해 다양한 옵션이 사용됩니다. 그 중 일부를 나열해 보겠습니다.

  1. 조건부 최대화(적분 기준의 전체 극값이 발견되지 않지만 주요 기준의 로컬 극값이 발견됨).
  2. 지정된 속성을 가진 대안을 검색합니다.
  3. 파레토 집합을 찾는 것.
  4. 적분 기준을 도입하여 다중 기준 문제를 단일 기준 문제로 줄입니다.

다기준 문제를 단일 기준 문제로 축소하는 방법의 공식적인 공식화를 더 자세히 고려해 보겠습니다.

벡터 인수의 스칼라 함수로 적분 기준 q 0 (x)를 소개하겠습니다.

q 0 (x) = q 0 ((q 1 (x), q 2 (x), ..., q n (x)).

적분 기준을 사용하면 q 0 값에 따라 대안을 주문할 수 있으므로 이 기준의 의미에서 가장 좋은 것을 강조할 수 있습니다. 함수 q 0의 형태는 적분 기준에 대한 각 기준의 기여를 얼마나 구체적으로 상상하는지에 따라 결정됩니다. 일반적으로 덧셈 및 곱셈 함수가 사용됩니다.

q 0 = ∑a i ⋅q i /s i

1 - q 0 = ∏(1 - b i ⋅q i /s i)

내가 제공하는 계수는 다음과 같습니다.

  1. 무차원 또는 숫자 a i ⋅q i /si /si의 단일 차원(다른 부분 기준은 다른 차원을 가질 수 있으므로 산술 연산을 수행할 수 없으며 적분 기준으로 축소됩니다).
  2. 정규화, 즉 조건 보장: b i ⋅q i /s i<1.

계수 a i 및 bi 는 적분 기준에 대한 부분 기준 q i 의 상대적 기여도를 반영합니다.

따라서 다기준 공식화에서 대안 중 하나를 선택하는 결정을 내리는 문제는 적분 기준을 최대화하는 것으로 귀결됩니다.

x * = arg max(q 0 (q 1 (x), q 2 (x), ..., q n (x)))

의사결정 문제의 다기준 공식화에서 주요 문제는 모델의 다음 속성을 제공하는 계수 a i 및 b i 의 분석 형식을 찾는 것이 필요하다는 것입니다.

  • 주제 영역과 전문가의 관점에 대한 높은 수준의 적절성;
  • 적분 기준을 최대화하는 데 있어 최소한의 계산적 어려움, 즉 다양한 대안에 대한 계산;
  • 초기 데이터의 작은 교란으로 인해 적분 기준을 최대화한 결과의 안정성.
  • 솔루션의 안정성은 초기 데이터의 작은 변화로 인해 적분 기준 값이 약간 변경되고 그에 따라 결정이 약간 변경되어야 함을 의미합니다. 따라서 초기 데이터가 실질적으로 동일하다면 동일하거나 매우 유사한 결정을 내려야 합니다.

순차 바이너리 선택 언어

이항 관계의 언어는 다기준 언어의 일반화이며 대안을 평가할 때 이 평가는 항상 상대적이라는 사실을 고려하는 데 기반을 둡니다. 명시적으로 또는 더 자주 암시적으로, 연구 대상 세트 또는 일반 모집단의 다른 대안이 비교를 위한 기준 또는 참조 프레임으로 사용됩니다. 인간의 사고는 반대(구성)의 검색 및 분석을 기반으로 하기 때문에 크고 정렬되지 않은 집합에서 하나의 옵션을 선택하는 것보다 두 개의 반대 옵션 중 하나를 선택하는 것이 항상 더 쉽습니다.

따라서 이 언어의 기본 가정은 다음과 같습니다.

  • 별도의 대안은 평가되지 않습니다. 기준 기능은 도입되지 않았습니다.
  • 각 대안 쌍에 대해 그 중 하나가 다른 것보다 바람직하거나 동등하거나 비교할 수 없다는 것이 어떤 방식으로 확립될 수 있습니다.
  • 어떤 대안 쌍의 선호 관계도 선택을 위해 제시된 나머지 대안에 의존하지 않습니다.

이진 관계를 지정하는 방법에는 직접, 행렬, 기본 설정 그래프 사용, 섹션 방법 등 다양한 방법이 있습니다.

한 쌍의 대안 간의 관계는 동등성, 순서 및 지배성의 개념을 통해 표현됩니다.

일반화된 선택 기능 언어

선택 함수 언어는 집합 이론을 기반으로 하며 요소를 열거할 필요 없이 집합에서 다른 선택에 해당하는 하위 집합으로의 매핑 작업을 수행할 수 있게 해줍니다. 이 언어는 매우 일반적이며 어떤 선택이든 설명할 수 있는 잠재력을 가지고 있습니다. 그러나 일반화된 선택 함수의 수학적 장치는 현재 기준 기반 또는 이진 접근 방식을 사용하여 이미 해결된 문제를 중심으로 개발 및 테스트 중입니다.

그룹 선택

집단적 의사결정에 참여할 권리를 가진 사람들의 집단이 있게 해주세요. 이 그룹이 특정 대안 세트를 고려하고 있고 그룹의 각 구성원이 스스로 선택한다고 가정해 보겠습니다. 임무는 어떤 방식으로든 개인의 선택을 조정하고 어떤 의미에서는 그룹의 "일반적인 의견"을 표현하는 솔루션을 개발하는 것입니다. 그룹 선택으로 인정됩니다.

당연히 개인 결정을 조정하는 서로 다른 원칙은 서로 다른 그룹 결정에 상응합니다.

그룹 선택 중 개인 결정을 조정하는 규칙을 투표 규칙이라고 합니다. 가장 일반적인 것은 '다수결 원칙'으로, 가장 많은 표를 얻은 대안이 그룹 결정으로 채택됩니다.

그러한 결정은 그룹 내 다양한 ​​관점의 확산만을 반영할 뿐, 누구도 투표할 수 없는 진정한 최적의 옵션은 반영하지 않는다는 점을 이해해야 합니다. “진실은 투표로 결정되지 않는다.”

또한 소위 '투표 역설'이 있는데, 그 중 가장 유명한 것이 애로우의 역설이다.

이러한 역설은 투표 절차의 매우 불쾌한 특징으로 이어질 수 있으며 때로는 실제로 그렇게 됩니다. 예를 들어 그룹이 전혀 단일 결정을 내릴 수 없는 경우가 있습니다(정족수가 없거나 모든 사람이 자신의 고유한 옵션에 투표하는 등). .) 그리고 때로는 (다단계 투표를 통해) 소수가 다수에게 자신의 의지를 강요할 수 있습니다.

불확실한 조건에서의 선택

확실성은 불확실성의 특별한 경우입니다. 즉, 0에 가까운 불확실성입니다.

현대 선택 이론에서는 의사 결정 문제에 세 가지 주요 유형의 불확실성이 있다고 믿어집니다.

  1. 의사결정을 위한 초기 데이터의 정보(통계) 불확실성.
  2. 의사결정(선택) 결과의 불확실성.
  3. 의사결정 과정의 구성요소에 대한 설명이 모호함.

순서대로 살펴보겠습니다.

소스 데이터의 정보(통계) 불확실성

주제 영역에 대해 얻은 데이터는 절대적으로 정확하다고 간주할 수 없습니다. 또한, 분명히 이러한 데이터는 그 자체로는 우리의 관심 대상이 아니며, 우리가 실제로 관심을 갖는 것에 대한 특정 정보를 전달할 수 있는 신호일 뿐입니다. 따라서 우리가 다루고 있는 데이터는 시끄럽고 부정확할 뿐만 아니라 간접적이고 어쩌면 불완전할 수도 있다는 점을 고려하는 것이 더 현실적입니다. 또한 이러한 데이터는 연구 대상 전체 인구에 관한 것이 아니라 실제로 데이터를 수집할 수 있었던 특정 하위 집합에 관한 것이지만 동시에 전체 인구에 대한 결론을 도출하고 싶습니다. 이러한 결론의 신뢰성 정도를 알고 싶습니다.

이러한 조건에서 통계적 결정 이론이 사용됩니다.

이 이론에는 불확실성의 두 가지 주요 원인이 있습니다. 첫째, 원본 데이터가 어떤 분포를 따르는지 알 수 없습니다. 둘째, 초기 데이터를 구성하는 하위 집합에서 결론을 도출하려는 집합(일반 인구)이 어떤 분포를 가지고 있는지 알 수 없습니다.

통계 절차는 이러한 유형의 불확실성을 모두 제거하는 의사 결정 절차입니다.

통계 방법을 잘못 적용하는 데에는 여러 가지 이유가 있다는 점에 유의해야 합니다.

  • 다른 결론과 마찬가지로 통계적 결론에는 항상 어느 정도 신뢰성이나 타당성이 있습니다. 그러나 다른 많은 경우와는 달리 통계적 결론의 신뢰성은 통계 연구 중에 알려지고 결정됩니다.
  • 통계 절차를 적용한 결과 얻은 솔루션의 품질은 원본 데이터의 품질에 따라 달라집니다.
  • 통계적 성격을 갖지 않는 데이터는 통계 처리 대상이 되어서는 안 됩니다.
  • 연구 대상 모집단에 대한 선험적 정보 수준에 적합한 통계 절차를 사용해야 합니다(예를 들어, ANOVA 방법은 비가우시안 데이터에 적용해서는 안 됩니다). 초기 데이터의 분포를 알 수 없는 경우 이를 설정하거나 여러 가지 다른 방법을 사용하여 결과를 비교해야 합니다. 매우 다른 경우 이는 사용된 일부 절차가 적용되지 않음을 나타냅니다.

결과의 불확실성

하나 또는 다른 대안을 선택한 결과가 대안 자체에 의해 명확하게 결정될 때, 우리는 대안을 선택함으로써 실제로 그 결과를 선택한다는 것을 당연하게 여기며 대안과 그 결과를 구별할 수 없습니다.

그러나 실제 실제로는 하나 또는 다른 대안의 선택이 선택의 결과를 모호하게 결정하는 더 복잡한 상황을 처리해야 하는 경우가 많습니다.

별개의 대안 집합과 그들이 선택한 결과의 경우, 가능한 결과 집합 자체가 모든 대안에 공통이라면 우리는 서로 다른 대안이 결과의 확률 분포에서 서로 다르다고 가정할 수 있습니다. 일반적인 경우의 이러한 확률 분포는 대안 선택 결과와 그 결과로 발생한 실제 결과에 따라 달라질 수 있습니다. 가장 간단한 경우에는 결과가 동일할 가능성이 높습니다. 결과 자체는 일반적으로 이익 또는 손실의 의미를 가지며 정량적으로 표현됩니다.

모든 대안의 결과가 동일하다면 선택할 것이 없습니다. 서로 다른 경우 특정 정량적 추정치를 도입하여 대안을 비교할 수 있습니다. 게임 이론의 다양한 문제는 대안을 선택한 결과로 인한 손실과 이익의 수치적 특성의 다양한 선택, 대안을 선택하는 당사자 간의 갈등 정도 등의 차이와 관련이 있습니다.

이러한 유형의 불확실성을 모호한 불확실성으로 간주하십시오.

모든 선택 작업은 일련의 대안을 목표로 좁히는 작업입니다. 대안에 대한 공식적인 설명(목록 자체, 기능 또는 매개변수 목록)과 비교 규칙에 대한 설명(기준, 관계)은 항상 하나 또는 다른 측정 척도의 관점에서 제공됩니다. 이것은 이것에 대해 모릅니다).

모든 척도가 흐려지는 것으로 알려져 있지만 정도는 다양합니다. "흐림"이라는 용어는 구별 가능한 두 가지 대안을 제시하는 것이 항상 가능하다는 사실로 구성된 척도의 특성을 나타냅니다. 같은 규모에서도 다르며 구별할 수 없습니다. 동일하고 다른 하나는 더 흐릿합니다. 특정 스케일에서 그라데이션이 적을수록 흐릿해집니다.

따라서 우리는 대안을 명확하게 볼 수 있는 동시에 이를 모호하게 분류할 수 있습니다. 자신이 어떤 클래스에 속하는지 불확실합니다.

이미 모호한 상황에서의 의사결정에 대한 첫 번째 작업에서 Bellman과 Zadeh는 목표와 제약이 모두 대안 세트의 퍼지 세트로 표현되어야 한다는 아이디어를 제시했습니다.

최적화 접근 방식의 일부 제한 사항에 대해

위에서 논의한 모든 선택 문제와 의사결정 방법에서 문제는 주어진 조건에서 원래 세트에서 가장 좋은 것을 찾는 것이었습니다. 어떤 의미에서 최적의 대안.

최적성 개념은 사이버네틱스의 핵심 아이디어이며 기술 시스템 설계 및 운영 실무에서 확고히 자리 잡았습니다. 동시에, 이 아이디어를 예를 들어 사회 경제적 시스템과 같이 복잡하고 크고 약하게 결정된 시스템을 관리하는 분야로 옮기려고 할 때 신중한 처리가 필요합니다.

이러한 결론을 내리는 데에는 상당한 이유가 있습니다. 그 중 일부를 살펴보겠습니다:

  1. 최적의 솔루션은 종종 불안정한 것으로 판명됩니다. 문제 조건, 입력 또는 제약 조건의 사소한 변경으로 인해 상당히 다른 대안이 선택될 수 있습니다.
  2. 최적화 모델은 실제 제어 개체를 항상 적절하고 체계적으로 반영하지 않는 매우 간단한 문제의 좁은 클래스에 대해서만 개발됩니다. 대부분의 경우 최적화 방법을 사용하면 일부 크고 복잡한 시스템의 매우 간단하고 공식적으로 잘 설명된 하위 시스템만 최적화할 수 있습니다. 로컬 최적화만 허용합니다. 그러나 대규모 시스템의 각 하위 시스템이 최적으로 작동한다고 해서 시스템 전체가 최적으로 작동한다는 의미는 아닙니다. 따라서 하위 시스템의 최적화가 시스템 전체를 최적화할 때 필요한 동작으로 반드시 이어지는 것은 아닙니다. 게다가 때로는 로컬 최적화가 시스템 전체에 부정적인 결과를 초래할 수도 있습니다. 따라서 하위 시스템과 시스템 전체를 최적화할 때는 목표 트리와 하위 목표의 우선순위를 결정하는 것이 필요합니다.
  3. 종종 일부 수학적 모델에 따라 최적화 기준을 최대화하는 것이 최적화의 목표로 간주되지만 실제로 목표는 제어 개체를 최적화하는 것입니다. 최적화 기준과 수학적 모델은 항상 간접적으로만 목표와 관련됩니다. 다소 적절하지만 항상 대략적입니다.

따라서 수학적으로 적절하게 공식화할 수 있는 시스템에 매우 유익한 최적성이라는 개념을 복잡한 시스템에 조심스럽게 적용해야 합니다. 물론, 때때로 그러한 시스템에 대해 제안될 수 있는 수학적 모델은 최적화될 수 있습니다. 그러나 복잡한 시스템의 경우 더 이상 무시할 수 없는 이러한 모델의 강력한 단순화와 복잡한 시스템의 경우 이러한 모델의 적절성 정도가 사실상 알려지지 않았다는 사실을 항상 고려해야 합니다. . 따라서 이 최적화가 순전히 실제적인 의미를 갖는지는 알려져 있지 않습니다. 기술 시스템에서 최적화의 높은 실용성은 복잡한 시스템을 최적화할 때에도 마찬가지로 효과적일 것이라는 착각을 불러일으켜서는 안 됩니다. 복잡한 시스템의 의미 있는 수학적 모델링은 매우 어렵고 대략적이며 부정확합니다. 시스템이 복잡할수록 최적화 아이디어에 더욱 주의해야 합니다.

따라서 복잡하고 크고 약한 결정론적 시스템을 제어하는 ​​방법을 개발할 때 저자는 형식적인 수학적 관점에서 선택한 접근 방식의 최적성뿐만 아니라 목표에 대한 적절성과 시스템의 본질을 가장 중요하게 고려합니다. 제어 객체.

전문가 선정 방법

복잡한 시스템을 연구할 때 여러 가지 이유로 현재 개발된 수학적 장치를 사용하여 엄격하게 공식화하고 풀 수 없는 문제가 종종 발생합니다. 이러한 경우 경험과 직관을 통해 문제의 복잡성을 줄이는 데 도움이 되는 전문가(시스템 분석가)의 서비스가 사용됩니다.

그러나 전문가 자체는 매우 복잡한 시스템이며 전문가의 활동도 많은 외부 및 내부 조건에 따라 달라진다는 점을 고려해야 합니다. 따라서 전문가 평가를 구성하는 방법에서는 전문가의 작업에 유리한 외부 및 심리적 조건을 조성하는 데 많은 관심을 기울입니다.

전문가의 작업은 다음 요소의 영향을 받습니다.

  • 시험 결과 사용에 대한 책임;
  • 다른 전문가도 관련되어 있다는 지식;
  • 전문가 간의 정보 접촉 가용성;
  • 전문가의 대인 관계(그들 사이에 정보 접촉이 있는 경우)
  • 평가 결과에 대한 전문가의 개인적인 관심;
  • 전문가의 개인적 자질(자만, 순응, 의지 등)

전문가 간의 상호작용은 그들의 활동을 자극할 수도 있고 억제할 수도 있습니다. 따라서 익명 및 공개 설문 조사 및 설문지, 회의, 토론, 비즈니스 게임, 브레인 스토밍 등 전문가 간의 상호 작용 성격이 다른 다양한 조사 방법이 다양한 경우에 사용됩니다.

전문가 의견을 수학적 처리하는 방법에는 여러 가지가 있습니다. 전문가들은 하나 또는 지표 시스템을 사용하여 다양한 대안을 평가하도록 요청받습니다. 또한 각 지표의 중요성(“가중치” 또는 “기여도”)의 정도를 평가하도록 요청받습니다. 전문가들 자신에게도 그룹의 결과 의견에 대한 각자의 기여도에 따라 역량 수준이 할당됩니다.

전문가와 협력하기 위해 개발된 방법론은 Delphi 방법입니다. 이 방법의 주요 아이디어는 전문가의 자존심이 손상되지 않고 개인적인 대결을 배제하는 조건이 제공되면 비판과 논쟁이 전문가에게 유익한 영향을 미친다는 것입니다.

전문가 시스템과 의사결정 지원에서 전문가 방법을 사용하는 성격에는 근본적인 차이가 있다는 점을 특히 강조해야 합니다. 첫 번째 경우 전문가가 의사 결정 방법을 공식화해야 하는 경우 두 번째 경우에는 결정 자체만 필요합니다.

전문가는 현재 자동화 시스템이 전혀 제공하지 않거나 인간보다 더 나쁘게 수행되는 기능의 구현에 전문가가 참여하기 때문에 자동화 시스템 개발의 유망한 방향은 이러한 기능의 최대 자동화입니다.

자동화된 의사결정 지원 시스템

인간은 결정을 내릴 때 항상 보조자를 사용해 왔습니다. 이들은 단순히 관리 대상에 대한 정보 제공자이자 결정 옵션을 제공하고 그 결과를 분석하는 컨설턴트(고문)였습니다. 결정을 내리는 사람은 항상 특정 정보 환경에서 결정을 내립니다. 군 지도자에게는 본부, 총장에게는 학술 위원회, 장관에게는 대학이 됩니다.

오늘날 의사결정을 위한 정보 인프라는 대화형 의사결정 평가를 위한 자동화 시스템, 특히 의사결정 지원 시스템(DDS - 의사결정 지원 시스템) 없이는 상상할 수 없습니다. 사람이 결정을 내리는 데 필요한 정보를 준비하도록 특별히 설계된 자동화 시스템입니다. 특히 의사결정 지원 시스템의 개발은 락센부르크(오스트리아)에 있는 국제 응용 시스템 분석 연구소의 후원으로 수행되는 국제 프로젝트의 틀 내에서 수행됩니다.

실제 상황에서 선택을 하려면 여러 가지 작업이 필요하며, 그 중 일부는 인간이 더 효율적으로 수행하고 일부는 기계가 수행합니다. 단점을 보완하면서 장점을 효과적으로 조합하는 것이 자동화된 의사결정 지원 시스템에 구현됩니다.

사람은 불확실한 상황에서 기계보다 더 나은 결정을 내리지만, 올바른 결정을 내리려면 주제 영역을 특징짓는 적절한(완전하고 신뢰할 수 있는) 정보도 필요합니다. 그러나 인간은 처리되지 않은 대량의 "원시" 정보에 잘 대처하지 못하는 것으로 알려져 있습니다. 따라서 의사 결정 지원에서 기계의 역할은 제어 대상 및 제어할 수 없는 요소(환경)에 대한 정보의 사전 준비를 수행하고 특정 결정의 결과를 확인하는 데 도움을 주며 이 모든 정보를 시각적으로 표시하는 것일 수 있습니다. 의사결정 양식을 위한 편리한 방법입니다.

따라서 자동화된 의사결정 지원 시스템은 개인의 약점을 보완하여 일상적인 사전 정보 처리에서 해방되고, 자신의 강점을 더 잘 발휘할 수 있는 편안한 정보 환경을 제공합니다. 이러한 시스템은 의사결정자의 기능을 자동화하는 것을 목표로 하지 않으며(결과적으로 의사결정자로부터 이러한 기능을 소외시키고, 따라서 일반적으로 받아들일 수 없는 결정에 대한 책임을 지게 됨), 그에게 상품을 찾는 데 도움을 제공하는 것을 목표로 합니다. 해결책.

비전 시스템을 갖춘 현대 로봇은 현실 세계와 협력하기 위해 잘 볼 수 있습니다. 그들은 어떤 유형의 물체가 존재하는지, 물체 사이에 어떤 관계가 있는지, 어떤 그룹을 형성하는지에 대해 결론을 내릴 수 있습니다.

인식 작업의 본질은 연구 대상이 특정 클래스로 분류될 수 있도록 고정된 유한한 특징 집합을 가지고 있는지 여부를 확인하는 것입니다.

패턴 인식 과학의 목표:

인간 전문가나 복잡한 전문가 시스템을 보다 단순한 시스템으로 대체(인간 활동의 자동화 또는 복잡한 시스템의 단순화)

명확한 규칙을 지정하지 않고도 의사결정을 내릴 수 있는 학습 시스템, 즉 시스템에 "시연된" 올바른 결정의 특정 유한 수의 예를 기반으로 의사결정 규칙을 자체적으로 합성할 수 있는 시스템의 구축.

인식 작업다음과 같이 특징지어질 수 있다.

1. 이는 두 가지 주요 단계로 구성된 정보 작업입니다. 소스 데이터를 인식 및 인식 자체에 편리한 형식으로 축소합니다.

2. 이 작업에서는 객체의 유사성과 유사성 개념을 도입하고 객체를 특정 클래스에 포함시키기 위한 기초로 객체의 근접성 개념을 공식화할 수 있습니다.

3. 이러한 작업에서는 분류가 알려져 있고 공식화된 설명의 형태로 인식 알고리즘에 제시되어 학습 과정에서 작업에 맞게 조정될 수 있는 일련의 예제를 사용하여 작업할 수 있습니다.

4. 이러한 문제에 대해서는 형식적인 이론을 구축하고 고전적인 수학적 방법을 적용하는 것이 어렵습니다.

5. 이러한 문제에는 "나쁜" 정보가 있을 수 있습니다.

인식 작업 유형:

제시된 개체를 수업 중 하나에 할당(교사와의 교육)

자동 분류 – 설명에 따라 일련의 객체(상황)를 중첩되지 않는 클래스 시스템으로 분할합니다.

분해 중 정보 특징 세트 선택

소스 데이터를 인식하기 편리한 형식으로 가져옵니다.

동적 인식 및 동적 분류;

예측 문제.

기본 정의

영상– 이는 객체 또는 현상에 대한 구조화된 설명으로, 특징 벡터로 표현되며, 각 요소는 이 객체를 특징짓는 특징 중 하나의 수치 값을 나타냅니다. 즉, 이미지는 일련의 특정 수치적 특성을 측정할 수 있는 모든 개체입니다. 이미지 예시 : 문자, 이미지, 심전도 등

숫자 기호(또는 단지 표시). 특정 패턴 인식 작업의 프레임워크 내에서 작동하는 특정 수치 특성과 개체를 일치시키는 방법에 대한 공식 또는 기타 설명입니다. 각 객체에 대해 여러 가지 다른 특성, 즉 여러 수치적 특성을 정의할 수 있습니다.

기능 공간.N 차원 공간은 주어진 인식 작업에 대해 정의됩니다. 여기서 N은 모든 객체에 대해 측정된 특징의 고정된 수입니다. 인식 작업의 객체에 해당하는 특징 공간의 벡터는 이 객체의 특징 값인 구성 요소(x1, x2, ..., xN)를 포함하는 N차원 벡터입니다.

OBJECT->Nfeatures->M차원 특징 벡터

수업- 인식 작업 개체 집합의 임의 개체를 특정 개체 그룹에 할당할 수 있는 가능성에 대한 비정형화된(원칙적으로) 아이디어입니다. 동일한 클래스의 객체에 대해서는 "유사성"이 있다고 가정합니다. 패턴 인식 작업의 경우 1보다 큰 임의의 수의 클래스를 정의할 수 있으며 클래스 수는 숫자 S로 표시됩니다.

일반적으로 패턴 인식 문제는 인식과 훈련이라는 두 부분으로 구성됩니다.

패턴 인식은 특정 요구 사항에 따라 특정 개체 그룹을 분류하는 것으로 구성됩니다. 동일한 이미지 클래스에 속하는 개체는 공통 속성을 갖습니다. 상황에 따라 다양한 유형의 분류가 필요하므로 분류를 정의하는 요구 사항은 다양할 수 있습니다.

예를 들어 영문자를 인식하면 26개의 이미지 클래스가 형성된다. 그러나 인식 시 영문자와 한자를 구별하려면 두 가지 클래스의 이미지만 필요합니다.

패턴 인식에 대한 가장 간단한 접근 방식은 패턴 일치입니다. 이 경우 각 이미지 클래스에서 하나씩 특정 이미지 세트가 기기의 메모리에 저장됩니다. (알 수 없는 클래스의) 입력(인식된) 이미지를 각 클래스의 기준과 비교합니다. 분류는 미리 선택된 일치 기준 또는 유사성 기준을 기반으로 합니다. 즉, 입력 영상이 다른 어떤 기준보다 i번째 패턴 클래스의 기준과 더 잘 일치하면 입력 영상은 i번째 패턴 클래스에 속하는 것으로 분류됩니다.

이 접근 방식의 단점, 즉 표준과의 비교는 경우에 따라 각 이미지 클래스에서 적합한 표준을 선택하고 필요한 일치 기준을 설정하기가 어렵다는 것입니다.

보다 발전된 접근 방식은 분류가 입력 이미지에 대해 선택된 특정 측정 세트를 기반으로 한다는 것입니다. "특징"이라고 하는 이러한 선택된 측정값은 일반적으로 발생하는 변형과 왜곡에 대해 불변이거나 둔감하며 중복성이 거의 없는 것으로 가정됩니다.

두 번째 접근방식인 "특성 측정"의 특별한 경우로, 측정된 특성의 형태로 표준을 저장하고 분류기에서 특수한 분류 기준(비교)을 사용합니다.

기능은 개발자가 정의하며 객체의 방향, 크기 및 모양 변화에 따라 변하지 않아야 합니다.