Compartilhamento de tecnologia

Máquina de vetores de suporte Halcon

2024-07-08

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

uma máquina de vetores de suporte

1 Introdução ao suporte a máquinas de vetores:

A Support Vector Machine (SVM) foi proposta pela primeira vez por Corinna Cortes e Vapnik em 1995. Ela mostra muitas vantagens exclusivas na solução de reconhecimento de amostras pequenas, não lineares e de padrões de alta dimensão.

2 Princípio da máquina de vetores de suporte:

Encontre um hiperplano de classificação no espaço n-dimensional e classifique os pontos no espaço. Os pontos na linha pontilhada são chamados de máquinas de vetores de suporte Supprot Verctor, e a linha vermelha no meio é chamada de superplano. aumente a distância entre todos os pontos e o superplano.
Insira a descrição da imagem aqui
Insira a descrição da imagem aqui
Insira a descrição da imagem aqui
Para situações linearmente inseparáveis, nossa abordagem comum é mapear as características da amostra em um espaço de alta dimensão.
No entanto, o mapeamento para um espaço de alta dimensão pode resultar em dimensões muito grandes e cálculos complicados. Aqui novamente a função kernel é introduzida;

Função Kernel: Também chamada de mapeamento não linear, ela mapeia recursos de amostra para um espaço de alta dimensão e constrói um hiperplano ideal neste espaço.
Tipos de função do kernel: kernel linear, kernel polinomial, kernel gaussiano (rbf), etc.

Constante regular C: refere-se ao grau de restrição do multiplicador de Lagrange no SVM
Insira a descrição da imagem aqui
Insira a descrição da imagem aqui
Quanto maior o valor da constante regular, maior a penalidade, menos tolerante a erros e mais vetores de suporte, o que pode facilmente levar ao sobreajuste.
Pelo contrário, quanto menor for a constante regular, mais fácil será causar subajuste.

3 modos SVM

um contra todos (método um contra todos): Durante o treinamento, amostras de uma determinada categoria são classificadas em uma categoria por vez, e outras amostras restantes são classificadas em outra categoria, n SVMs são construídos a partir de n. categorias de amostras.

Um contra um (método um contra um): Durante o treinamento, um SVM é projetado entre quaisquer dois tipos de amostras, portanto, n (n-1)/2 SVMs precisam ser projetados para n categorias de amostras.

4 tipos de pré-processamento de vetores de recursos:

canonical_variates: análise de correlação canônica Na regressão linear, usamos linhas retas para ajustar os pontos de amostra e encontrar a relação linear entre o vetor de características n-dimensional X e o resultado de saída Y;

Análise de componentes principais: A análise de componentes principais (PCA) é um processo estatístico que utiliza uma transformação ortogonal para converter um conjunto de valores observados de possíveis variáveis ​​​​correlacionadas em um conjunto de valores de variáveis ​​​​linearmente não correlacionadas chamadas componentes principais;