SVM (Support Vector Machines) e Kernel Trick

L’algoritmo SVM (Support Vector Machines) lavora in maniera simile alla regressione lineare, però a differenza di essa non cerca di approssimare un insieme di dati, bensì cerca di trovare la retta (o eventualmente il piano/iperpiano) che riesca a separare in maniera ottimale un insieme di dati per effettuare, ad esempio, classificazione.

Separare i dati in maniera ottimale significa trovare l’iperpiano che è a distanza maggiore da ogni punto dell’insieme considerato.

Nel caso in cui i punti non siano di natura lineare, dunque non siano divisibili in maniera netta da un iperpiano, bisogna procedere a tradurre il proprio spazio vettoriale con cui si sta lavorando in un altro spazio vettoriale (di span maggiore) dove i punti sono invece divisibili linearmente. Quest’ultima tecnica prende il nome di kernel trick.

Nota: delle funzioni di kernel comuni sono polinomiali e gaussiane.

In poche parole

‎‏‏‎ ‎‏‏‎✅ L’algoritmo SVM (Support Vector Machine) cerca di trovare l’iperpiano che separa ottimamente un insieme di dati per scopi di classificazione. A differenza della regressione, non cerca di approssimare i dati, ma mira a trovare una separazione netta tramite l’utilizzo di un iperpiano che massimizza la distanza da ogni punto dell’insieme considerato.

‎‏‏‎ ‎‏‏‎✅ Quando i punti non sono linearmente separabili, si utilizza il cosiddetto “kernel trick” per mappare lo spazio vettoriale in uno di dimensione superiore in cui i punti possono essere separati linearmente.

Se hai trovato errori o informazioni mancanti scrivi a:
giacomo.dandria@esercizistem.com

Se hai trovato errori o informazioni mancanti scrivi a:
giacomo.dandria@esercizistem.com

Questa pagina è stata utile?
No
Torna in alto