K-fold cross validation

Per allenare un algoritmo di Machine Learning si utilizza l’insieme di dati iniziale e lo si divide in diverse parti necessarie per l’allenamento, la validazione e il test finale.

Nel caso in cui la grandezza del dataset non sia tale da consentire un’adeguatamente divisione, può essere necessario organizzare i dati iniziali in k sottoinsiemi. Tramite essi verranno poi eseguiti k diversi round di allenamento, comparando di ogni volta in volta i risultati ottenuti con una porzione di grandezza 1/k tenuta per la validazione.

Valori tipici di k sono 5 e 10.

Nel caso in cui l’insieme contiene un numero di elementi troppo esiguo e \lceil1/k\rceil=1 (dunque rimane un solo elemento per fare la validation) si parla di leave-one-out cross-validation (LOOCV).

In poche parole

‎‏‏‎ ‎‏‏‎✅ Si utilizza la cross-validation dividendo i dati in k sottoinsiemi se il dataset è troppo piccolo. Si eseguono successivamente k round di allenamento, confrontando i risultati con una porzione di grandezza 1/k per la validazione. Se è presente un unico elemento per la validazione si parla di leave-one-out cross-validation (LOOCV).

Se hai trovato errori o informazioni mancanti scrivi a:
giacomo.dandria@esercizistem.com

Se hai trovato errori o informazioni mancanti scrivi a:
giacomo.dandria@esercizistem.com

Questa pagina è stata utile?
No
Torna in alto