Regressione lineare

Dato un insieme di dati vogliamo ottenere la miglior rappresentazione lineare che possa esprimere l’intero insieme di dati.

h_{\bf W}(x)=w_1\,x+w_0

Procediamo per passaggi:

  1. Troviamo i valori (w_0,\,w_1) che minimizzano l’empirical loss
  2. Utilizzando come funzione di loss l’errore quadratico riusciamo a minimizzare tale errore nella funzione
    \begin{aligned} \text{Loss}(h_{\bf W})&=\sum_{j=1}^N L_2(y_j,\,h_{\bf W}(x_j))\\[10pt] &=\sum_{j=1}^N(y_j-h_{\bf W}(x_j))^2\\[10pt] &=\sum_{j=1}^N(y_j-(w_1\,x_j+w_0))^2 \end{aligned}

Nel caso in cui si abba a che fare con spazi di dimensione superiore a 2 bisognerà usare l’analogo 3D di questo algoritmo: il gradient descent.

Talvolta, le tecniche utilizzate nella regressione lineare possono essere sfruttate per tracciare i confini decisionali (decision boundaries) all’interno di un insieme di dati (che si assume essere divisibile linearmente, eventualmente in uno spazio \R^n)

Se hai trovato errori o informazioni mancanti scrivi a:
giacomo.dandria@esercizistem.com

Se hai trovato errori o informazioni mancanti scrivi a:
giacomo.dandria@esercizistem.com

Questa pagina è stata utile?
No
Torna in alto