Home » Intelligenza Artificiale » 📋 URL
Dato un insieme di dati vogliamo ottenere la miglior rappresentazione lineare che possa esprimere l’intero insieme di dati.
h_{\bf W}(x)=w_1\,x+w_0
Procediamo per passaggi:
- Troviamo i valori (w_0,\,w_1) che minimizzano l’empirical loss
- Utilizzando come funzione di loss l’errore quadratico riusciamo a minimizzare tale errore nella funzione
\begin{aligned} \text{Loss}(h_{\bf W})&=\sum_{j=1}^N L_2(y_j,\,h_{\bf W}(x_j))\\[10pt] &=\sum_{j=1}^N(y_j-h_{\bf W}(x_j))^2\\[10pt] &=\sum_{j=1}^N(y_j-(w_1\,x_j+w_0))^2 \end{aligned}
Nel caso in cui si abba a che fare con spazi di dimensione superiore a 2 bisognerà usare l’analogo 3D di questo algoritmo: il gradient descent.
Talvolta, le tecniche utilizzate nella regressione lineare possono essere sfruttate per tracciare i confini decisionali (decision boundaries) all’interno di un insieme di dati (che si assume essere divisibile linearmente, eventualmente in uno spazio \R^n)
Questa pagina è stata utile?
SìNo