Introduzione e Agenti Razionali
- (riassunto) Introduzione all’Intelligenza Artificiale
- (riassunto) Agenti razionali: definizioni preliminari
- (riassunto) Tipologie di Agenti Razionali
- (riassunto) Tipologie di ambiente per un agente razionale
Algoritmi di Ricerca e Planning
- (riassunto) La ricerca e la pianificazione nell’intelligenza artificiale
- (riassunto) Gli algoritmi di ricerca più comuni
- (riassunto) Effective branching factor b^*
- (riassunto) Esercizi
Problemi di pura ottimizzazione
- (riassunto) Problemi di pura ottimizzazione
- (riassunto) Paradigmi di ottimizzazione
- (riassunto) Problemi di programmazione lineare
- (riassunto) Problemi di programmazione lineare intera
- (riassunto) Problemi di programmazione con vincoli
- (riassunto) Problemi di soddisfacibilità booleana
- (riassunto) Problemi di ottimizzazione comuni
- (riassunto) Esercizi di ottimizzazione
Logica Proposizionale e del Primo Ordine
- (riassunto) Introduzione alla logica: il mondo Wumpus, la differenza tra sintassi e semantica, l’entailmente e l’inferenza
- (riassunto) La logica proposizionale e i suoi metodi d’inferenza
- (riassunto) Clausole di Horn
- (riassunto) Modus Ponens
- (riassunto) Foreward/backward chaining
- (riassunto) Grafi AND-OR
- (riassunto) La logica del primo ordine (FOL) e i suoi metodi d’inferenza
- (riassunto) Prolog
Concetti fondamentali di Teoria della Probabilità
- (riassunto) Concetti fondamentali di teoria della probabilità
Reti bayesiane e Inferenza Causale
- (riassunto) Reti Baeysiane: introduzione e definizione di semplici reti
- (riassunto) CPT (Conditional Probability Tables)
- (riassunto) Inferenza per enumerazione ed eliminazione di variabili
- (riassunto) Tecniche d’inferenza approssimata
- (riassunto) Cos’è l’inferenza causale e i metodi utilizzati per rappresentare graficamente e algebricamente la causalità all’interno di una rete
- (riassunto) D-separation
- (riassunto) Interventi e Adjustment Formula
- (riassunto) ACE (Average Causal Effect)
- (riassunto) Confounder, Backdoor paths, Backdoor Criterion, Frontdoor paths e Frontdoor Criterion (con formule di aggiustamento)
- (riassunto) Mediazione
- (riassunto) SCM lineari
- (riassunto) Esercizi
- (riassunto) Markov Blanket
Modelli di Markov
- (riassunto) Markov Chains
- (riassunto) HMM (Hidden Markov Models)
- (riassunto) Cos’è un MDP (Markov Decision Processes) e gli algoritmi di Value-Iteration, Policy-Iteration e Q-Learning
- (riassunto) POMDP (Partially Observable Markov Decision Processes)
- (riassunto) Esercizi su Markov
Machine Learning e Deep Learning
- (riassunto) Cos’è il Machine Learning e quali sono le sue principali branchie
- (riassunto) Alberi decisionali (decision trees)
- (riassunto) Pruning/Bagging/Random Forest
- (riassunto) Come allenare un algoritmo di Machine Learning
- (riassunto) K-fold cross validation
- (riassunto) Cos’è una funzione di Loss e quali sono le più comuni funzioni di Loss
- (riassunto) Regressione Lineare
- (riassunto) L’algoritmo di Gradient Descent e le sue varianti (batch, stochastic, minibatch)
- (riassunto) SVM (Support Vectore Machines) e Kernel Trick
- (riassunto) Cos’è un Hidden Layer
- (riassunto) Neural networks: il percettrone, le funzioni di attivazione e la codifica degli input
- (riassunto) Cos’è e a cosa serve il layer softmax
- (riassunto) Implementare le funzioni logiche con un semplice Neural Network
- (riassunto) Recurrent Neural Networks (RNNs)
- (riassunto) Convolutional Neural Networks (CNNs)
- (riassunto) Come trovare i pesi di ogni nodo in un Neural Network: foreward pass e back-propagation
- (riassunto) NAS: Natural Architecture Search
- (riassunto) Receptive Field
- (riassunto) Pooling: average/max pooling
- (riassunto) Dropout
- (riassunto) I tensori e la rappresentazione dei dati nell’intelligenza artificiale
- (riassunto) LSTM (Long-Short-Term-Memory)
- (riassunto) Autoencoder (AEs) e Variational Autoencoder (VAEs): cosa sono e a cosa servono
- (riassunto) GANs (Generative Adversarial Networks)
- (riassunto) Transfer Learning
Questa pagina è stata utile?
SìNo