Sto preparando un corso di formazione sull'introduzione nella didattica 📚 dell'intelligenza artificiale generativa 🤖 e contemporaneamente sto seguendo diversi corsi sul Machine Learning.
Ho chiesto a ChatGPT-4 di fornirmi un glossario 📖 dei principali termini dell'AI e del machine learning. Lo condivido qui per mia comodità e nel caso possa essere utile anche a voi! 📘✨
Termine | Descrizione |
---|---|
Accuracy (Accuratezza) | Percentuale di previsioni corrette fatte da un modello rispetto al totale delle previsioni. |
Albero decisionale | Modello di machine learning che utilizza una struttura ad albero per prendere decisioni basate su regole derivate dai dati. |
Algoritmo | Sequenza di istruzioni o regole definite per risolvere un problema specifico. |
Apprendimento non supervisionato | Metodo di machine learning in cui il modello cerca pattern o strutture all'interno di dati non etichettati. |
Apprendimento per trasferimento | Tecnica di machine learning in cui un modello addestrato su un problema viene riutilizzato come punto di partenza per un modello su un secondo problema. |
Apprendimento supervisionato | Metodo di machine learning in cui il modello viene addestrato su un dataset etichettato. |
Backpropagation | Algoritmo utilizzato per addestrare reti neurali, basato sulla propagazione all'indietro dell'errore dal output ai pesi della rete. |
Batch | Gruppo di dati su cui un modello viene addestrato durante una singola iterazione. |
Bias | Errore sistematico che può derivare dai dati o dal modello stesso, influenzando negativamente le previsioni. |
Big Data | Set di dati estremamente grandi e complessi che richiedono strumenti avanzati per essere analizzati. |
Classificazione | Problema di machine learning in cui l'obiettivo è assegnare etichette a dati in ingresso. |
Clustering | Tecnica di apprendimento non supervisionato utilizzata per raggruppare dati simili tra loro. |
CNN (Convolutional Neural Network) | Tipo di rete neurale particolarmente efficace per il riconoscimento di immagini e il processamento dei dati visivi. |
Cost Function (Funzione di costo) | Funzione che misura l'errore tra le previsioni del modello e i valori reali. |
Cross-entropy | Funzione di costo comunemente utilizzata per problemi di classificazione. |
Cross-validation (Validazione incrociata) | Metodo per valutare le prestazioni di un modello suddividendo i dati in set di addestramento e test multipli. |
Data Augmentation | Tecnica utilizzata per aumentare la quantità di dati di addestramento generando nuove versioni dei dati esistenti attraverso trasformazioni. |
Data Mining | Processo di estrazione di conoscenze utili da grandi insiemi di dati. |
Data Preprocessing (Preprocessing dei dati) | Processo di pulizia e trasformazione dei dati grezzi prima di utilizzarli per addestrare un modello. |
Deep Learning | Sottocampo del machine learning che utilizza reti neurali profonde per analizzare dati complessi. |
Decision Tree (Albero decisionale) | Modello predittivo che utilizza una struttura ad albero per rappresentare le decisioni e le loro poss ibili conseguenze. |
Dropout | Tecnica di regularizzazione usata nelle reti neurali per prevenire l'overfitting disattivando casualmente alcuni neuroni durante l'addestramento. |
Embedding | Rappresentazione di oggetti (come parole o frasi) in uno spazio vettoriale continuo. |
Ensemble Learning | Tecnica che combina più modelli per migliorare la precisione e la robustezza delle previsioni. |
Epoch | Iterazione completa su tutto il dataset di addestramento durante il training di un modello. |
Exploratory Data Analysis (EDA) | Analisi preliminare dei dati per comprendere le loro principali caratteristiche e struttura. |
F1 Score | Misura di precisione che considera sia la precisione che il richiamo (recall) del modello. |
Feature | Variabile individuale usata come input nel processo di machine learning. |
Feature Engineering | Processo di selezione, modifica o creazione di variabili per migliorare le prestazioni di un modello. |
Fine-tuning | Processo di ottimizzazione di un modello pre-addestrato su un nuovo set di dati specifici. |
Gradient Descent | Algoritmo di ottimizzazione utilizzato per minimizzare la funzione di costo adattando i pesi del modello. |
Hyperparameter (Iperparametro) | Parametro il cui valore viene impostato prima del processo di addestramento del modello e che non viene aggiornato durante l'addestramento. |
Hyperparameter Tuning | Processo di selezione dei migliori iperparametri per un modello attraverso tecniche come la ricerca a griglia (grid search) o la ricerca casuale (random search). |
K-means | Algoritmo di clustering che partiziona i dati in k gruppi basati sulla similarità. |
K-nearest neighbors (KNN) | Algoritmo di classificazione che assegna una classe a un punto basato sulle classi dei k punti più vicini. |
Label (Etichetta) | Valore di output associato a un'osservazione nel dataset di addestramento. |
Learning Rate (Tasso di apprendimento) | Parametro che determina la dimensione dei passi presi durante l'aggiornamento dei pesi del modello. |
Logistic Regression (Regressione logistica) | Algoritmo di classificazione che modella la probabilità che una data osservazione appartenga a una certa classe. |
Loss Function (Funzione di perdita) | Vedi Cost Function. |
Machine Learning | Branca dell'intelligenza artificiale che si occupa della creazione di algoritmi che apprendono dai dati. |
Minibatch | Sottoinsieme di dati utilizzato per aggiornare il modello durante il training, più piccolo di un batch ma più grande di un singolo esempio. |
Naive Bayes | Algoritmo di classificazione basato sul teorema di Bayes con l'assunzione di indipendenza tra le caratteristiche. |
Neural Network | Modello computazionale ispirato alla struttura del cervello umano, utilizzato nel deep learning. |
Normalizzazione | Processo di scalare le caratteristiche dei dati in modo che abbiano una distribuzione uniforme e rientrino in un intervallo specifico. |
Overfitting | Situazione in cui un modello di machine learning si adatta troppo ai dati di addestramento e non generalizza bene a dati nuovi. |
PCA (Principal Component Analysis) | Tecnica di riduzione della dimensionalità che trasforma i dati in un nuovo sistema di coordinate basato sulla massimizzazione della varianza. |
Precision | Percentuale di previsioni corrette rispetto al totale delle previsioni effettuate. |
Recall (Richiamo) | Misura di quanto bene un modello riesce a identificare correttamente tutte le istanze positive. |
Recurrent Neural Network (RNN) | Tipo di rete neurale progettata per riconoscere sequenze di dati, come il testo o le serie temporali. |
Regularization (Regularizzazione) | Tecnica utilizzata per prevenire l'overfitting aggiungendo un termine di penalità alla funzione di costo del modello. |
Regression (Regressione) | Tecnica di machine learning utilizzata per prevedere valori continui. |
Reinforcement Learning | Tipo di apprendimento automatico in cui un agente apprende a compiere azioni in un ambiente per massimizzare una ricompensa cumulativa. |
ReLU (Rectified Linear Unit) | Funzione di attivazione ampiamente utilizzata nelle reti neurali che mappa i valori negativi a zero e lascia invariati i valori positivi. |
ROC Curve (Receiver Operating Characteristic) | Grafico utilizzato per valutare le prestazioni di un modello di classificazione, tracciando il tasso di veri positivi contro il tasso di falsi positivi. |
SGD (Stochastic Gradient Descent) | Variante del gradient descent che aggiorna i pesi del modello usando un singolo esempio alla volta. |
Softmax | Funzione di attivazione utilizzata nei modelli di classificazione multiclass, che trasforma i logit in probabilità. |
Support Vector Machine (SVM) | Algoritmo di machine learning utilizzato per problemi di classificazione e regressione. |
TensorFlow | Libreria open-source sviluppata da Google per il machine learning e il deep learning. |
Test Set (Set di test) | Sottoinsieme di dati utilizzato per valutare le prestazioni di un modello dopo l'addestramento. |
Tokenizzazione | Processo di suddivisione del testo in unità più piccole (token), come parole o frasi, per l'elaborazione del linguaggio naturale. |
Training Set (Set di addestramento) | Sottoinsieme di dati utilizzato per addestrare un modello. |
Transfer Learning (Apprendimento per trasferimento) | Vedi Apprendimento per trasferimento. |
Underfitting | Situazione in cui un modello è troppo semplice per catturare le caratteristiche principali dei dati, risultando in scarse prestazioni sia sui dati di addestramento che sui dati nuovi. |
Validation Set (Set di validazione) | Sottoinsieme di dati utilizzato durante l'addestramento del modello per ottimizzare i parametri del modello stesso. |
Vanishing Gradient Problem | Problema che si verifica durante l'addestramento di reti neurali profonde, in cui i gradienti diventano estremamente piccoli, rallentando l'aggiornamento dei pesi. |