Come fa una AI a comprendere quello che viene scritto? Come mai comprende anche parole scritte male? Le conversazioni dove vengono salvate e che livello di privacy esiste? Se esiste, dove risiede il database di tutte le conversazioni? Le AI generative di linguaggio si basano su un modello chiamato " large language model " (LLM), o modello linguistico di grandi dimensioni. Questi modelli utilizzano reti neurali artificiali ampie e complesse, addestrate su enormi quantità di testo. La questione è: in concreto come funzionano e come sono articolati i processi di comprensione e produzione di testi? Il processo può essere suddiviso in tre fasi principali: 1. Comprensione del testo : quando c’è un input testuale il modello lo analizza suddividendolo in mattoncini , che possono essere parole intere o parti di parole. Ogni mattoncino è chiamato token, il quale viene convertito in una rappresentazione numerica denominata embedding . Gli embedding catturano le sfumature semantiche