Tokenizzazione & Il Loop

Prima di calcolare, l'IA fa a pezzi le tue parole. E dopo aver calcolato, riusa le sue stesse risposte per continuare a pensare. Esploriamo queste due meccaniche fondamentali.

1. Il Tritacarne (Tokenizer)

L'Intelligenza Artificiale non sa leggere l'alfabeto. Come primo step, usa un "dizionario numerico" (Vocabulary) per tagliare il testo in sillabe frequenti chiamate Token. Digita una frase qui sotto per vedere come l'IA "fa a pezzi" le tue parole prima di inviarle al cervello centrale.

Sequenza di Token Generata:

2. Il Loop Probabilistico (Lead The Loop!)

Un LLM genera sempre e solo una parola alla volta basandosi sulla probabilità. Scegli tu quale parola far generare all'IA tra le 3 opzioni proposte, e osserva come questa scelta venga inserita nel "nastro" per influenzare il calcolo successivo.

Finestra di Contesto (Input)
La
bambina
mangia
la
MODELLO LLM
Scegli la prossima previsione:
💡 Il "Segreto" svelato: Prova a farle generare la parola "scarpa" (probabilità molto bassa). Nel ciclo successivo, il modello non ti suggerirà aggettivi legati al cibo, ma legati alla scarpa! Questa è l'essenza di Lead the Loop: se inserisci parole sbagliate all'inizio, l'IA avvelenerà da sola tutto il resto del ragionamento.