- Adattamento
- 3.2.0.1
- Addestramento
- 2.2.2
| 2.3.3.1
- Back-propagation
- 2.2.2.3
- Batch size
- 4.3.0.4
- Bias
- 2.2.1
- Categorizzazione del parlatore
- 3.3.2
- Cepstrali, parametri
- 2.3.1
- Classificazione
- 2.3.2
- Cluster
- 3.3.2
- Confidence
- 8.2
- Contesto, blocchi
- 4.1
- Corrects
- 5.2
- Database inglese
- 4.4.1
- Database italiano
- 4.4.2
- Delections
- 5.2
- Discriminazione
- 2.3.2
- Epoche
- 4.3.0.3
- Errore quadratico medio
- 2.2.2.3
- Fabp tolerance
- 4.3.0.5
- Fonema
- 4.2
- Foneticamente bilanciate, frasi
- 8.1
- Forward-backward, algoritmo
- 2.3.2
- Frame
- 2.3.1
- Hidden Markov model
- 2.3.2
- HMM-NN
- 2.3.3
- Insertions
- 5.2
- J-LIN
- 5.1.2
- Learning rate
- 2.2.2.3
| 4.3.0.1
- LIN
- 5.1.1
- Modelli ibridi HMM-NN
- 2.3.3
- Momento
- 2.2.2.3
| 4.3.0.2
- Neurone artificiale
- 2.2.1
- Neurone biologico
- 2.1
- Non supervisionato
- 3.2.0.2
- Non supervisionato, addestramento
- 2.2.2.2
- Normalizzazione
- 3.2.0.1
- OLA
- 5.1.3
- Patterns
- 2.2.2
- Rete neurale
- 2.2.1
- Run-forward
- 2.2.2.3
- Segmentazione
- 2.3.3.1
- Sigmoide, funzione
- 2.2.1
- Softmax, funzione
- 2.2.1
- Stazionarie, Unità
- 4.2
- Supervised
- 3.2.0.2
- Supervised learning
- 2.2.2.1
- Supervisionato
- 3.2.0.2
- Supervisionato, addestramento
- 2.2.2.1
- Target
- 2.2.2.1
- Tecnica, learning rate variabile
- 8.1
- Training
- 2.2.2
| 2.3.3.1
- Transizionale, unià
- 4.2
- Transizionali, unità
- 4.2
- Trasformazione degli ingressi
- 3.3.1
- Trasformazione del modello
- 3.3.3
- Trifoni
- 4.2
- Ufabp tolerance
- 4.3.0.5
- Unsupervised
- 3.2.0.2
- Unsupervised learning
- 2.2.2.2
- Viterbi, algoritmo
- 2.3.2
- Word-accuracy
- 5.2
Stefano Scanzio
2007-10-16