Sono stati effettuati diversi esperimenti, al fine di coprire nel modo più ampio possibile tutte le possibili applicazioni della teoria.
Gli esperimenti stati effettuati prima sul database italiano DB-Micro, al fine di valutare le prestazioni della tecnica al variare del numero di frasi di addestramento del modello SD. Nell'ambito del database italiano sono state anche messe a confronto le strategie di interpolazione di tutta la rete, di interpolazione del solo livello LIN e di interpolazione del livello J-LIN. Infine sono stati effettuati esperimenti sul database inglese TIMIT, al fine di validare la teoria su un'altra base di dati e di verificarne i risultati ottenuti in un'applicazione molto critica in cui sono presenti pochissime frasi di addestramento per ogni parlatore.
Si riportano a questo punto i parametri di configurazione utilizzati per l'addestramento che sono rimasti invariati nel corso di tutti gli esperimenti.
Per quanto riguarda l'addestramento di tutta la rete sono stati utilizzati:
- learning rate: 0.0002 per gli archi e 0.00002 per i bias
- batchsize: 10
- fabp tollerance: 0.5
- ufabp tollerance: 0.6
Per LIN e J-LIN, invece, si sono utilizzati gli stessi parametri, ad eccezione del learning rate, che per le connessioni vale 0.00002, mentre per i bias vale 0.000002.
Subsections
Stefano Scanzio
2007-10-16