Impostazione dei parametri

Dalla versione 3.0.6, è stata introdotta la funzionalità "Early stopping", ovvero, l'addestramento della rete neurale e dell' intelligenza artificiale si interrompe automaticamente al raggiungimento di risultati consistenti. E' sufficiente premere il bottone "Lascia decidere all' I.A." e il programma farà automaticamente la ricerca delle estrazioni più convergenti, selezionando automaticamente le ruote di riferimento sulle quali l'intelligenza artificiale effettuerà l'addestramento. L'utente potrà anche decidere in autonomia i parametri della rete neurale, le date e le ruote. Ricordate sempre di attivare la funzione: "Ferma l'addestramento se trovi risultati migliori", in modo che la rete neurale bloccherà l'addestramento al conseguimento di risultati particolarmente favorevoli e convergenti.

ATTENZIONE: La configurazione personalizzata dei parametri della rete neurale richiede un po' di esperienza. Se siete alle prime armi (anche se non lo siete), il consiglio è quello di utilizzare sempre la funzionalità "Lascia decidere all' I.A.".

Configurazione della rete neurale LST e MLPLearning Rate (fattore di apprendimento): Da 0,03 a 0,5. I risultati migliori si sono ottenuti con valori tra 0,03 e 0,15
Treshold: Soglia di tolleranza percentuale tra Input e Target. La rete neurale attiva il classificatore se il margine di errore per tutti i neuroni di Input/Target sul singolo trainingset, raggiungono questa soglia.
ES: 10 esempi di addestramento e 10 target con treshold impostato al 5%. Se il classificatore restituisce "Classified"=3 , signifiga che in 3 esempi su 10, l'addestramento è ottimale nella soglia treshold (default: 5%)


Max Epoch (numero di cicli di apprendimento [trainingset]): Un numero troppo elevato potrebbe causare l’ over-fitting e una conseguente scarsa attendibilità dei risultati. Viceversa, un valore troppo basso potrebbe causare uno scarso apprendimento della rete neurale. Il consiglio è di impostarlo a -1 (cicli infiniti) e impostare l’errore su una percentuale entro al 5%. Se invece si vuole limitare il numero dei cicli di training, si consiglia di usare valori tra i 2mila e i 3mila cicli.
NB: Osservare sempre l'andamento del grafico durante l'addestramento.
Max Error (Errore massimo): Impostando “Max epoch” a -1, la rete neurale continuerà ad apprendere fino al raggiungimento dell’errore stabilito. L’errore scende più velocemente quando la rete neurale trova delle affinità maggiori negli esempi (estrazioni precedenti rispetto le successive). Più il gradiente dell’errore scende velocemente e maggiori sono le possibilità che la rete neurale azzecchi qualche numero. Se la discesa del gradiente rallenta in modo drastico, riprovate o cambiate parametri, ruote, estrazioni, date, modalità di training.
NB: In presenza di serie di dati NON convergenti, l'errore potrebbe non scendere entro la soglia MAX ERROR.

Min class (classificazione minima): E’ possibile che la rete neurale riscontri notevoli convergenze nelle estrazioni di esempio tra Input e Target, contrassegnandole come “Probabili”. Trattandosi di numeri casuali, questi valori sono solo rappresentativi e vanno parzialmente considerati in concomitanza di un errore che sia il più limitato possibile. Impostando “Class min” >-1, la rete neurale interromperà il processo di elaborazione, bypassando il parametro “MAX ERR” al raggiungimento del valore impostato.

Neuroni H (numero di neuroni sullo strato nascosto): Se è impostato su "Auto", la rete neurale aggiungerà automaticamente i neuroni sullo strato nascosto. Non sempre un numero di neuroni elevato sullo strato nascosto, restituisce valori coerenti. Tratterò meglio l'argomento nei prossimi articoli (Overfitting e Underfitting)
Decimali (numero di decimali dei valori nelle funzioni di attivazione dei neuroni): In alcuni casi riducendo il numero dei decimali, è più facile per la rete generalizzare e raggiungere un risultato utile più rapidamente
St.Sigmoid, Double Sigmoid e TanH (funzioni di attivazione dei neuroni):  Rappresentano le funzioni di attivazione delle connessioni neurali. Si può scegliere la funzione Standard Sigmoide, la doppia funzione di sigmoide o l’ arcotangente. Nel primo caso (St.Sigmoid) l’apprendimento della rete nella fase di training manterrà una discesa del gradiente di errore molto lineare. La funzione "Double Sigmoid" è poco diffusa, ma consente l'organizzazione più ordinata dei neuroni anche in presenza di serie di dati poco convergenti. Mentre scegliendo TanH, l’apprendimento sarà notevolmente più veloce. Con TanH, occorre mantenere un learning rate estremamente basso (da 0.001 a 0.05). Se il learning rate è troppo elevato, il rischio è che i valori di output potrebbero perdere di accuratezza.
Modalità  Test:  Selezionando questa modalità, è possibile escludere alcuni esempi di training (esempi di test) per fare in modo che la rete neurale si addestri con gli esempi rimanenti e avere così un termine di paragone tra l'addestramento delle rete per gli esempi immessi (effettivamente calcolati dalla rete) con gli esempi di test (non presi in considerazione dalla rete).

 

Impostazioni di input e target per l'addestramento della rete neuraleModalità di training


One to One: Carica le estrazioni in modo alternato, 1 input, 1 output. Risultati migliori con 3 esempi di training (6-7 estrazioni)
Consecutive: 1 estrazione di input e 1 di output, l'output della precedente diventa l'input della successiva
Ferma l'addestramento se trovi risultati migliori: Questa funzione consente all'intelligenza artificiale di arrestare l'addestramento nel momento in cui gli output restituiti dalla rete neurale diventano particolarmente convergenti rispetto agli esempi analizzati, evitando l'over-fitting o l'under-fitting.



 

Definizione numero di Input/Target

Determina il numero di neuroni in input e in output INPUT e TARGET: Rappresentano i singoli estratti delle ruote selezionate che vengono utilizzati per l'addestramento. Pertanto è possibile utilizzare numeri di Input e Target differenti per ottenere in Output ambate, ambi piuttosto che terni, quaterne o cinquine.

 

 

 

 


La previsione

 

Parametri di configurazione della rete neurale e dell'intelligenza artificiale

Il filtro di inclusione/esclusione delle ruote è stato concepito allo scopo di restringere le ruote e i numeri della previsione in un cerchio più ristretto e consentire di limitare i costi di giocata iniziale pur mantenendo invariato (per quanto possibile) l'aspetto previsionale.

Il filtro è configurabile dall'utente a sua discrezione, in modo flessibile. Un filtro troppo selettivo potrebbe mancare l'obbiettivo. E' importante fare dei test sulle estrazioni precedenti, simulare le previsioni con l'intelligenza artificiale sulle vecchie estrazioni e verificare sulle successive se i numeri sarebbero effettivamente sortiti. Così facendo, si avrà modo di capire meglio come e quando impostare i vari filtri.

Con l'avvento delle ultime versioni, è stata introdotta una seconda intelligenza artificiale che si basa su una rete neurale LSTM (Long Short Memory Term), molto utilizzata a livello professionale per la previsione dei mercati azionari.



NB: Prima di giocare, si consiglia sempre di effettuare alcune simulazioni per capire bene il meccanismo di elaborazione della rete neurale e soprattutto, capire come impostare i parametri in funzione dei vari modelli di addestramento.

 


 

Sostieni lo sviluppo di Lotto I.A. , basta una piccola donazione.
Grazie.