- Dettagli


A partire dalla versione di Lotto I.A. 3.1.6, la rete neurale MLP(Multi Layer Perceptron) è stata deprecata per lasciare spazio alla NUOVA intelligenza artificiale basata su rete neurale LSTM (Long ShortTerm Memory). Il motore dell' Intelligenza Artificiale è stato interamente rinnovato e potenziato con nuovi algoritmi di calcolo che si applicano alla più moderna architettura basata su reti neurali LSTM.
Parte dei parametri che nelle precedenti versioni potevano essere configurati manualmente, sono stati integrati nel codice per auto-configurare l'intelligenza artificiale con le impostazioni più coerenti, rendendo l'applicazione più stabile e usabile anche dagli utenti meno esperti. Con la nuova versione, è stata ottimizzata l'usabilità dell' interfaccia e migliorata la veste grafica. L'accesso alle funzionalità avviene attraverso un pannello di controllo che può essere ridotto a icona e mantenuto in primo piano consentendo l'utilizzo simultaneo di più finestre contemporaneamente.
IMPOSTAZIONE DEI PARAMETRI I.A.
• Learning Rate (fattore di apprendimento): Il learning rate è stato reso dinamico e si imposta automaticamente in funzione degli input/target e del numero di esempi di addestramento che la rete neurale deve analizzare. E' possibile configurare manualmente il learning rate avendo cura di osservare dal grafico l'andamento dell'addestramento e la regressione dell' errore. Un valore di apprendimento troppo elevato, accelera l'addestramento ma può determinare dei risultati poco attendibili. Un learning rate troppo basso può rallentare notevolmente l'addestramento della rete neurale o non addestrarla affatto. Nel primo e nel secondo caso, l' output potrebbe restituire valori negativi e pertanto è indispensabile ripetere l'addestramento con un learning rate diverso.
ESEMPI Learning Rate:
N.ESEMPI 3-18 - 1 INPUT + 1 TARGET => 0.08 - 0.12
N.ESEMPI 3-18 - 2 INPUT + 2 TARGET => 0.04 - 0.08
N.ESEMPI 3-18 - 3 INPUT + 3 TARGET => 0.03 - 0.06
N.ESEMPI 3-18 - 4 INPUT + 4 TARGET => 0.03 - 0.05
N.ESEMPI 3-18 - 5 INPUT + 5 TARGET => 0.02 - 0.04
NB: Ogni 10 esempi in più, aggiungere 0.01 ai valori sopra menzionati entro un limite massimo compreso tra 0.5 e 0.6 (oltre è scarsamente utile)
• Max Epoch (numero di cicli di addestramento): Con l'inserimento della funzione "Ferma l'addestramento se trovi risultati migliori" (early stopping), questo parametro è diventato obsoleto. Si consiglia di lasciare le impostazioni automatiche. Un numero di cilcli elevato potrebbe causare l’ over-fitting e una conseguente scarsa attendibilità dei risultati. Viceversa, un valore troppo basso potrebbe causare uno scarso apprendimento della rete neurale.
• Max Error (Errore massimo): Impostando “Max error” , la rete neurale continuerà ad addestrarsi fino al raggiungimento dell’errore stabilito la dove sia possibile raggiungere un tale valore. Non sempre la regressione dell'errore può scendere alla soglia impostata manualmente. Solamente serie numeriche particolarmente convergenti e un numero di esempi limitato possono far scendere l'errore rapidamente ed entro soglie medio basse. Anche questo parametro è diventato obsoleto e irrilevante ai fini di ottenere previsioni efficienti.
• Neuroni H (numero di neuroni sullo strato nascosto): Se è impostato su "Auto", la rete neurale aggiungerà automaticamente i neuroni sullo strato nascosto. Nella stragrande maggioranza dei casi (per come l'intelligenza artificiale viene applicata ai numeri del Lotto), un aumento sconsiderato di questo valore restituisce i medesimi risultati con minime variazioni e un calo drastico della velocità di elaborazione degli esempi. L'innalzamento del numero di neuroni nascosti avrebbe senso nell'elaborazione di centinaia o addirittura migliaia di esempi. Trattandosi di numeri casuali, il numero di esempi da trattare deve essere nell'ordine delle decine (mediamente tra 6 e 50 esempi).
Modalità di training, altri parametri
• One to One: Carica le estrazioni in modo alternato, 1 input, 1 output. Risultati migliori con 3 esempi di training (6-7 estrazioni)
• Consecutive: 1 estrazione di input e 1 di output, l'output della precedente diventa l'input della successiva
• Ferma l'addestramento se trovi risultati migliori: Questa funzione consente all'intelligenza artificiale di arrestare l'addestramento nel momento in cui gli output restituiti dalla rete neurale diventano particolarmente convergenti rispetto agli esempi analizzati, evitando l'over-fitting o l'under-fitting.
• INPUT e TARGET: Rappresentano i singoli estratti delle ruote selezionate che vengono utilizzati per l'addestramento. Pertanto è possibile utilizzare numeri di Input e Target differenti per ottenere in Output ambate, ambi piuttosto che terni, quaterne o cinquine.
NB: Per prevedere estratti, ambi o terni, si consiglia di selezionare INPUT e TARGET incrociati (come indicato nell'immagine). Per esempio: volendo fare la previsione di un ambo, selezionare in INPUT il primo e il secondo e in TARGET il quarto e il quinto (oppure viceversa). Con questo metodo, l'intelligenza artificiale si addestra in modo particolarmente efficiente.
Il filtro Rimuovi sortiti nelle ultime... è stato concepito allo scopo di restringere la massa numerica e consentire costi di giocata iniziale più contenuti pur mantenendo invariato (per quanto possibile) l'aspetto previsionale. Attivando il filtro, vengono rimossi dalla previsione eventuali numeri già sortiti nelle "n" estrazioni precedenti.
E' importante fare dei test sulle estrazioni precedenti, simulare le previsioni con l'intelligenza artificiale sulle vecchie estrazioni e verificare sulle successive se i numeri sarebbero effettivamente sortiti. Così facendo, si avrà modo di capire meglio come e quando impostare i vari filtri.
• Lascia decidere all' I.A.: Si tratta dell'ormai noto meccanismo che configura automaticamente le impostazioni dei parametri nel modo più congeniale rispetto ad un numero di esempi prescelto.
Quanti esempi occorre selezionare per ottenere delle previsioni qualitative?
onsiderando che le probabilità di sortita per un numero su una ruota fissa sono di 1/18 (1 su 18 estrazioni), se i numeri non fossero casuali si avrebbe la chiusura del ciclo di 90 numeri in 18 estrazioni. 18 estrazioni corrispondono a 9 esempi (1 esempio= 1 estrazione di input + 1 estrazione di target). Ora...basandoci sulla teoria astratta, secondo la quale in determinati periodi i numeri tendono a ripetersi per breve tempo per poi rimescolarsi generando ciclicamente nuove sequenze numeriche fino al nuovo periodo sopra citato, il numero di esempi utile a determinare previsioni efficienti potrebbe essere compreso tra 9 e 18. Il consiglio è di fare delle simulazioni prendendo come riferimento esempi di estrazioni antecedenti le ultime tre estrazioni disponibili. In questo modo sarà possibile verificare l'esito previsionale sulle ultime 3 estrazioni (non considerate dall'addestramento). Se l'esito è positivo, si può utilizzare lo stesso numero di esempi (mantenendo gli stessi parametri) fino all'ultima estrazione utile e determinare così un pronostico che sarà valido entro 2-3 estrazioni successive.
Convergenza nelle ruote e punteggio (o classificazione)
In questa versione è stato introdotto un nuovo metodo di determinazione delle ruote più convergenti (o compatibili). Nell'immagine, le percentuali rappresentano la convergenza tra le sequenze numeriche di input e target. In pratica, vengono elaborati i numeri sortiti nelle estrazioni allo scopo di determinare quali ruote possiedono sequenze numeriche più convergenti che vengono contraddistinte con una "F" (Favorita). Viene anche indicato il coefficiente di varianza e la sua differenza per un'analisi più completa. "VAR IN" rappresenta le estrazioni precedenti e "VAR TG" quelle immediatamente successive. Pertanto, il simbolo "-" davanti a "VAR DIFF." indica che le estrazioni più datate hanno una varianza minore rispetto a quelle più recenti, ovvero il discostamento tra i numeri tende ad aumentare nelle estrazioni recenti. Se il segno è positivo, significa che l'estrazioni più recenti possiedono un discostamento numerico minore e per questo motivo potrebbero tendere a fornire risultati migliori.
NB: Prima di giocare, si consiglia sempre di effettuare alcune simulazioni per capire bene il meccanismo di elaborazione della rete neurale e soprattutto, capire come impostare i parametri in funzione dei vari modelli di addestramento.