... calcolo combinatorio?

Ipotizzando di avere questi dati:
dato1: range(0, 500+1, 25)
dato2: range(0, 25+1, 3)
dato3: range(0, 20+1, 2)

ora, se dovessimo farli VERAMENTE TUTTI, sarebbero 500*25*20=250000 combinazioni.
Direi decisamente troppo, con lo step: (500/25)*(25/3)*(20/2)= 1666.6 combinazioni (qualcuna in meno)

Ora la domanda è: ma quanto conviene farla omogenea invece di farla casuale (buttare un random a dato1, dato2, dato3 e aggiungerlo al sample data X volte)? O quanto meno, quanto grande deve essere il numero del sample data per permettere che una funzione randomica sia più profittevole di una distribuita?
Sempre in ottica del fatto che io vorrei fare il numero di casistiche minori e che vorrei tenermi intorno al range di 1500-10000 valori per sample data e che invece i neuroni di input mi sembra siano circa 30-60 e hanno valori da 0 a 100 di cui uno da 0 a 500.

Altra domanda: quanto è lo step fra un valore e un altro per permettere che i dati siano ben distribuiti?
Immagino che sia piuttosto empirico, quindi esponetemi la vostra esperienza per favore
« Ultima modifica: Maggio 02, 2018, 11:52 da tommyb1992 »