E` mai stato tentato?

Eh lo so, perdonami...lungi da me l'idea di essere scortese, ma un paio di cose le ho imparate anche io su questo forum...

Perdonami anche tu, ma forse erano il paio di cose sbagliate.
Se non condividiamo le informazioni che ci stiamo a fare sul forum?
Mi ricordi il signor Okuda:

When asked "How does the Heisenberg compensator work?" by Time magazine, Star Trek technical adviser Michael Okuda responded: "It works very well, thank you."

;)
 
Perdonami anche tu, ma forse erano il paio di cose sbagliate.
Se non condividiamo le informazioni che ci stiamo a fare sul forum?
Mi ricordi il signor Okuda:

When asked "How does the Heisenberg compensator work?" by Time magazine, Star Trek technical adviser Michael Okuda responded: "It works very well, thank you."

;)

hhahahahahahah :bow:

sì beh io non è che abbia proprio il warp drive in cantiere eh...
 
Ciao, EbenezerScrooge... ben tornato in queste lande desolate.

Lo stampo del tuo "ritorno" è perfetto per alimentare pagine e pagine di nulla, menomale che da non molto abbiamo la candida ingenuità di GiveMeLeverage che non ha problemi a porre certe domande :D

Ne faccio alcune anche io, vediamo quanto ci metto a cadere nel top secret (probabilmente molto poco):
  • "prevedi" prezzi (approccio, diciamo, "value") o variazioni di prezzi (quindi "timing");
  • al di là di quello che una o più delle reti neurali che hai scritto di usare imparano sul passato, esistono relazioni imposte dall'esterno nel tuo modello? O è tutto frutto di apprendimento supervisionato? Per spiegare con un esempio: supponiamo che, tra le tante, una variabile essenziale nel tuo modello sia x... esistono delle x imposte da te come risultato di qualche espressione in forma chiusa o è tutto in mano alla rete?
 
Ciao, EbenezerScrooge... ben tornato in queste lande desolate.

Lo stampo del tuo "ritorno" è perfetto per alimentare pagine e pagine di nulla, menomale che da non molto abbiamo la candida ingenuità di GiveMeLeverage che non ha problemi a porre certe domande :D

Ne faccio alcune anche io, vediamo quanto ci metto a cadere nel top secret (probabilmente molto poco):
  • "prevedi" prezzi (approccio, diciamo, "value") o variazioni di prezzi (quindi "timing");
  • al di là di quello che una o più delle reti neurali che hai scritto di usare imparano sul passato, esistono relazioni imposte dall'esterno nel tuo modello? O è tutto frutto di apprendimento supervisionato? Per spiegare con un esempio: supponiamo che, tra le tante, una variabile essenziale nel tuo modello sia x... esistono delle x imposte da te come risultato di qualche espressione in forma chiusa o è tutto in mano alla rete?

Cren!
Ciao caro. Dunque sì sono d'accordo che l'approccio è pessimo; però ricordiamo anche quali furono le risposte che ricevetti io quando posi domande come le tue (o come quelle di GiveMeLeverage) ai guru del machine learning qui...(PGiulia). Io ero partito con l'idea tipo siamo tutti una grande famiglia, vogliamoci bene, condividiamo il più possibile...La realtà con cui mi sono scontrato invece era fatta di interessi personali, gelosie e quant'altro... Ernesto è stato convinto per mesi che io fossi uno dei "cloni" in cerca di pubblicità e denaro... Insomma io non sto difendendo segreti industriali qui è più semplicemente un fatto di disposizione mentale nei confronti del forum che da "siamo una grande famiglia" è diventata "condividiamo ma fino a un certo punto". A tale proposito, venendo alle tue domande (sei lontanissimo dal top secret):

1. Le due previsioni tecnicamente sono equivalenti perché dall'una si ricava l'altra a partire dai dati passati. Però in effetti se intendi quale sia l'output del modello allora la questione cambia.
L'output dei miei modelli sono per lo più le variazioni.
La ragione di questo è che c'è ampio riscontro in tutti gli articoli che ho letto sul fatto che le reti neurali in quest'ambito funzionino meglio quando provano a prevedere le variazioni rispetto ai prezzi. In parte perché così il processo è stazionario in parte per qualche alchimia strana che vai a sapere. Comunque "prevedo" entrambe le cose a seconda del particolare modello o esperimento, con una predilezione marcata verso le variazioni.

2. Avevo pensato a introdurre una componente deterministica nella dinamica dei modelli, soprattutto circa gli input cui si riferiva GiveMeLeverage. Però ad oggi non ho implementato nulla di simile, se non altro perché non saprei farlo. Io sono ancora fermo a "c'è una serie di numeri, devi indovinare il successivo" e di finanza ne so pochino...
Quindi al momento è tutto frutto dell'apprendimento supervisionato.
Se e quando avrò mai un economista a collaborare con me le cose si faranno più divertenti e interessanti, si potranno testare approcci di questo tipo e sperimentare input sempre più esotici.

ps: è un gran piacere rileggerti.
 
Ciao, da ingegnere e curioso di econometria e di tutto e più :) ,
a distanza di anni le reti neurali o comunque modelli data-driven vi hanno portato a risultati tangibili?
Quanto tempo serve mediamente per un addestramento?

Un caro saluto!
 
Quanto tempo serve mediamente per un addestramento?
Ovviamente dipende dalla configurazione della rete.

Se si applica prima una PCA in ingresso e si usa un solo layer nascosto, anche pochi secondi.
 
Ovviamente dipende dalla configurazione della rete.

Se si applica prima una PCA in ingresso e si usa un solo layer nascosto, anche pochi secondi.

A me piacerebbe capire, fuori d'ogni polemica, cos'è che spinge a cercare di prevedere l'uscita di una black box che per mantenere la propria efficienza deve essere per definizione imprevedibile (altrimenti non darebbe/toglierebbe alcun rendimento, cioè il flusso di rendimenti si interromperebbe). E per questo l'efficienza (e l'imprevedibilità) deve restare, sempre, indipendentemente se si sfidino persone o SWs, perché la certezza come tutti sanno vale zero (viola anche il concetto di imprenditore).

Sarebbe più interessante avere un SW che identifica le inefficienze (arbitraggi se sai dove guardare), ma se è tutto in mano a 1,000,000 di computer, anche non AI, che fanno trading in automatico, le inefficienze si riducono in ampiezza e durata (credo) fino al punto che, anche una volta individuate, per sfruttarle servirebbe il milionesimoeuno computer che seguisse l'altro milione e alla fine quel milione si riorganizzerebbe per togliere le inefficienze.

Mi sembra un cane che si morde la coda e l'unico profitto che può trarne (al netto delle spese mediche) è se qualcuno lo paga per mordersela.
 
...una black box che per mantenere la propria efficienza deve essere per definizione imprevedibile (altrimenti non darebbe/toglierebbe alcun rendimento, cioè il flusso di rendimenti si interromperebbe)...
Non ho capito.
 
Non ho capito.

Nessuno scommette su qualcosa di cui si può prevedere il risultato. Si scommette sull'incertezza, anche sulla parte di incertezza di sistemi deterministici (più del mercato), come le previsioni del tempo (almeno sul breve). Quindi senza imprevedibilità il mercato non esiste (si blocca il flusso di soldi).
 
Ultima modifica:
Nessuno scommette su qualcosa di cui si può prevedere il risultato. Si scommette sull'incertezza, anche sulla parte di incertezza di sistemi deterministici (più del mercato), come le previsioni del tempo (almeno sul breve). Quindi senza imprevedibilità il mercato non esiste (si blocca il flusso di soldi).
Ok, ma non ho capito cosa a che vedere questo con la configurazione della rete.

Quando addestri una rete, punti al fatto che questa riesca a cogliere delle relazioni nei dati sulla base dell'"esperienza" che le dai in pasto.

Dopodiché nel futuro può sbagliare tanto e quanto te.

Da questo punto di vista è ovvio che se esistesse la rete neurale perfetta in poco tempo il mercato sarebbe morto, ma nella realtà il mercato è tenuto in piedi anche da tutti gli errori e le imperfezioni del machine learning oltre che della mente umana.
 
Ok, ma non ho capito cosa a che vedere questo con la configurazione della rete.

Quando addestri una rete, punti al fatto che questa riesca a cogliere delle relazioni nei dati sulla base dell'"esperienza" che le dai in pasto.

Dopodiché nel futuro può sbagliare tanto e quanto te.

Da questo punto di vista è ovvio che se esistesse la rete neurale perfetta in poco tempo il mercato sarebbe morto, ma nella realtà il mercato è tenuto in piedi anche da tutti gli errori e le imperfezioni del machine learning oltre che della mente umana.

Ok, quindi, ritornando al mio discorso di sopra, lo studio di una serie storica del mercato tizio (la black box), che devo supporre efficiente nella stragrande maggioranza dei casi (altrimenti sarebbe troppo facile trovare arbitraggi e sarebbe nuovamente "chiuso"), ha senso soltanto per la caccia all'errore/inefficienza che si sia ripetuto, poi addestrando un SW a negoziare scommettendo che si ripeta. E' un po' come cercare la componente deterministica in un segnale random che, data la quantità di asset nella black box (dei segnali random), sembrerebbe cercare un ago in un pagliaio (e ritorno al cane che si morde la coda).
 
Indietro