Machine Learning: la mia esperienza

amartya78

Nuovo Utente
Registrato
15/9/08
Messaggi
9.637
Punti reazioni
644
Io trovo più interessante che uno dei filoni dell'arbitraggio statistico faccia ancora affidamento su modelli di mezzo secolo fa e che la principale innovazione sia in termini di potenza computazionale, adesso passata al calcolo quantistico per poter lavorare su un numero maggiori di sottostanti in contemporanea.

Per non parlare dei costi di transazione.

Sono scettico che l'HFT si possa sposare con la Statistical Arbitrage in quanto moltissime transazioni in pochissimo tempo conducono a spread inevitabilmente piccoli e quasi sempre maggiori dei costi di transazione. Più probabile una time frame di giorni dove lo spread tra due prezzi può essere sensibilmente maggiore.
 

fricchettone

Nuovo Utente
Registrato
26/2/21
Messaggi
259
Punti reazioni
10
Per non parlare dei costi di transazione.

Sono scettico che l'HFT si possa sposare con la Statistical Arbitrage in quanto moltissime transazioni in pochissimo tempo conducono a spread inevitabilmente piccoli e quasi sempre maggiori dei costi di transazione. Più probabile una time frame di giorni dove lo spread tra due prezzi può essere sensibilmente maggiore.

Loro non hanno costi ma vengono pagati in quanto usano order limit.
Una piccola parte la mangiano deutsche bank(broker) e nomura(società di collegamento ai vari exchange)

Io ho fatto una prova l'anno scorso. prendete molte coppie simili e guardate la differenza giornaliera in media e di quanto si allargano gli spread. Molte volte questi spread il giorno dopo in apertura di mercato si vanno a chiudere in un guadagno consideravole. Ma anche nel corso della stessa giornata si allargano e si stringono. Alcuni titoli va considerato un 0,02% su altri 0,05 altri ancora 0,10/0,20%. Per cui loro si piazzano con size studiate con modelli apposta order limit su vari step e una volta eseguiti modificano gli order limit sugli altri titoli fino a quando chiudono in guadagno e fanno questo migliaia di volte al giorno.

Quando gli spread si allargano troppo o vanno overnight chiudono o si comprono con le opzioni. Per cui hanno tante piccole vincite e poche non grosse ma "consideravoli" perdite.
Questo con l'arbitraggio statistico a bassa frequenza non è possibile e si arriva sempre al giorno del fallimento. Per via delle grosse size concentrate su poche posizioni.

Bene o male rentech è sempre neutrale al mercato. Ma penso che in futuro guadagneranno di meno in quanto c'è più concorrenza anche se sono poche le società che fanno questo
e per via del miglioramento delle esecuzioni perchè adesso le esecuzioni si vanno a concentrare nelle pool di esecuzioni e non trovi più il bocconiano che sposta 50 milioni su un
titolo facendo click per una quarantina di volte.

D'altronde questi spread si vanno a formare quasi sempre per pressioni in esecuzione e rumore. Ovvio che se esce una notizia nella giornata su un titolo che la fa volare o cadere non troverai più queste società a fornire liquidità.

Per quanto riguarda al livello di potenza computazionale rimango dell'idea che sono balle. Per me rentech può gestire tutte le sue strategie con 2 cpu xeon di media potenza.

Per fare un esempio "tradebot" società di uno del kansas partito con 10 mila dollari nel dormitorio dell'università è arrivato a guadagnare più di 1 miliardo di dollari, diceva
che aveva hadoop con svariati petabyte di dati e potenze comparabili a migliaia di pc messi insieme. Erano tutte balle in quando l'anno scorso per l'esodo di alcuni dipendenti
si è scoperto cosa facevano. Praticamente lavoravano nell'arbitraggio di latenza ed erano specializzati nelle darkpool. Nell'arbitraggio di latenza sono sufficienti server ad hoc
e collegamenti superveloci tra i vari exchange.

Non dilettatevi nell'arbitraggio statistico perchè ci vogliono almeno $50-200M per atturare la strategia e spalmare bene i rischi.
 

amartya78

Nuovo Utente
Registrato
15/9/08
Messaggi
9.637
Punti reazioni
644
Loro non hanno costi ma vengono pagati in quanto usano order limit.
Una piccola parte la mangiano deutsche bank(broker) e nomura(società di collegamento ai vari exchange)

Io ho fatto una prova l'anno scorso. prendete molte coppie simili e guardate la differenza giornaliera in media e di quanto si allargano gli spread. Molte volte questi spread il giorno dopo in apertura di mercato si vanno a chiudere in un guadagno consideravole. Ma anche nel corso della stessa giornata si allargano e si stringono. Alcuni titoli va considerato un 0,02% su altri 0,05 altri ancora 0,10/0,20%. Per cui loro si piazzano con size studiate con modelli apposta order limit su vari step e una volta eseguiti modificano gli order limit sugli altri titoli fino a quando chiudono in guadagno e fanno questo migliaia di volte al giorno.

Quando gli spread si allargano troppo o vanno overnight chiudono o si comprono con le opzioni. Per cui hanno tante piccole vincite e poche non grosse ma "consideravoli" perdite.
Questo con l'arbitraggio statistico a bassa frequenza non è possibile e si arriva sempre al giorno del fallimento. Per via delle grosse size concentrate su poche posizioni.

Bene o male rentech è sempre neutrale al mercato. Ma penso che in futuro guadagneranno di meno in quanto c'è più concorrenza anche se sono poche le società che fanno questo
e per via del miglioramento delle esecuzioni perchè adesso le esecuzioni si vanno a concentrare nelle pool di esecuzioni e non trovi più il bocconiano che sposta 50 milioni su un
titolo facendo click per una quarantina di volte.

D'altronde questi spread si vanno a formare quasi sempre per pressioni in esecuzione e rumore. Ovvio che se esce una notizia nella giornata su un titolo che la fa volare o cadere non troverai più queste società a fornire liquidità.

Per quanto riguarda al livello di potenza computazionale rimango dell'idea che sono balle. Per me rentech può gestire tutte le sue strategie con 2 cpu xeon di media potenza.

Per fare un esempio "tradebot" società di uno del kansas partito con 10 mila dollari nel dormitorio dell'università è arrivato a guadagnare più di 1 miliardo di dollari, diceva
che aveva hadoop con svariati petabyte di dati e potenze comparabili a migliaia di pc messi insieme. Erano tutte balle in quando l'anno scorso per l'esodo di alcuni dipendenti
si è scoperto cosa facevano. Praticamente lavoravano nell'arbitraggio di latenza ed erano specializzati nelle darkpool. Nell'arbitraggio di latenza sono sufficienti server ad hoc
e collegamenti superveloci tra i vari exchange.

Non dilettatevi nell'arbitraggio statistico perchè ci vogliono almeno $50-200M per atturare la strategia e spalmare bene i rischi.

Interessante la tua analisi.

Diciamo che l'arbitraggio statistico è un approccio macro poi le strategie con cui perseguirlo possono essere molteplici. Chiaramente quelle che si basano sugli spread tendono ad essere poco o nulla performanti.

Sono molto concentrato a ridurre i costi di transazione che si mangiano una parte importante dei guadagni. Il punto è che se uso l'order limit posso ridurre anche del 50% le puntate e quindi non allocare tutte le puntate e quindi poi o aumento la size della singola puntata ovvero non alloco tutto il capitale destinato, se invece vado at the market piazzo tutto ma subisco le perdite dei costi di transazione.

E' vero anche che oggi gli spread sono scesi sensibilmente anche solo fino a pochi anni fa.

Altra info che può essere utile è che è accertato che gli spread bid-ask sul mercato americano hanno andamento discendente durante le contrattazioni. Sono molto alti durante l'apertura dove si ha un punto di massimo e si riducono durante l'orario di mercato sino a toccare il punto di minimo al close time.

Questo comporta che se si chiude la posizione all'apertura la % di guadagno sarà sensibilmente inferiore rispetto a quella che si realizzerebbe tenendo in considerazione il prezzo corrente, mentre alla chiusura il market, bid e ask price sono sensibilmente più allineati.
 

Federico Juvara

Nuovo Utente
Registrato
16/1/21
Messaggi
60
Punti reazioni
3
Avevano ragione Cren e Imar, ovviamente.
Lo dico dopo aver riletto tutto e aver capito anche la mia inesperienza, in pochi mesi cambiando radicalmente approccio ho capito molte cose.
Capito eh, solo quello. Il santo graal ancora non l'ho trovato e un sistema che macini i soldi di Soros non ce l'ho.
Ma avete sempre avuto ragione voi, un po' tutti. Ponevo domande sbagliatissime e quando ti poni le domande sbagliate vizi tutto il resto.
Provo a farne un'altra, per pura speculazione filosofica: posto che il 90% del ML sia la scelta delle features, genericamente la pillola rossa sta nel capire le anomalie da cercare e di conseguenza infilare nel dataframe features inerenti quelle anomalie oppure usare tutte quelle che si credono siano strong catalyst dell'asset di riferimento?
In parole povere cerco una anomalia frullando tutti i dati che possano spiegarla o frullo tutti i dati che si pensa muovano genericamente quell'asset?
La domanda da porsi è cosa lo muove o che pattern cerco?
Ad ogni modo vi ringrazio (soprattutto Price Action per il cuore d'oro) per avermi fatto capire una cosa essenziale: inutile sparare col bulldozer del ML quando risultati simili se non migliori li ottieni col cervello in azione e l'occhio per cercare l'essenziale negli anfratti giusti. 50.000 righe di codice quando poi potenzialmente i soldi concreti li puoi fare (si non proprio con questo ma è un esempio dai) sul solito breakout, su un assorbimento o su un gap in apertura di una azienda con 3/4 fondamentali allineati. Bastano la tastiera e lo schermo che ovviamente sono meno virili di un bot coi numeretti alla Matrix
 
Ultima modifica:

Cren

Nuovo Utente
Registrato
6/10/09
Messaggi
10.600
Punti reazioni
615
Il punto principale è che il ML a cui fai riferimento in qualsiasi ambito lo si usi è un modo per far fare a una macchina ciò che già faceva prima un essere umano esperto. Tutto qua.

Siccome non siamo in grado di programmare l'esperienza, usiamo dei modelli matematici per mapparla dai dati alle macchine e agli algoritmi.

Questo presuppone un elemento fondamentale che c'è in qualsiasi settore meno che nel trading: qualcuno che sappia cosa fare e da cui sia possibile copiare. Qui servirebbe il ML: regressioni, classificazioni, tabelle di policy ottimali, analisi del linguaggio, computer vision... Tutto presuppone che ci sia un essere umano che è stato capace di imparare cosa fare e come farlo per creare valore, che tu puoi osservare e da cui la macchina impara.

Il problema nel nostro ambito è che quelle persone semplicemente non esistono: se ci fosse qualcuno che ti spiega come fare soldi sui mercati, il paradosso è che nemmeno ti servirebbe il ML.

Ovvero: quando capisci quali dati guardare, come e in che contesto, non hai nemmeno più bisogno di una rete neurale profonda: bastano poche regolette del pollice.

Per rispondere alla tua domanda: non cerchi anomalie frullando a caso, perché quello è il modo migliore per avere illusioni ottiche facendo modellare alla macchina solo rumore.

Viceversa, formuli una teoria che stia in piedi perché i mercati sono fatti da un esercito di squilibrati, frizioni e vincoli esogeni; poi raccogli i dati e cerchi di capire se ci hai visto giusto; solo a quel punto - se senti il bisogno di fare qualche passaggio analitico in tempi non praticabili per l'essere umano - ti rivolgi all'algoritmo di ML.

Alla fine sono ripetitivo ma il tutto si riduce sempre a intuire (o ipotizzare) alle spalle di chi stai facendo soldi e perché.

Quando ti lanci a provare un algoritmo senza avere abbozzato una risposta a questa domanda stai già sicuramente sbagliando approccio.
 
Ultima modifica:

amartya78

Nuovo Utente
Registrato
15/9/08
Messaggi
9.637
Punti reazioni
644
Per rispondere alla tua domanda: non cerchi anomalie frullando a caso, perché quello è il modo migliore per avere illusioni ottiche facendo modellare alla macchina solo rumore.

Viceversa, formuli una teoria che stia in piedi perché i mercati sono fatti da un esercito di squilibrati, frizioni e vincoli esogeni; poi raccogli i dati e cerchi di capire se sta ci hai visto giusto; solo a quel punto - se senti il bisogno di fare qualche passaggio analitico in tempi non praticabili per l'essere umano - ti rivolgi all'algoritmo di ML.

Alla fine sono ripetitivo ma il tutto si riduce sempre a intuire (o ipotizzare) alle spalle di chi stai facendo soldi e perché.

Quando ti lanci a provare un algoritmo senza avere abbozzato una risposta a questa domanda stai già sicuramente sbagliando approccio.

L approccio qui sopra descritto è il mio approccio. Prima si formula una teoria la si prova a parametri costanti, la si può provare facendo variare i parametri seguendo le regole ferree per non incorrere nell Overfitting

Ma quello che ritengo sia più importante è di non concentrarsi solo sul momentum entrata ed uscita ma anche sull asset management ed il rischio.

Un modello quantitativo efficace non è altro che L Unione sincronizzata di svariati algoritmi che si occupano cooperando di tutte le fasi in cui ogni singolo dollaro viene movimentato a cui il ML può (o non può) essere applicato.

Se uno inizia a ragionare così globalmente i 50.000 linee di codice le brucia velocemente.
 
  • Like
Reazioni: Mei

Federico Juvara

Nuovo Utente
Registrato
16/1/21
Messaggi
60
Punti reazioni
3
Il punto principale è che il ML a cui fai riferimento in qualsiasi ambito lo si usi è un modo per far fare a una macchina ciò che già faceva prima un essere umano esperto. Tutto qua.

Siccome non siamo in grado di programmare l'esperienza, usiamo dei modelli matematici per mapparla dai dati alle macchine e agli algoritmi.

Questo presuppone un elemento fondamentale che c'è in qualsiasi settore meno che nel trading: qualcuno che sappia cosa fare e da cui sia possibile copiare. Qui servirebbe il ML: regressioni, classificazioni, tabelle di policy ottimali, analisi del linguaggio, computer vision... Tutto presuppone che ci sia un essere umano che è stato capace di imparare cosa fare e come farlo per creare valore, che tu puoi osservare e da cui la macchina impara.

Il problema nel nostro ambito è che quelle persone semplicemente non esistono: se ci fosse qualcuno che ti spiega come fare soldi sui mercati, il paradosso è che nemmeno ti servirebbe il ML.

Ovvero: quando capisci quali dati guardare, come e in che contesto, non hai nemmeno più bisogno di una rete neurale profonda: bastano poche regolette del pollice.

Per rispondere alla tua domanda: non cerchi anomalie frullando a caso, perché quello è il modo migliore per avere illusioni ottiche facendo modellare alla macchina solo rumore.

Viceversa, formuli una teoria che stia in piedi perché i mercati sono fatti da un esercito di squilibrati, frizioni e vincoli esogeni; poi raccogli i dati e cerchi di capire se ci hai visto giusto; solo a quel punto - se senti il bisogno di fare qualche passaggio analitico in tempi non praticabili per l'essere umano - ti rivolgi all'algoritmo di ML.

Alla fine sono ripetitivo ma il tutto si riduce sempre a intuire (o ipotizzare) alle spalle di chi stai facendo soldi e perché.

Quando ti lanci a provare un algoritmo senza avere abbozzato una risposta a questa domanda stai già sicuramente sbagliando approccio.
Ciao Cren, grazie della risposta.
Logicamente con "frullare" intendevo semplicemente dare in pasto al modello di ML i dati scelti per farli processare, non infilare cose a caso.
E' pur vero che l'approccio forse più comune e pregiudiziale al ML, che poi lo ammetto è sempre stato anche il mio, sia quello di usarlo come scatola delle soluzioni.
Nel senso di fargli fare quello che io non riuscirei a fare, cercare e trovare risposte nella mole dei dati improcessabili per l'occhio umano. Gli dai dati e lui ci trova qualcosa, non si sa cosa ma ti fidi. E' la famosa black box.
Eppure il controsenso di questo dovrebbe essere ovvio ma non lo è. Se basta "frullare" e prendersi i frutti lo fanno tutti, aspettano e si ritrovano la soluzione.
Viceversa sapere dove e cosa cercare e farsi aiutare nella ricerca presuppone logica, competenza e comprensione dei mercati. Va da sè che, come dici te, a quel punto basti te col tasto del mouse e il turbo mega learning diventa un cannone in una vetreria.
Solo che rimangono comunque punti oscuri, soprattutto nell'approccio di Amartya che viaggia su altri livelli di competenze matematiche che non posso sfruttare.
Esempio: sono convinto che ci sia una anomalia ciclica il lunedi pomeriggio alla chiusura del Nasdaq, l'ho notata e voglio quantificarla verificando la consistenza e il potenziale.
Uso un modello statistico (non so, cerco distribuzioni o calcolo volatilità con test vari ecc.)? Formulo, come fa Amartya con un approccio da teorico, un modello del tutto nuovo sulla lavagna piena di formule? Rimedio features attinenti a quel problema (che so dati giornalieri detemporalizzati, volatilità in chiusura ecc.) e li uso come carburante di una rete neurale che poi macina e trova pattern significativi senza dirmi perchè?
Ma allora se quell'inefficienza l'avevo notata non serve nemmeno la statistica, nemmeno uno z-score calcolato al volo su Python, mi faccio qualche settimana di trading discrezionale per testarlo e vedo se vado in profitto
Da quello che ho visto comunque, anche parlando con trader quant esteri, l'approccio più potente (per un retail) come risultati e potenziale oltre ad essere la cameriera di Draghi o seguire le mani forti sui volumi mi dicono sia il reinforcement learning con algoritmi genetici o neuroevoluzione, abbinato a dati tick o ancora meglio sull'order book. Di fatto fai il market maker ma senza latenza da hft, operi ogni 3/4 minuti invece che sui microsecondi. Confermi? E' solo curiosità la mia, al momento sono dedicato 100% al discrezionale sui futures
 

Cren

Nuovo Utente
Registrato
6/10/09
Messaggi
10.600
Punti reazioni
615
Da quello che ho visto comunque, anche parlando con trader quant esteri, l'approccio più potente (per un retail) come risultati e potenziale oltre ad essere la cameriera di Draghi o seguire le mani forti sui volumi mi dicono sia il reinforcement learning con algoritmi genetici o neuroevoluzione, abbinato a dati tick o ancora meglio sull'order book. Di fatto fai il market maker ma senza latenza da hft, operi ogni 3/4 minuti invece che sui microsecondi. Confermi? E' solo curiosità la mia, al momento sono dedicato 100% al discrezionale sui futures
Onestamente di RL mi intendo relativamente poco, ma dalla descrizione che tu dai deduco si tratti di "costruire" la classica Q-table della Value Function Iteration a partire dalle dinamiche del book anzichè copiando qualcuno/qualcosa che applichi una policy ottimale (ma sconosciuta) come fanno coi giochi Atari.

In tutto questo non vedrei altra applicazione dell'evoluzione differenziale se non quella di ricavare questa magica tabella minimizzando una qualche funzione obiettivo (che a occhio sarà una metrica di risultato, fosse anche solo il rapporto tra perdite e profitti), quindi il risultato finale è di trovare un insieme di regoline del tipo «se il book lato acquisto è molto profondo e denso per i primi 5 livelli, mettiti in acquisto a -1% dal prezzo corrente e poi ti metterai in vendita a +1%».

Ho inteso bene?
 

Federico Juvara

Nuovo Utente
Registrato
16/1/21
Messaggi
60
Punti reazioni
3
Onestamente di RL mi intendo relativamente poco, ma dalla descrizione che tu dai deduco si tratti di "costruire" la classica Q-table della Value Function Iteration a partire dalle dinamiche del book anzichè copiando qualcuno/qualcosa che applichi una policy ottimale (ma sconosciuta) come fanno coi giochi Atari.

In tutto questo non vedrei altra applicazione dell'evoluzione differenziale se non quella di ricavare questa magica tabella minimizzando una qualche funzione obiettivo (che a occhio sarà una metrica di risultato, fosse anche solo il rapporto tra perdite e profitti), quindi il risultato finale è di trovare un insieme di regoline del tipo «se il book lato acquisto è molto profondo e denso per i primi 5 livelli, mettiti in acquisto a -1% dal prezzo corrente e poi ti metterai in vendita a +1%».

Ho inteso bene?
Si hai inteso abbastanza bene. E' market making che invece di sfruttare la latenza e quindi lavorare sulla velocità rastrella profitti sullo spread cercando di fare quello che dici. Aiutato dai big data del book invece delle time series e coadiuvato dagli algo genetici che ottimizzano tutto.
Mai provato sia chiaro, anche perchè rimediare dati storici (o ricostruiti) del book è una bella barriera all'ingresso per noi poveri.
Comunque c'è pure chi usa il Reinforcement Learning come si userebbe il ML classico, con features legate alle time series ecc. su time frame comodi. Il tutto partendo dal presupposto dell'esattezza di un modello markoviano dei mercati ma col pregio di non dover usare serie target. Lavori a premio e punizione usando che ne so la sharpe ratio come obiettivo. Qui ci va a nozze PGiulia perchè l'overfittometro esplode :D
 
Ultima modifica:

amartya78

Nuovo Utente
Registrato
15/9/08
Messaggi
9.637
Punti reazioni
644
S
Si hai inteso abbastanza bene. E' market making che invece di sfruttare la latenza e quindi lavorare sulla velocità rastrella profitti sullo spread cercando di fare quello che dici. Aiutato dai big data del book invece delle time series e coadiuvato dagli algo genetici che ottimizzano tutto.
Mai provato sia chiaro, anche perchè rimediare dati storici (o ricostruiti) del book è una bella barriera all'ingresso per noi poveri.
Comunque c'è pure chi usa il Reinforcement Learning come si userebbe il ML classico, con features legate alle time series ecc. su time frame comodi. Il tutto partendo dal presupposto dell'esattezza di un modello markoviano dei mercati ma col pregio di non dover usare serie target. Lavori a premio e punizione usando che ne so la sharpe ratio come obiettivo. Qui ci va a nozze PGiulia perchè l'overfittometro esplode :D

Dal mio punto di vista, L approccio logico di creazione di una strategia qualsiasi di entrata ed uscita è o dovrebbe essere formulare una ipotesi su come si muovono i prezzi o perché lo fanno, elaborare il modello matematico che rappresenta L ipotesi, trovare i dati che servono per validare o meno L ipotesi, validare L ipotesi.
Mi risulta francamente difficile partire dalle anomalie per risalire alla strategia. È molto facile in tal caso vedere nelle anomalie strutture persistenti quando praticamente sempre sono random walk.

E questo è solo uno degli aspetti (L entrata ed uscita). Una strategia quantitativa globale che prevede ad esempio L asset allocation può utilizzare strumenti diversi che cooperano con i precedenti.

Poi bisogna capire quale è la funzione obiettivo. Intendiamoci se L obiettivo è guadagnare accettando un rischio allora credo che la strategia migliore da quando è nato il mercato finanziario sia il buy and hold sull S&P500. Ha fatto “solo”il 700% negli ultimi 12 anni, sopportando DD anche del 40%. E lo è perché è chiaro come il sole che se gli USA vanno giù gli altri sono già stati polverizzati. Basterebbe solo verificare questa ipotesi.

Viceversa se si vuole guadagnare minimizzando il rischio ovvero aumentare le unità di guadagno per ogni unità di rischio la faccenda si fa maledettamente complicata e pochissimi, davvero pochissimi riescono a trovarci una soluzione. Anche perché in tal caso entrano in gioco fattori come i costi di transazione. Quindi non ti basta più prevedere ed allocare ma devi anche minimizzare ulteriori costi.

PS
Suggerisco anche di andare oltre concetti come ML, RL, NN, AI ed utilizzare ANCHE concetti di statistica fondamentale come distribuzione di probabilità, regressione, indipendenza stocastica, correlazione, verifica delle ipotesi, legge dei grandi numeri.....
 

Federico Juvara

Nuovo Utente
Registrato
16/1/21
Messaggi
60
Punti reazioni
3
S

Dal mio punto di vista, L approccio logico di creazione di una strategia qualsiasi di entrata ed uscita è o dovrebbe essere formulare una ipotesi su come si muovono i prezzi o perché lo fanno, elaborare il modello matematico che rappresenta L ipotesi, trovare i dati che servono per validare o meno L ipotesi, validare L ipotesi.
Mi risulta francamente difficile partire dalle anomalie per risalire alla strategia. È molto facile in tal caso vedere nelle anomalie strutture persistenti quando praticamente sempre sono random walk.

E questo è solo uno degli aspetti (L entrata ed uscita). Una strategia quantitativa globale che prevede ad esempio L asset allocation può utilizzare strumenti diversi che cooperano con i precedenti.

Poi bisogna capire quale è la funzione obiettivo. Intendiamoci se L obiettivo è guadagnare accettando un rischio allora credo che la strategia migliore da quando è nato il mercato finanziario sia il buy and hold sull S&P500. Ha fatto “solo”il 700% negli ultimi 12 anni, sopportando DD anche del 40%. E lo è perché è chiaro come il sole che se gli USA vanno giù gli altri sono già stati polverizzati. Basterebbe solo verificare questa ipotesi.

Viceversa se si vuole guadagnare minimizzando il rischio ovvero aumentare le unità di guadagno per ogni unità di rischio la faccenda si fa maledettamente complicata e pochissimi, davvero pochissimi riescono a trovarci una soluzione. Anche perché in tal caso entrano in gioco fattori come i costi di transazione. Quindi non ti basta più prevedere ed allocare ma devi anche minimizzare ulteriori costi.

PS
Suggerisco anche di andare oltre concetti come ML, RL, NN, AI ed utilizzare ANCHE concetti di statistica fondamentale come distribuzione di probabilità, regressione, indipendenza stocastica, correlazione, verifica delle ipotesi, legge dei grandi numeri.....
"elaborare il modello matematico che rappresenta L ipotesi" credo che per il 99,99% delle persone ci si fermi qua. Parli da matematico, in tutta onestà una persona media non ha senso che si metta a sfidare decenni di ricerche da parte di team di professionisti di alto livello in centri di ricerca elitari. Al massimo può testare modelli presenti sui libri di statistica ma quello lo fanno in tanti. Non saprei come iniziare, non lavoro al MIT e non posso formulare modelli nuovi. Se ancora nessuno è riuscito a superare la distribuzione dei prezzi gaussiana, palesemente errata, perchè dovrei farlo io? (è un esempio).
Stessa cosa vale sulle ipotesi riguardo il movimento dei prezzi, alla fine parliamo dei catalyst di ogni asset e quelli sono abbastanza riconosciuti. Perchè dovrei reinventare la ruota? Stocks mosse da GDP, fusioni e acquisizioni, earnings, settori, tassi ecc. Giusto le crypto non si sa, ma ci hanno provato tutti a capirlo.
Che senso avrebbe fare tutto da zero?
A me intriga molto il reinforcement learning perchè intanto, come suggerito anche da voi, usi i tick data che sono decorrelati dal tempo e valorizzano i movimenti e i volumi. Poi sfrutta il principio markoviano che mi sembra il più credibile e si adatta ad ogni conformazione di mercato, oltre ad essere un sistema completo con ottimizzazione intrinseca tramite l'obiettivo, non richiedendo nemmeno i target. Ci vedo potenziale, anche se facendo i conti della serva ora come ora se fai futures e usi Bookmap, order flow e volume profile sei a tutti gli effetti un trader HFT discrezionale e vedi le stesse cose. Alle brutte becchi gli iceberg, ti accodi e segui le manone grosse facendo le briciole.
Torniamo sempre la, ci serve il quant trading? Guardi un assorbimento su Ninjatrader e già hai l'idea su come si muova veramente il prezzo
 

amartya78

Nuovo Utente
Registrato
15/9/08
Messaggi
9.637
Punti reazioni
644
"elaborare il modello matematico che rappresenta L ipotesi" credo che per il 99,99% delle persone ci si fermi qua. Parli da matematico, in tutta onestà una persona media non ha senso che si metta a sfidare decenni di ricerche da parte di team di professionisti di alto livello in centri di ricerca elitari. Al massimo può testare modelli presenti sui libri di statistica ma quello lo fanno in tanti. Non saprei come iniziare, non lavoro al MIT e non posso formulare modelli nuovi. Se ancora nessuno è riuscito a superare la distribuzione dei prezzi gaussiana, palesemente errata, perchè dovrei farlo io? (è un esempio).
Stessa cosa vale sulle ipotesi riguardo il movimento dei prezzi, alla fine parliamo dei catalyst di ogni asset e quelli sono abbastanza riconosciuti. Perchè dovrei reinventare la ruota? Stocks mosse da GDP, fusioni e acquisizioni, earnings, settori, tassi ecc. Giusto le crypto non si sa, ma ci hanno provato tutti a capirlo.
Che senso avrebbe fare tutto da zero?
A me intriga molto il reinforcement learning perchè intanto, come suggerito anche da voi, usi i tick data che sono decorrelati dal tempo e valorizzano i movimenti e i volumi. Poi sfrutta il principio markoviano che mi sembra il più credibile e si adatta ad ogni conformazione di mercato, oltre ad essere un sistema completo con ottimizzazione intrinseca tramite l'obiettivo, non richiedendo nemmeno i target. Ci vedo potenziale, anche se facendo i conti della serva ora come ora se fai futures e usi Bookmap, order flow e volume profile sei a tutti gli effetti un trader HFT discrezionale e vedi le stesse cose. Alle brutte becchi gli iceberg, ti accodi e segui le manone grosse facendo le briciole.
Torniamo sempre la, ci serve il quant trading? Guardi un assorbimento su Ninjatrader e già hai l'idea su come si muova veramente il prezzo

Quando parlo di modello matematico ovviamente non mi riferisco al senso più comune del termine e cioè equazioni, sistemi di equazioni, funzioni perchè ovviamente stiamo parlando di fenomeni quasi-random walk quindi sarebbe inutile e presuntuoso pensare di addivenire a qualcosa del genere.

No, quando mi riferisco a modello matematico ho in mente singoli strumenti statistici e probabilistici che cooperano indipendentemente l'uno dall'altro per trovare quelle weak correlations che possono far si che la probabilità di successo sia semplicemente maggiore del 50%. Ovviamente più sono alti i costi di transazione tanto più alto deve essere lo scostamento rispetto al 50%.

Immaginati quelli che ricercano l'oro nei fiumi che usano setacci con filtri sempre più fini.

Posso dirti e posso dire che sono riuscito a trovare, testare e validare modelli che riescono ad avere probabilità di successo consistenti ma il cui successo viene eroso dai costi di transazione.

Davanti a me immagino ci siano due strade: la prima porta a diminuire i costi di transazione quindi attraverso accordi con i broker e/o attraverso tecniche di ingegneria finanziaria; la seconda invece porta ad aumentare il tasso di successo mantenendo costante il costo.

Conoscendomi non potevo non perseguire subito la seconda strategia.

In conclusione quindi se la domanda delle domande è: è possibile predire un movimento dei prezzi con una probabilità maggiore del 50% in un lasso di tempo ben definito la risposta è SI, se invece la domanda è se è possibile guadagnare costantemente nei mercati la risposta è che ancora non lo so perchè come ho detto ci sono costi.....che erodono il guadagno.
 

Federico Juvara

Nuovo Utente
Registrato
16/1/21
Messaggi
60
Punti reazioni
3
Quando parlo di modello matematico ovviamente non mi riferisco al senso più comune del termine e cioè equazioni, sistemi di equazioni, funzioni perchè ovviamente stiamo parlando di fenomeni quasi-random walk quindi sarebbe inutile e presuntuoso pensare di addivenire a qualcosa del genere.

No, quando mi riferisco a modello matematico ho in mente singoli strumenti statistici e probabilistici che cooperano indipendentemente l'uno dall'altro per trovare quelle weak correlations che possono far si che la probabilità di successo sia semplicemente maggiore del 50%. Ovviamente più sono alti i costi di transazione tanto più alto deve essere lo scostamento rispetto al 50%.

Immaginati quelli che ricercano l'oro nei fiumi che usano setacci con filtri sempre più fini.

Posso dirti e posso dire che sono riuscito a trovare, testare e validare modelli che riescono ad avere probabilità di successo consistenti ma il cui successo viene eroso dai costi di transazione.

Davanti a me immagino ci siano due strade: la prima porta a diminuire i costi di transazione quindi attraverso accordi con i broker e/o attraverso tecniche di ingegneria finanziaria; la seconda invece porta ad aumentare il tasso di successo mantenendo costante il costo.

Conoscendomi non potevo non perseguire subito la seconda strategia.

In conclusione quindi se la domanda delle domande è: è possibile predire un movimento dei prezzi con una probabilità maggiore del 50% in un lasso di tempo ben definito la risposta è SI, se invece la domanda è se è possibile guadagnare costantemente nei mercati la risposta è che ancora non lo so perchè come ho detto ci sono costi.....che erodono il guadagno.
Potresti fare un esempio concreto del processo, modello compreso? Magari usando modelli diversi da quelli tuoi per non rivelare.
Ti metto questo link per farti capire la mia impostazione al ML, cioè quello che ho sempre detto in questo topic. Model cs data mining black box: Build Better Strategies! – The Financial Hacker

Mi permetto di suggerirti, anche solo come curiosità, di provare la neuroevoluzione (NEAT come modello specifico) come ottimizzazione. Se hai tempo e modo di approfondire tu che sei pratico magari riesci a sfruttarla bene. Neuroevolution of augmenting topologies - Wikipedia
 

fricchettone

Nuovo Utente
Registrato
26/2/21
Messaggi
259
Punti reazioni
10
Quando parlo di modello matematico

Davanti a me immagino ci siano due strade: la prima porta a diminuire i costi di transazione quindi attraverso accordi con i broker e/o attraverso tecniche di ingegneria finanziaria

Senza offesa ma le probabilità che tu abbia un modello funzionante sono 0.

Inoltre puoi avere costi di esecuzione nulli grazie ai motori di esecuzione anonimi.
 

amartya78

Nuovo Utente
Registrato
15/9/08
Messaggi
9.637
Punti reazioni
644
Senza offesa ma le probabilità che tu abbia un modello funzionante sono 0.

Inoltre puoi avere costi di esecuzione nulli grazie ai motori di esecuzione anonimi.

Prendo spunto da questa riflessione per trovare il tempo di illustrare i risultati finora ottenuti.

Inizio dicendo che attualmente è come dici tu e francamente non so se la strategia da me adottata sarà mai profittevole. E' utile prima di iniziare ad illustrare i risultati distinguere tra reale capacità predittiva e guadagno effettivo.

Il 2021 è stato il primo anno dove ho potuto testare la strategia in maniera consistente avendo anche risolto tutti i bug della piattaforma di trading. Ho testato la strategia utilizzando un conto paper trading fornitomi da Interactive Broker con un 1 mln di $ agganciato ad una piattaforma trading totalmente robotizzata da me costruita ed agganciata ai loro server tramite API. Ho chiuso il 31/12/2021 con 945000 dollari quindi con una perdita effettiva del 5.5%. E ciò al netto di 74.000$ di commissioni e di quasi 2.000$ netti pagati come interessi passivi. Le operazioni di acquisto e vendita sono stati ca. 155 mln ciascuno quindi complessivamente sono state fatte operazioni per oltre 310 mln di $ su cui ovviamente si è pagato il costo dello spread essendo l'operazione di acquisto-vendita at market e questo sempre per assicurare il balance imposto di avere il 55% delle posizioni long ed il 45% short. Secondo i miei calcoli lo spread Bid-Ask mi sarebbe costato ca. l'1.8% al mese e quindi il 20-22% l'anno. In sintesi quindi tra costi di commissioni, interessi netti passivi e spread le operazioni di compravendita mi sarebbero costate tra il 27.5% ed il 30%. La strategia si basa su uno statistical arbitrage che poteva attingere a tutti i sottostanti che formano il Russell 1000, quindi gestisce 1000 ticker, con frequenza daily, le operazioni avvenivano alla chiusura(che garantisce il momento dove il livello dello spread è più basso durante la giornata) in particolare a ca. 20 secondi dalla fine delle contrattazioni e riguardavano tra il 2% ed il 20% dei componenti il Russell 1000.

La cosa interessante è che avevo previsto che per andare in guadagno avrei dovuto avere profitti lordi superiori al 30% quindi in linea al risultato. Da verifiche effettuate il modello teorico veniva seguito dal modello reale al 99%, dove l'1%, come previsto, si comporta come una random walk. In altri termini non influenza il rendimento lordo.

Ovviamente mi ha sorpreso anche la robustezza ed efficienza della piattaforma totalmente robotizzata che doveva processare infiniti calcoli in pochi secondi. Non era scontato perchè per fare ciò ho dovuto scrivere un codice con tecniche di array coding e per il calcolo parallelo. Ha fallito solo 5 volte in un anno per lo più perchè o il NYSE aveva chiuso prima dello standard ovvero per problemi relativi ai loro server a causa di spike nella volatilità. Considerate che il sistema è totalmente robotizzato in ogni aspetto. Quindi lo guardo qualche volta a settimana.

E' chiaro che una simile strategia per i costi che sopporta non è assolutamente profittevole. Si possono ridurre ed anche di molto quelli relativi alle commissioni ma sullo spread non ho le idee chiare in quanto se procedo con ordini con bid ed ask fissati a quel punto non viene assicurato il balance tra posizioni long e short. Si potrebbe pensare che mettendo un cap alle singole operazioni per la legge dei grandi numeri il balance sarebbe assicurato e tuttavia pensandoci bene ciò non è dovuto in quanto si potrebbero avere spike di volatilità in pochi secondo che potrebbero far scattare solo le operazioni Buy o Sell. E' anche vero che le operazioni di Buy-Sell sono simmetriche a coppie per ogni lato delle operazioni.

Non saprei.............
 
Ultima modifica:
  • Like
Reazioni: Mei

fricchettone

Nuovo Utente
Registrato
26/2/21
Messaggi
259
Punti reazioni
10
Prendo spunto da questa riflessione per trovare il tempo di illustrare i risultati finora ottenuti.

Inizio dicendo che attualmente è come dici tu e francamente non so se la strategia da me adottata sarà mai profittevole. E' utile prima di iniziare ad illustrare i risultati distinguere tra reale capacità predittiva e guadagno effettivo.

Il 2021 è stato il primo anno dove ho potuto testare la strategia in maniera consistente avendo anche risolto tutti i bug della piattaforma di trading. Ho testato la strategia utilizzando un conto paper trading fornitomi da Interactive Broker con un 1 mln di $ agganciato ad una piattaforma trading totalmente robotizzata da me costruita ed agganciata ai loro server tramite API. Ho chiuso il 31/12/2021 con 945000 dollari quindi con una perdita effettiva del 5.5%. E ciò al netto di 74.000$ di commissioni e di quasi 2.000$ netti pagati come interessi passivi. Le operazioni di acquisto e vendita sono stati ca. 155 mln ciascuno quindi complessivamente sono state fatte operazioni per oltre 310 mln di $ su cui ovviamente si è pagato il costo dello spread essendo l'operazione di acquisto-vendita at market e questo sempre per assicurare il balance imposto di avere il 55% delle posizioni long ed il 45% short. Secondo i miei calcoli lo spread Bid-Ask mi sarebbe costato ca. l'1.8% al mese e quindi il 20-22% l'anno. In sintesi quindi tra costi di commissioni, interessi netti passivi e spread le operazioni di compravendita mi sarebbero costate tra il 27.5% ed il 30%. La strategia si basa su uno statistical arbitrage che poteva attingere a tutti i sottostanti che formano il Russell 1000, quindi gestisce 1000 ticker, con frequenza daily, le operazioni avvenivano alla chiusura(che garantisce il momento dove il livello dello spread è più basso durante la giornata) in particolare a ca. 20 secondi dalla fine delle contrattazioni e riguardavano tra il 2% ed il 20% dei componenti il Russell 1000.

La cosa interessante è che avevo previsto che per andare in guadagno avrei dovuto avere profitti lordi superiori al 30% quindi in linea al risultato. Da verifiche effettuate il modello teorico veniva seguito dal modello reale al 99%, dove l'1%, come previsto, si comporta come una random walk. In altri termini non influenza il rendimento lordo.

Ovviamente mi ha sorpreso anche la robustezza ed efficienza della piattaforma totalmente robotizzata che doveva processare infiniti calcoli in pochi secondi. Non era scontato perchè per fare ciò ho dovuto scrivere un codice con tecniche di array coding e per il calcolo parallelo. Ha fallito solo 5 volte in un anno per lo più perchè o il NYSE aveva chiuso prima dello standard ovvero per problemi relativi ai loro server a causa di spike nella volatilità. Considerate che il sistema è totalmente robotizzato in ogni aspetto. Quindi lo guardo qualche volta a settimana.

E' chiaro che una simile strategia per i costi che sopporta non è assolutamente profittevole. Si possono ridurre ed anche di molto quelli relativi alle commissioni ma sullo spread non ho le idee chiare in quanto se procedo con ordini con bid ed ask fissati a quel punto non viene assicurato il balance tra posizioni long e short. Si potrebbe pensare che mettendo un cap alle singole operazioni per la legge dei grandi numeri il balance sarebbe assicurato e tuttavia pensandoci bene ciò non è dovuto in quanto si potrebbero avere spike di volatilità in pochi secondo che potrebbero far scattare solo le operazioni Buy o Sell. E' anche vero che le operazioni di Buy-Sell sono simmetriche a coppie per ogni lato delle operazioni.

Non saprei.............

74.000$ sono tanti. Se riesci a gestire meglio con order limit va a giovare. Altrimenti con ib puoi passare anche tramite citadel dove paghi 0 ma le esecuzioni saranno lente e incerte

$1M con quanta leva? E se usi la leva quanto è drowdown?
Quante operazioni in media al giorno su tutto il paniere russell 1000?
Controvalore medio di un trade?
Quanto dura in media un operazione? (compreso l'overnight)
Quant-è il guadagno medio in percentuale per ogni trade?
Quant-è la perdita media in percentuale per ogni trade?
Quali sono le condizioni per andare a chiudere un trade in positivo e chiudere un trade in negativo?


Ovviamente mi ha sorpreso anche la robustezza ed efficienza della piattaforma totalmente robotizzata che doveva processare infiniti calcoli in pochi secondi. Non era scontato perchè per fare ciò ho dovuto scrivere un codice con tecniche di array coding e per il calcolo parallelo. Ha fallito solo 5 volte in un anno per lo più perchè o il NYSE aveva chiuso prima dello standard ovvero per problemi relativi ai loro server a causa di spike nella volatilità. Considerate che il sistema è totalmente robotizzato in ogni aspetto. Quindi lo guardo qualche volta a settimana.

Quando operativo ci vuole un adetto al monitoraggio altrimenti fai la fine di knight capital. Con progettazione fatta male e per mia inesperienza mi è capitato anche a me di perdere 20k in 3 minuti perchè l'algo di esecuzione inviava ordine a mercato e subito dopo usciva con un altro ordine a mercato in loop e tutto in pochi secondi.

Adesso che hai spiegato meglio devo dire che mi piace la strategia e soprattuto mi piacciono le tecniche temporizzate.
 

amartya78

Nuovo Utente
Registrato
15/9/08
Messaggi
9.637
Punti reazioni
644
74.000$ sono tanti. Se riesci a gestire meglio con order limit va a giovare. Altrimenti con ib puoi passare anche tramite citadel dove paghi 0 ma le esecuzioni saranno lente e incerte

$1M con quanta leva? E se usi la leva quanto è drowdown?
Quante operazioni in media al giorno su tutto il paniere russell 1000?
Controvalore medio di un trade?
Quanto dura in media un operazione? (compreso l'overnight)
Quant-è il guadagno medio in percentuale per ogni trade?
Quant-è la perdita media in percentuale per ogni trade?
Quali sono le condizioni per andare a chiudere un trade in positivo e chiudere un trade in negativo?




Quando operativo ci vuole un adetto al monitoraggio altrimenti fai la fine di knight capital. Con progettazione fatta male e per mia inesperienza mi è capitato anche a me di perdere 20k in 3 minuti perchè l'algo di esecuzione inviava ordine a mercato e subito dopo usciva con un altro ordine a mercato in loop e tutto in pochi secondi.

Adesso che hai spiegato meglio devo dire che mi piace la strategia e soprattuto mi piacciono le tecniche temporizzate.

Cercherò di rispondere a tutte le domande. Laddove non dovessi è perchè ho poco tempo (adesso) ovvero non ho dati ben definiti e quindi preferisco rivedere gli stessi.

Premessa il modello matematico utilizzato nel test quasi-reale è un modello non ottimizzato nei suoi parametri e che pertanto sono fissi compreso la leva.

Più che essere fissa la leva ho fissato il cap della leva a 2.2 anche se in media come si può osservare dall'ammontare delle transazioni (310 mln e numero di giorni di trading 250) è stata intorno a 1,240. (credo di non aver fatto errori nel calcolo qui su due piedi). E ciò anche perchè fisso era il cap per l'ammontare dell'asset che veniva allocato per ogni singolo ticker, max 2% del NAV. Questo per il controllo del rischio.

Il numero di transazioni medie lo si può dedurre sapendo che ogni trade da contratto viene a costare $ 0.005 (valore che si può abbattere sensibilmente nel real world) con un minimo di 1$. Quindi in un anno ci sarebbero stati ca. 15.000.000 trades (sapendo che sono stati computati 74.000$) tra long e short, ma il cap di 1$ minimo riduce quel valore, anche di molto, diciamo 6.000.000. Ca. 25.000 trades al giorno.

Le vincite medie e le perdite medie dipendono dalla volatilità dei singoli ticker quindi un AVGO ha profitti/perdite ben superiori all'2% al giorno di contro un titolo come IBM siamo ben sotto.
Posso dirti che dalle simulazioni effettuate prima del test ogni anno, su 7 analizzati, si è chiuso in guadagno con profitti che vanno dal 25% al 150% ed una media dell'70%, è chiaro che quando va sotto il 30% lordo nel reale si perde almeno secondo il reale che posso pensare di conseguire io. Il modello predilige le fasi laterali. Quindi diciamo che gli ultimi anni(13 non proprio gli ultimi due) caratterizzati da decisi movimenti rialzisti non sono stati proprio il suo ambiente. Ciò nondimeno ha chiuso, nelle simulazioni sempre in positivo. Certamente costa complessivamente almeno il 2,2% al mese.

Le operazioni generalmente vengono chiuse in giorni ma è variabile, in genere tra 3 e 7 giorni. Le condizioni di chiusura sono: si è raggiunto il limite massimo della finestra di opportunità stimata ovvero un algoritmo che lavora in background che chiamo sentinella ha stimato che le probabilità di perdita hanno superato quelle di guadagno.
 

bandit

Let's go Brandon
Registrato
23/8/00
Messaggi
7.260
Punti reazioni
329
Bellissimo 3d, letto tutto, capito quasi niente ma favoloso, complimenti a tutti i partecipanti.

Giusto una domanda:

Vi ricorderete sicuramente delle inefficiente sui CW intorno all'anno 2000, lo sfasamento temporale tra CW e sottostante che portava (MM permettendo) a profitti privi di rischio, ecco la domanda e':

Il ML sarebbe stato in grado di scoprire e sfruttare quella inefficienza? Intendo se il programmatore non l'avesse intuita lui per prima.
 

Federico Juvara

Nuovo Utente
Registrato
16/1/21
Messaggi
60
Punti reazioni
3
Prendo spunto da questa riflessione per trovare il tempo di illustrare i risultati finora ottenuti.

Inizio dicendo che attualmente è come dici tu e francamente non so se la strategia da me adottata sarà mai profittevole. E' utile prima di iniziare ad illustrare i risultati distinguere tra reale capacità predittiva e guadagno effettivo.

Il 2021 è stato il primo anno dove ho potuto testare la strategia in maniera consistente avendo anche risolto tutti i bug della piattaforma di trading. Ho testato la strategia utilizzando un conto paper trading fornitomi da Interactive Broker con un 1 mln di $ agganciato ad una piattaforma trading totalmente robotizzata da me costruita ed agganciata ai loro server tramite API. Ho chiuso il 31/12/2021 con 945000 dollari quindi con una perdita effettiva del 5.5%. E ciò al netto di 74.000$ di commissioni e di quasi 2.000$ netti pagati come interessi passivi. Le operazioni di acquisto e vendita sono stati ca. 155 mln ciascuno quindi complessivamente sono state fatte operazioni per oltre 310 mln di $ su cui ovviamente si è pagato il costo dello spread essendo l'operazione di acquisto-vendita at market e questo sempre per assicurare il balance imposto di avere il 55% delle posizioni long ed il 45% short. Secondo i miei calcoli lo spread Bid-Ask mi sarebbe costato ca. l'1.8% al mese e quindi il 20-22% l'anno. In sintesi quindi tra costi di commissioni, interessi netti passivi e spread le operazioni di compravendita mi sarebbero costate tra il 27.5% ed il 30%. La strategia si basa su uno statistical arbitrage che poteva attingere a tutti i sottostanti che formano il Russell 1000, quindi gestisce 1000 ticker, con frequenza daily, le operazioni avvenivano alla chiusura(che garantisce il momento dove il livello dello spread è più basso durante la giornata) in particolare a ca. 20 secondi dalla fine delle contrattazioni e riguardavano tra il 2% ed il 20% dei componenti il Russell 1000.

La cosa interessante è che avevo previsto che per andare in guadagno avrei dovuto avere profitti lordi superiori al 30% quindi in linea al risultato. Da verifiche effettuate il modello teorico veniva seguito dal modello reale al 99%, dove l'1%, come previsto, si comporta come una random walk. In altri termini non influenza il rendimento lordo.

Ovviamente mi ha sorpreso anche la robustezza ed efficienza della piattaforma totalmente robotizzata che doveva processare infiniti calcoli in pochi secondi. Non era scontato perchè per fare ciò ho dovuto scrivere un codice con tecniche di array coding e per il calcolo parallelo. Ha fallito solo 5 volte in un anno per lo più perchè o il NYSE aveva chiuso prima dello standard ovvero per problemi relativi ai loro server a causa di spike nella volatilità. Considerate che il sistema è totalmente robotizzato in ogni aspetto. Quindi lo guardo qualche volta a settimana.

E' chiaro che una simile strategia per i costi che sopporta non è assolutamente profittevole. Si possono ridurre ed anche di molto quelli relativi alle commissioni ma sullo spread non ho le idee chiare in quanto se procedo con ordini con bid ed ask fissati a quel punto non viene assicurato il balance tra posizioni long e short. Si potrebbe pensare che mettendo un cap alle singole operazioni per la legge dei grandi numeri il balance sarebbe assicurato e tuttavia pensandoci bene ciò non è dovuto in quanto si potrebbero avere spike di volatilità in pochi secondo che potrebbero far scattare solo le operazioni Buy o Sell. E' anche vero che le operazioni di Buy-Sell sono simmetriche a coppie per ogni lato delle operazioni.

Non saprei.............
Ciao Amartya, scusa se ti faccio alcune domande ma questi ultimi due post mi hanno spaesato.
Nel corso della discussione, tempo fa, consigliavi di cercare features slegate dal tempo, il fatto che si parli di daily e quindi di time series discreta non mi torna.
Ero altresì convinto che si facessi stat arb ma avessi implementato una struttura simile (anche per le capacità di processo) per cercare mini inefficienze su granularità tick, addirittura con dati LOB profondi.
Da quello che descrivi, dimmi se sbaglio, sembra più una strategia di swing trading ed a tratti di investimento attivo, su una base classica di stat arb. Non capisco quindi quei costi e come quei costi possano incidere sul profitto visto che si usano timeframe più lenti appositamente. Capisco a metà la necessarietà di un computer così potente: è giustificata dada centinaia di asset con relative serie storiche ma sono comunque dati daily, con qualche migliaia di timestamp arrivi al 1500.
Ero convinto avessi inventato un nuovo sistema HFT, per farla breve. Mi ritrovo una strategia di investimento facendo stock picking nel portfolio.
Non è assolutamente una critica sia chiaro, ma non facevi prima ad affidarti a una delle tante piattaforme di portfolio optimization basate sul reinforcement learning?