Machine Learning: la mia esperienza

  • Ecco la 60° Edizione del settimanale "Le opportunità di Borsa" dedicato ai consulenti finanziari ed esperti di borsa.

    Questa settimana abbiamo assistito a nuovi record assoluti in Europa e a Wall Street. Il tutto, dopo una ottava che ha visto il susseguirsi di riunioni di banche centrali. Lunedì la Bank of Japan (BoJ) ha alzato i tassi per la prima volta dal 2007, mettendo fine all’era del costo del denaro negativo e al controllo della curva dei rendimenti. Mercoledì la Federal Reserve (Fed) ha confermato i tassi nel range 5,25%-5,50%, mentre i “dots”, le proiezioni dei funzionari sul costo del denaro, indicano sempre tre tagli nel corso del 2024. Il Fomc ha anche discusso in merito ad un possibile rallentamento del ritmo di riduzione del portafoglio titoli. Ieri la Bank of England (BoE) ha lasciato i tassi di interesse invariati al 5,25%. Per continuare a leggere visita il link

a questione operatori sinceramente non l'ho capita
vedi End of Month bias, che non so se sia ancora attivo. Ha una spiegazione "ovvia".
Ma basterebbe che i fondi ribilancino due volte al mese e la grande scoperta va a monte.

Cmq, quello che ti stanno cercando di dire è che ok buttare la rete ed andare a strascio, ma se prima non individui la zona pescosa e il tipo di pesce che vuoi prendere è inutile che decidi la superficie della rete e la dimensione delle maglie; e fa differenza se la rete da un ettaro la butti in un laghetto alpino o al largo delle Azzorre.
(sorry per l'esempio grezzo e non farcito da buzz words ma ho letto l'intervista della meloni su La Stampa :D ).

C
 
vedi End of Month bias, che non so se sia ancora attivo. Ha una spiegazione "ovvia".
Ma basterebbe che i fondi ribilancino due volte al mese e la grande scoperta va a monte.

Cmq, quello che ti stanno cercando di dire è che ok buttare la rete ed andare a strascio, ma se prima non individui la zona pescosa e il tipo di pesce che vuoi prendere è inutile che decidi la superficie della rete e la dimensione delle maglie; e fa differenza se la rete da un ettaro la butti in un laghetto alpino o al largo delle Azzorre.
(sorry per l'esempio grezzo e non farcito da buzz words ma ho letto l'intervista della meloni su La Stampa :D ).

C
:D
Gli esempi grezzi sono sempre i migliori.
Però "momento, momento, momento" (cit. Peter Griffin), credo si stia facendo confusione. Quel tipo di bias non ha nulla a che vedere con il ML ma nemmeno con la statistica in senso stretto, una volta che lo conosci lo tradi manualmente. Che poi non passa l'esame del discorso di Cren, cioè di trovare bias non ovvi. Questi li conoscono tutti.
In realtà buttare la rete a strascio è proprio ciò che differenzia l'approccio del data mining in ML dall'approccio model based della statistica di base.
Il ML non necessita di ipotesi, gli dai il "cibo" e lui scandaglia finchè non trova pattern, qualsiasi pattern. Ovviamente peschi pure rumore, ed è proprio quello il problema.
Certamente la scelta dei feature è cruciale e per certi versi è assimilabile ad una ipotesi, cioè in base ai feature scelti sto indirizzando il tipo di inefficienza cercata.
Ma pure la comunque i feature vengono scelti in base ad una maggiore correlazione col target label, non con una ipotesi generica sull'andamento dei prezzi. Poi comunque per dire posso dare anche 4000 feature pescati a caso ad un modello di Boosting (estremizzo eh), lui stesso sceglie i migliori e fa feature selection.
 
Quello che dici lo capisco, figurati. E ci sta. Proprio per questo sto puntando su modelli specifici per i cambi di regime o di stato, tipo Hidden Markov Models o Gaussian Mixture Models. Ma pure tutto il filone della spectral analysis e dei filtri. Proprio per valutare le persistenze nel passato.
Avrai già provato a giocare con dei backtest usando statsmodels e avrai visto, immagino, quanto sia difficile (per non dire impossibile) per un HMM o per l'EM dietro le misture riuscire a capire per tempo quando il regime sta cambiando.

La realtà è che il cambiamento di regime dei rendimenti è troppo immediato perché questi algoritmi riescano a individuarlo per tempo, purtroppo individuarlo per tempo è proprio quello che serve a te: questi modelli vanno bene solo per l'estrazione del regime come fattore latente dopo che le cose sono successe, non riescono a "vedere" niente prima e saresti comunque più veloce tu a occhio anche solo guardando il VIX (esempio).
Però se ci pensi un XGBoost, o comunque i modelli tree based, più che trovare pattern ed inefficienze vere e proprie dei prezzi stabiliscono regole incrociate tra le feature. Del tipo "se RSI <10 e return t-1 la candela dopo al 70% è long". A mio avviso sono molto più dipendenti dalle feature scelte ed è il motivo per cui nel trading funzionino raramente, nonostante siano i modelli più avanzati e più usati nei tornei. Sbaglio?
Ma tu davvero crederesti che regole come queste non siano solo frutto del caso e della tortura dei numeri ma che dietro possa esserci qualcosa di ignoto e profittevole?
Tu mi insegni che nessuna serie sia stazionaria, per renderla tale si usano le trasformazioni. Return al posto dei prezzi o fractional differentiation per dire. Perchè dici che il problema sia trovarne una stazionaria? In realtà tutte diventano più o meno stazionarie trasformandole.
Puoi rendere stazionario quello che vuoi con mille tecniche diverse, il problema è quello che poi vai a comprare/vendere: quello stazionario non lo è mai, o difficilmente ci sarebbe un mercato.

Tu non compri un rendimento, una differenza frazionaria, una wavelet: tu compri un prezzo (o una combinazione di prezzi) e riuscire a trovare un prezzo che sia vincolato tra un massimo e un minimo equivale a fare fessa la tua controparte, il che non è per nulla facile.

Per intenderci, è lo stesso motivo per cui il VIX è stazionario ma il mercato dei futures fà sì che tu non ne possa approfittare a causa dell'inclinazione della struttura a termine che allontana i futures dallo spot.
La questione operatori sinceramente non l'ho capita, non ne capisco il nesso con sistemi quantitativi. A meno che tu non parli di analisi fondamentale (ma è un approccio swing e volendo discrezionale) o all'opposto di HFT sul book. Cioè tecniche di arbitraggio (che non uso e non ritengo profittevoli da retail) non hanno vie di mezzo. O le fai hft o alla lunga. Dimmi se ho capito male.
"capire se c'è realmente un fondamento dietro la sua stazionarietà" teoricamente è comprensibile, il "come" per me spazia dai riti sciamanici all'utilizzo della fisica quantistica quindi sono confuso.
Ne approfitto per farti alcune domande, visto che sei un esperto:
- quale ritieni sia la strada migliore nella scelta del target label? Escludendo reti neurali/deep learning e dati macro azionari.
- quando dici di cercare una teoria che non sia "ovvia", e senza dubbio concordo, puoi essere più specifico nell'indirizzarmi su materie specifiche o approcci di ricerca specifici? Te lo chiedo con lo stesso spirito del mio primo post qua sopra. Dopo anni di sofferenza (ma anche soddisfazioni) e ricerche a vuoto totalmente autodidatta penso di meritarmi un professionista che circoscriva campo e fonti per concentrarmi su quelle senza perdere altro tempo appresso a strade senza uscita.
Ovviamente non voglio segreti o strategie, però facendo un esempio a caso un "lascia perdere il machine learning classico usa il reinforcement learning e cerca le inefficienze coi fondi di bicchiere e usa questo libro che ti indirizza bene e studiati questo e quest'altro e i dati è meglio trattarli così e colà" sarebbe gradito :D
Facciamo due esempi semplicistici.

Diciamo che voglio ipotizzare tre forze che muovono il mercato delle azioni nel breve, nel medio e nel lungo termine:
  1. nel breve, i prezzi sono mossi dai market maker di opzioni che devono coprire il Delta delle proprie posizioni. Sotto determinate condizioni, questo può generare mean reversion o momentum nel corso della giornata e tra una giornata e l'altra. Quindi mi serve un modello per valutare quanto e come il loro inventario di rischio potrebbe risultare sbilanciato a seconda dei flussi che ricevono;
  2. nel medio, i prezzi sono mossi dai fondi che seguono pedissequamente la risk parity e bilanciano 1, 2 o 4 volte al mese. In questo caso avrò due effetti indipendenti: una mean reversion della roba che è salita/scesa di più per via del "volatility pumping" e le reazioni di adeguamento dei pesi a come sono cambiate le volatilità e le correlazioni tra asset class;
  3. nel lungo, i prezzi sono mossi dai gestori che cercano azioni a sconto con dei bei cash flow e cercano di interpretare i dati macroeconomici. In questo caso, siccome questi soggetti tendenzialmente danno mandato di entrare in modo discreto nel tempo, si crea un drift e a volte invece certi movimenti da elefante nella stanza dei cristalli.
Fatte le mie ipotesi su chi e come può muovere il mercato che sto osservando, capisci che caricare scikit-learn o Keras è l'ultimo dei miei problemi perché prima dovrò costruire dei modelli che mi consentano di vedere quello che vedono questi attori per poterli anticipare e validare o rigettare le mie ipotesi.

Adesso osservo il mercato obbligazionario: ha senso fare le stesse ipotesi? Nemmeno per idea, devo ipotizzare qualcosa di diverso.

Ipotizzo che:
  1. a muovere i prezzi nel breve termine sia l'emissione di carta nuova («carta nuova scaccia carta vecchia» si è sempre detto sul trading desk). Quindi starò dietro alle nuove emissioni. I market maker sono rimasti inchiodati coi prezzi congelati sulle vecchie emissioni perché sono pigri e non hanno aggiornato il quotatore?
  2. nel medio termine la parte obbligazionaria agisca da hedge di portafoglio nei confronti dell'equity, ma le correlazioni cambiano nel tempo e quindi dovrò verificare se davvero c'è questo effetto di ribilanciamento. Quanti fondi poi sono costretti a comprare/vendere perché hanno dei limiti da prospetto per cui il passaggio da IG a HY costringe a vendere/comprare?
  3. nel lungo termine ci sia una caccia di carta disallineata per ragioni di liquidità e struttura (e la caccia al rendimento reale), quindi parto col pricing e i disallineamenti lungo le curve di credito.
Anche qui, scegliere il kernel della SVM è l'ultimo dei problemi.

E capisci che non posso usare lo stesso modello operativo sia per le azioni sia per le obbligazioni se voglio anticipare questi attori.
Ci si ritrova proprio tutti, Paolo :flower:
 
E direi che Cren vi ha detto molto...:bye::bye:
 
Avrai già provato a giocare con dei backtest usando statsmodels e avrai visto, immagino, quanto sia difficile (per non dire impossibile) per un HMM o per l'EM dietro le misture riuscire a capire per tempo quando il regime sta cambiando.

La realtà è che il cambiamento di regime dei rendimenti è troppo immediato perché questi algoritmi riescano a individuarlo per tempo, purtroppo individuarlo per tempo è proprio quello che serve a te: questi modelli vanno bene solo per l'estrazione del regime come fattore latente dopo che le cose sono successe, non riescono a "vedere" niente prima e saresti comunque più veloce tu a occhio anche solo guardando il VIX (esempio).
Si certo il problema principale è il lag intrinseco, inevitabile. Per questo si usano, in genere, su timeframe comodi per entrare a regime già avviato e sfruttare la prosecuzione.
Questo bias lo sto vedendo or ora con la spectral analysis di Zorro che usa un bandpass filter per sgamare i cicli sottostanti. Nonostante sia sulle 4 ore entra a ciclo quasi terminato e ti va in drowdown quasi subito di oltre 100 pips. Devi aspettare giorni per rivederlo stancamente tornare su. Poco sostenibile sul serio. Non sempre eh, spesso fa profitti atomici quasi subito ma alla lunga è insostenibile.

Ma tu davvero crederesti che regole come queste non siano solo frutto del caso e della tortura dei numeri ma che dietro possa esserci qualcosa di ignoto e profittevole?
Quasi sempre è così, ma una walk forward optimization sugli ultimi due anni che ti da quelle regole come stabili dovrebbe essere una buona garanzia. E' a trovarla però, in genere la wfo fa schifo. Caso ce lo vedo su brevi periodi, se no penso sia overfit (termine che ti fa saltare sulla sedia lo so).

Puoi rendere stazionario quello che vuoi con mille tecniche diverse, il problema è quello che poi vai a comprare/vendere: quello stazionario non lo è mai, o difficilmente ci sarebbe un mercato.
Il prezzo ovviamente non lo è mai, ma se lo manipoli per renderlo tale ci diventa. Ma serve solo a evidenziare pattern sottostanti ripetuti, vai a comprare e vendere quelli e non il prezzo stesso. E' la logica del cambio di regime.

Tu non compri un rendimento, una differenza frazionaria, una wavelet: tu compri un prezzo (o una combinazione di prezzi) e riuscire a trovare un prezzo che sia vincolato tra un massimo e un minimo equivale a fare fessa la tua controparte, il che non è per nulla facile.
Come sopra, poi ovviamente qua siamo sempre nel campo della previsione dei prezzi e quindi per sua natura difficile. E' il solito discorso del "se funzionava prima chi lo dice funzioni in futuro?". Non sarebbe la pietra angolare del trading altrimenti.

Facciamo due esempi semplicistici.

Diciamo che voglio ipotizzare tre forze che muovono il mercato delle azioni nel breve, nel medio e nel lungo termine:
  1. nel breve, i prezzi sono mossi dai market maker di opzioni che devono coprire il Delta delle proprie posizioni. Sotto determinate condizioni, questo può generare mean reversion o momentum nel corso della giornata e tra una giornata e l'altra. Quindi mi serve un modello per valutare quanto e come il loro inventario di rischio potrebbe risultare sbilanciato a seconda dei flussi che ricevono;
  2. nel medio, i prezzi sono mossi dai fondi che seguono pedissequamente la risk parity e bilanciano 1, 2 o 4 volte al mese. In questo caso avrò due effetti indipendenti: una mean reversion della roba che è salita/scesa di più per via del "volatility pumping" e le reazioni di adeguamento dei pesi a come sono cambiate le volatilità e le correlazioni tra asset class;
  3. nel lungo, i prezzi sono mossi dai gestori che cercano azioni a sconto con dei bei cash flow e cercano di interpretare i dati macroeconomici. In questo caso, siccome questi soggetti tendenzialmente danno mandato di entrare in modo discreto nel tempo, si crea un drift e a volte invece certi movimenti da elefante nella stanza dei cristalli.
Fatte le mie ipotesi su chi e come può muovere il mercato che sto osservando, capisci che caricare scikit-learn o Keras è l'ultimo dei miei problemi perché prima dovrò costruire dei modelli che mi consentano di vedere quello che vedono questi attori per poterli anticipare e validare o rigettare le mie ipotesi.

Adesso osservo il mercato obbligazionario: ha senso fare le stesse ipotesi? Nemmeno per idea, devo ipotizzare qualcosa di diverso.

Ipotizzo che:
  1. a muovere i prezzi nel breve termine sia l'emissione di carta nuova («carta nuova scaccia carta vecchia» si è sempre detto sul trading desk). Quindi starò dietro alle nuove emissioni. I market maker sono rimasti inchiodati coi prezzi congelati sulle vecchie emissioni perché sono pigri e non hanno aggiornato il quotatore?
  2. nel medio termine la parte obbligazionaria agisca da hedge di portafoglio nei confronti dell'equity, ma le correlazioni cambiano nel tempo e quindi dovrò verificare se davvero c'è questo effetto di ribilanciamento. Quanti fondi poi sono costretti a comprare/vendere perché hanno dei limiti da prospetto per cui il passaggio da IG a HY costringe a vendere/comprare?
  3. nel lungo termine ci sia una caccia di carta disallineata per ragioni di liquidità e struttura (e la caccia al rendimento reale), quindi parto col pricing e i disallineamenti lungo le curve di credito.
Anche qui, scegliere il kernel della SVM è l'ultimo dei problemi.

E capisci che non posso usare lo stesso modello operativo sia per le azioni sia per le obbligazioni se voglio anticipare questi attori.
Molto chiaro, ti ringrazio. In concreto però stai dicendo come non servano metodi quantitativi ma basti una analisi discrezionale, perchè queste valutazioni sono umane, soggettive ed esperienziali. Anche volendo non c'è applicazione del ML non potendo nemmeno dargli in pasto queste analisi. Giusto? Uno si compra la piattaforma Bloomberg e fine :D
In concreto, brutalmente: butto via tutti i libri di ML e mi dedico ad altro perchè tanto dentro non c'è nemmeno un granello di profitto? Lo faccio senza problemi eh.
Pensi sia ancora più saggio seguire non so un Garch o un approccio macro piuttosto che spendere ore a macinare con SVM e random forest?
Io comunque il deep learning me lo studierò, sono straconvinto che abbia enorme potenziale se ben applicato e penso che sia l'unico ambito di espansione futura. Specie su tick data e market making.
Te lo chiedo perchè sono ad un blocco ed avendo altri impegni devo decidere il tempo da dedicare, oltre all'ambito a cui dedicarmi. Ho perso la bussola sulle strade reali e potenziali per costruire qualcosa di efficace.
 
ma con le conoscenze che hai acquisito, hai pensato di proporti come data scientist o analytics?
Sono stipendi non disdegnabili.

C

In tutta onestà intanto tendo a sottostimarmi quindi non ritengo di avere ancora le competenze. Poi come lavoro fine a se stesso mi fa ribrezzo, sono sincero. E non sono tipo da stipendio, preferisco la libera professione e la libertà che potrebbe darti il trading :)
 
ok buttare la rete ed andare a strascio, ma se prima non individui la zona pescosa e il tipo di pesce che vuoi prendere è inutile che decidi la superficie della rete e la dimensione delle maglie; e fa differenza se la rete da un ettaro la butti in un laghetto alpino o al largo delle Azzorre.

:clap:

392f747ce0b9ad1fc9c94c8cf0e917a1.gif
 
Il prezzo ovviamente non lo è mai, ma se lo manipoli per renderlo tale ci diventa. Ma serve solo a evidenziare pattern sottostanti ripetuti, vai a comprare e vendere quelli e non il prezzo stesso. E' la logica del cambio di regime.

Come sopra, poi ovviamente qua siamo sempre nel campo della previsione dei prezzi e quindi per sua natura difficile. E' il solito discorso del "se funzionava prima chi lo dice funzioni in futuro?". Non sarebbe la pietra angolare del trading altrimenti.
Non sto parlando di manipolazioni econometriche, è una cosa legata a come funzionano i mercati: perchè tu possa fare un profitto, devi avere in mano qualcosa che ti renda un pelo più furbo di chi c'è dall'altra parte.

Se entrambi sapete che state negoziando una serie stazionaria, non ci può essere scambio perchè nessuno di voi due è fesso o fa beneficienza.

Perchè ci sia lo scambio, tu devi sapere che la serie è stazionaria e l'altro non essere a conoscenza dei vincoli (cfr. arbitraggio statistico); oppure tu devi sapere che la serie può andare dove le pare e la tua controparte pensare che esistono dei limiti (cfr. EURCHF del 2015).
Molto chiaro, ti ringrazio. In concreto però stai dicendo come non servano metodi quantitativi ma basti una analisi discrezionale, perchè queste valutazioni sono umane, soggettive ed esperienziali. Anche volendo non c'è applicazione del ML non potendo nemmeno dargli in pasto queste analisi. Giusto? Uno si compra la piattaforma Bloomberg e fine :D
In concreto, brutalmente: butto via tutti i libri di ML e mi dedico ad altro perchè tanto dentro non c'è nemmeno un granello di profitto? Lo faccio senza problemi eh.
Pensi sia ancora più saggio seguire non so un Garch o un approccio macro piuttosto che spendere ore a macinare con SVM e random forest?
Io comunque il deep learning me lo studierò, sono straconvinto che abbia enorme potenziale se ben applicato e penso che sia l'unico ambito di espansione futura. Specie su tick data e market making.
Te lo chiedo perchè sono ad un blocco ed avendo altri impegni devo decidere il tempo da dedicare, oltre all'ambito a cui dedicarmi. Ho perso la bussola sulle strade reali e potenziali per costruire qualcosa di efficace.
Io e te non ci stiamo capendo.

Un po' mi ricordi me da giovane (anche se, da quanto ho capito, anagraficamente sono un pelo più giovane io) :D

Quello che ti sto dicendo è che la cosa più importante non è il funzionamento del marchingegno che usi, non importa che parliamo di SVM, LSTM, GPR, GARCH o Random Forest: la singola cosa più importante è che tu abbia una idea di cosa vuoi cercare e indagare per prendere una posizione sul mercato; una volta che l'hai chiaro, il modello da usare è solo una semplice conseguenza della necessità di farti aiutare dai dati e di rendere il tutto il più automatico possibile.

Da questo punto di vista non c'è alcuna distinzione tra le cose che chiami "econometria", "statistica classica" e "ML": sono tutte scatole dentro le quali puoi mettere quello che vuoi e che possono tornarti informazione o rumore a seconda di cosa vuoi modellare. Che differenza vuoi che ci sia in termini pratici tra un GARCH con la massima verosimiglianza e una regressione bayesiana sui rendimenti con varianza tempo-variante? Nessuna! La vera domanda è se l'output che ottieni è qualcosa che vedi solo tu o se lo vedono (sotto forme diverse) anche tutti gli altri: nel primo caso, puoi pensare di lavorarci una strategia; nel secondo, non hai in mano nulla.

Quindi io non ti sto dicendo di buttare tutto nel cestino a priori, ma se addestri la tua rete a cinquanta strati nascosti e migliaia di neuroni sui prezzi battuti dai market maker devi farti le domande giuste su cosa potrebbe individuare e perchè, e a quel punto la scelta delle feature diventa naturale. Cerchiamo il market maker sul mercatino italiano che si dimentica di aggiornare il quotatore quando va o torna dalla pausa pranzo? Abbiamo il sentore che il market maker si sia agganciato in modo maldestro al prezzo di altri strumenti che usa come copertura per evitare di essere infinocchiato? Certo, ma quali? Se lascio fare alla rete neurale, questa mi dirà che tutte le opzioni listate sul CBOE si muovono in modo non lineare assieme al loro sottostante: tu guarda che sorpresa, davvero inaspettato :clap: (*)

P.S.: non pensare che Bloomberg ti aiuti così tanto se non sai esattamente cosa chiedergli, te lo dice uno che ormai sono quasi 10 anni che lo usa. Comunque i limiti delle API rendono difficile creare sistemi e scansioni su larga scala, è tutto un gigantesco bluff ;)

(*) In realtà qui una ricerca approfondita potrebbe rilevare alcuni meccanismi interessanti che vanno oltre quelli ovvi, ma ancora una volta si tratta di sapere in anticipo cosa cercare anziché buttare tutto dentro alla rete neurale.
 
Ultima modifica:
A proposito di cose che innescano altre cose... Spero non vi stiate perdendo GME da un paio d'ore a questa parte :cool:
 
Ci sta "giocando" @Imar con le opzioni Gamestop! :D
Winton

Avevamo commentato che la IV delle sue opzioni ha "svalvolato"... :specchio:
Concordo sia con l'uso delle ITM sia con il tentativo di "dispersion trading" su XRT, dove immagino che la IV(ariance) media ponderata delle varie azioni in pancia non combaciasse con quella dell'ETF nonostante GME (io ero dentro GME a cavallo del casino e XRT non l'ho proprio guardato).

La correlazione implicita fa quadrare i conti ma com'era rispetto a quella storica?
 
Non sto parlando di manipolazioni econometriche, è una cosa legata a come funzionano i mercati: perchè tu possa fare un profitto, devi avere in mano qualcosa che ti renda un pelo più furbo di chi c'è dall'altra parte.

Se entrambi sapete che state negoziando una serie stazionaria, non ci può essere scambio perchè nessuno di voi due è fesso o fa beneficienza.

Perchè ci sia lo scambio, tu devi sapere che la serie è stazionaria e l'altro non essere a conoscenza dei vincoli (cfr. arbitraggio statistico); oppure tu devi sapere che la serie può andare dove le pare e la tua controparte pensare che esistono dei limiti (cfr. EURCHF del 2015).
Però se il mercato è super liquido e non regolamentato i polli che non lo sappiamo li trovi sempre :p

Io e te non ci stiamo capendo.

Un po' mi ricordi me da giovane (anche se, da quanto ho capito, anagraficamente sono un pelo più giovane io) :D

Quello che ti sto dicendo è che la cosa più importante non è il funzionamento del marchingegno che usi, non importa che parliamo di SVM, LSTM, GPR, GARCH o Random Forest: la singola cosa più importante è che tu abbia una idea di cosa vuoi cercare e indagare per prendere una posizione sul mercato; una volta che l'hai chiaro, il modello da usare è solo una semplice conseguenza della necessità di farti aiutare dai dati e di rendere il tutto il più automatico possibile.

Da questo punto di vista non c'è alcuna distinzione tra le cose che chiami "econometria", "statistica classica" e "ML": sono tutte scatole dentro le quali puoi mettere quello che vuoi e che possono tornarti informazione o rumore a seconda di cosa vuoi modellare. Che differenza vuoi che ci sia in termini pratici tra un GARCH con la massima verosimiglianza e una regressione bayesiana sui rendimenti con varianza tempo-variante? Nessuna! La vera domanda è se l'output che ottieni è qualcosa che vedi solo tu o se lo vedono (sotto forme diverse) anche tutti gli altri: nel primo caso, puoi pensare di lavorarci una strategia; nel secondo, non hai in mano nulla.

Quindi io non ti sto dicendo di buttare tutto nel cestino a priori, ma se addestri la tua rete a cinquanta strati nascosti e migliaia di neuroni sui prezzi battuti dai market maker devi farti le domande giuste su cosa potrebbe individuare e perchè, e a quel punto la scelta delle feature diventa naturale. Cerchiamo il market maker sul mercatino italiano che si dimentica di aggiornare il quotatore quando va o torna dalla pausa pranzo? Abbiamo il sentore che il market maker si sia agganciato in modo maldestro al prezzo di altri strumenti che usa come copertura per evitare di essere infinocchiato? Certo, ma quali? Se lascio fare alla rete neurale, questa mi dirà che tutte le opzioni listate sul CBOE si muovono in modo non lineare assieme al loro sottostante: tu guarda che sorpresa, davvero inaspettato :clap: (*)
Ho 35 anni, non voglio credere tu sia più giovane ed abbia iniziato ad usare la Bloomberg al liceo :D
In sostanza mi stai dicendo che si debbano prima stabilire le inefficienze da trovare e poi analizzare per trovarle. Quindi se fai analisi fondamentale valuti macro, se no analisi statistiche o i giusti dati da dare in pasto al modello ML, giusto? Si riduce a questo.
Però, c'è un però. Le inefficienze alla fine si possono ridurre alle categorie mean reversion, momentum, cicli e regimi, arbitraggio, macro ed eventi. Quasi tutte ricadono qua.
Il punto è che essendo io un autodidatta di armi ce ne siano poche. Usi libri, forum, articoli, codici trovati, paper. Fine. Gli altri trader giustamente non ti danno dritte troppo specifiche per non rivelare dati sensibili perciò devi fare tutto da solo, non hai la possibilità di imparare da professionisti o lavorando in hedge fund a diretto contatto con strategie vere e profittevoli di alto livello. E quelle sono tutte fonti comuni, standard, con poco margine di fantasia. Alla fine ti ritrovi spaesato perchè le tecniche sono sempre quelle e non essendo un matematico in grado di elaborare modelli del tutto nuovi usi quelli che sai. Non saprei nemmeno come approcciarmi per trovare nuove inefficienze, non saprei nemmeno quali particolari indicazioni cercare in un prezzo che non siano quelle scritte su un libro. Ad esempio: sapere di una ratio particolare calcolata tra il prezzo tot e l'SP500 capace di spiegare una mean reversion è da professionista con esperienza nel campo, un autodidatta quel tipo di feature lo scopre solo se il libro o il blog pincopallo lo consigliano. Cioè tu stai un gradino (almeno) sopra a me, io senza consigli specifici non posso fare altro. E credimi mi manca solo di cercare nel deep web tra i file del Pentagono. Non so se mi spiego.

P.S.: non pensare che Bloomberg ti aiuti così tanto se non sai esattamente cosa chiedergli, te lo dice uno che ormai sono quasi 10 anni che lo usa. Comunque i limiti delle API rendono difficile creare sistemi e scansioni su larga scala, è tutto un gigantesco bluff ;)
Limiti delle API dei broker classici o della Bloomberg intendi? Stai dicendo, quindi, che diventa inutile creare una strategia quantitativa per un retail.

(*) In realtà qui una ricerca approfondita potrebbe rilevare alcuni meccanismi interessanti che vanno oltre quelli ovvi, ma ancora una volta si tratta di sapere in anticipo cosa cercare anziché buttare tutto dentro alla rete neurale.
Torniamo alle categorie suddette, si. Ma a priori non si possono sapere dei meccanismi di un prezzo, dei pattern. Si usa il ML proprio per sgamare quelli che l'occhio nudo non può trovare, nascosti nel rumore. Va da sè l'impossibilità di una ipotesi. Cioè non posso cercare un trend se per sapere dell'esistenza del trend devo usare le tecniche di ML. E' una strada senza uscita quindi dai in pasto tutti i dati possibili che spieghino tutte le potenziali inefficienze e che siano correlati al target. Se come target ho il return di domani perchè dovrei cercare una feature per spiegare una inefficienza che non so nemmeno se ci sia invece di dargli una feature che sa spiegare bene il return stesso? Gli do il return t-1 per dire, anche non sapendo se l'autocorrelazione sia dovuta ad una particolare inefficienza. E' cervellotico ma spero si capisca.
 
Concordo sia con l'uso delle ITM sia con il tentativo di "dispersion trading" su XRT, dove immagino che la IV(ariance) media ponderata delle varie azioni in pancia non combaciasse con quella dell'ETF nonostante GME (io ero dentro GME a cavallo del casino e XRT non l'ho proprio guardato).

La correlazione implicita fa quadrare i conti ma com'era rispetto a quella storica?

Solo una piccola precisazione: il "dispersion trading" nel caso in esame era complesso da eseguire ( o meglio, era molto meno "coperto" del solito), non tanto perchè si sarebbe stati "short implied correlation" ... (cosa che capita sempre ed è il motivo stesso perchè esiste un risk premium anche nella implied correlation) e neppure perchè anche broker primari quali IB avevano inibito il trading su opzioni GME anche per le posizioni LONG (il che da solo spiega che la tutela dei clienti era l'ultimo dei loro problemi...).

Il vero problema era che il peso di GME dentro XRT è variabile in relazione all'andamento relativo della sua quotazione rispetto agli altri componenti.
Cosa che è sempre vera, ma che in genere non crea grossi problemi, dato che è raro che in un ETF "sonnacchioso" ci sia un titolo che all'improvviso si muove del 100% nel giro di qualche ora.
Nel caso specifico, quando ho scritto l'altro post, GME era il 20% di XRT, ma se fosse continuato a salire a mò di razzo, poteva diventarne anche il 30-40-50%... così facendo evaporare anche ogni possibile premio di arbitraggio tra le volatilità implicite.

Questo lo specifico solo perchè se dovesse iniziare un altro giro di giostra (lo spero, così replico pari pari l'operatività passata...) , spero che nessuno che legge si faccia male con tentativi di "dispersion trading" e poi venga qui a lamentarsi col sottoscritto.

Io non ho consigliato arbitraggi nè fatto previsioni, ho solo notato che - NEL MOMENTO IN CUI SCRIVEVO - la IV di XRT era più sopravalutata di quella di GME (ergo scontava il fatto che GME continuasse a salire IN TERMINI RELATIVI, cioè rispetto agli altri componenti dell'ETF), e che la cosa era evidente anche a livello di un banale confronto storico, cioè senza scomodare complessi modelli matematici...
 

Allegati

  • XRT_GME.jpg
    XRT_GME.jpg
    99,8 KB · Visite: 11
Scusate ma le opzioni con le nuove norme non erano vietate in Europa? Almeno come retail. Mai usate per scelta, quindi mi rendo conto la domanda possa essere ridicola.
 
Condivido quello che ha scritto Cren. Cosa che ho anche scritto io all'inizio.

Qualsiasi cosa si voglia far apprendere alla macchina sarebbe opportuno sapere quale è il modello che voglio ottimizzare, perchè parliamoci chiaro di ottimizzazione si tratta.

Rimanendo strettamente in topic effettivamente il ML si suddivide in supervisionato e non supervisionato. Diciamo che nel non supervisionato non ci punterei neanche i classici due cents.

Ma poi mi chiedo sempre e qui mi rivolgo a Federico o all'ipotetico lettore, avete prima di tutto fatto una analisi Ottimizzazione-Forward? No perchè se già questa va male la storia finisce li.

Io per esempio prima di andare avanti in una discussione dico sempre fammi MINIMO vedere la proiezione FORWARD a seguito dell'Ottimizzazione.

Come scrivevo, all'inizio avevo un risultato in termini di Ottimizzazione esagerato e poi crollava nella proiezione forward. Voglio dire ad un certo punto me ne frego di tutto e valuto l'effettiva capacità di ottenere i risultati.

Pochissimi fanno questo test che io reputo preliminare.
 
Condivido quello che ha scritto Cren. Cosa che ho anche scritto io all'inizio.

Qualsiasi cosa si voglia far apprendere alla macchina sarebbe opportuno sapere quale è il modello che voglio ottimizzare, perchè parliamoci chiaro di ottimizzazione si tratta.

Rimanendo strettamente in topic effettivamente il ML si suddivide in supervisionato e non supervisionato. Diciamo che nel non supervisionato non ci punterei neanche i classici due cents.

Ma poi mi chiedo sempre e qui mi rivolgo a Federico o all'ipotetico lettore, avete prima di tutto fatto una analisi Ottimizzazione-Forward? No perchè se già questa va male la storia finisce li.

Io per esempio prima di andare avanti in una discussione dico sempre fammi MINIMO vedere la proiezione FORWARD a seguito dell'Ottimizzazione.

Come scrivevo, all'inizio avevo un risultato in termini di Ottimizzazione esagerato e poi crollava nella proiezione forward. Voglio dire ad un certo punto me ne frego di tutto e valuto l'effettiva capacità di ottenere i risultati.

Pochissimi fanno questo test che io reputo preliminare.
No aspetta la forward optimization s fa alla fine come backtest della strategia, almeno per come la conosco io. Non la faccio perchè sono piantato sulla strategia e sui bias non uscendone. Su cosa la fai all'inizio?
 
Indietro