Come utilizzare operativamente modelli di realized variance

  • Trading Day 19 aprile Torino - Corso Gratuito sull'investimento

    Migliora la tua strategia di trading con le preziose intuizioni dei nostri esperti su oro, materie prime, analisi tecnica, criptovalute e molto altro ancora. Iscriviti subito per partecipare gratuitamente allo Swissquote Trading Day.

    Per continuare a leggere visita questo LINK

the learner

Nuovo Utente
Registrato
23/2/07
Messaggi
965
Punti reazioni
33
Ciao,

Leggendo vari papers sul modello HAR-RV del prof. Corsi sembra che l'utilizzo della realized variance a 1g, 5gg e 21gg nel modello dia migliori risultati out of sample rispetto ad altri modelli per la previsione della volatilità.

Chi lo utilizza? Con che finalità (es. nel trading in opzioni)?
È possibile usare le RV nel calcolare il variance ratio per identificare mean reversion nella serie dei prezzi?

Quello della RV sembra un tema molto interessante. Spero in qualche testimonianza di utilizzo.

Grazie.
 
Ciao, si tratta di un tema che non vale la pena approfondire oppure ho posto male la questione? :)
 
facci vedere una stima Har sullo SP500
 
se non è un segreto ovviamente..:D
 
Ciao Sig. Ernesto, personalmente non ho applicato il modello ma ho letto solo i paper del professor Corsi.
Chiedevo la vostra opinione circa l'utilità operativa del modello.
Si tratta di un modello oggettivamente superiore ai classici modelli tipo GARCH che è possibile utilizzare anche sul sito V-Lab?
Leggendo i paper sembrerebbe di sì ma mi farebbe piacere avere l'opinione degli operatori e non solo degli accademici.
Grazie :)
 
Ciao the learner, ti rispondo qui anziché in m.p. sia perché mi sembra in tema sia perché altrimenti non posso allegare.

  • Il problema di quel codice per il calcolo del VIX (cfr. Bakshi, Kapadia e Madan (2003)) è stato individuato e brillantemente risolto dall'utente Thymon non davanti alla sua piattaforma di trading ma davanti ad un bicchiere di vino bianco, giusto per rimarcare chi è il fuoriclasse e chi ha ancora molto da imparare :D Sostanzialmente l'esclusione o il troncamento delle "code" delle option chain falsa il risultato, quindi bisogna includere tutte le DOTM;
  • per quanto riguarda il filtro di Kalman, ti allego sia un esempio di codice in R sia - soprattutto - una serie di avvertenze:
    Codice:
    install.packages("dlmodeler")
    require(dlmodeler)
    
    [COLOR="Gray"]###############################
    # Analisi da Durbin & Koopman #
    # Random Walk                 #
    ###############################
    
    # Carica e mostra i dati[/COLOR]
    y <- matrix(Nile, nrow = 1)
    plot(y[1,], type = 'l',
         main = "Nile",
         ylab = "Nile Level",
         xlab = "")
    
    [COLOR="gray"]# y(t)   = a(t) + eta(t)
    # a(t + 1) = a(t) + eps(t)
    # con la parametrizzazione (phi) proposta[/COLOR]
    build.fun <- function(p) {
      varH <- exp(p[1])
      varQ <- exp(p[2]) * varH
      dlmodeler.build.polynomial(0, sqrt(varH), sqrt(varQ), name = 'p32')
    }
    
    [COLOR="gray"]# Fit del modello col metodo della massima verosimiglianza[/COLOR]
    fit <- dlmodeler.fit.MLE(y, build.fun, c(0,0), verbose = FALSE)
    
    [COLOR="gray"]# Confronta i parametri del fitting con quelli riportati dagli autori[/COLOR]
    fit$par[2]        [COLOR="gray"]# psi = -2.33[/COLOR]
    fit$model$Ht[1,1] [COLOR="gray"]# H   = 15099[/COLOR]
    fit$model$Qt[1,1] [COLOR="gray"]# Q   = 1469.1[/COLOR]
    
    [COLOR="gray"]# Calcola i valori filtrati e "smoothed"[/COLOR]
    f <- dlmodeler.filter(y, fit$mod, smooth = TRUE)
    
    [COLOR="gray"]# f.ce rappresenta le osservazioni attese filtrate e previste un passo avanti
    # E[y(t) | y(1), y(2), ..., y(t-1)][/COLOR]
    f.ce <- dlmodeler.extract(f, fit$model,
                              type = "observation", value = "mean")
    
    [COLOR="gray"]# s.ce rappresenta le osservazioni attese "smoothed"
    # E[y(t) | y(1), y(2), ..., y(n)][/COLOR]
    s.ce <- dlmodeler.extract(f$smooth, fit$model,
                              type = "observation", value = "mean")
    
    [COLOR="gray"]# Plot[/COLOR]
    plot(y[1,], type = 'l',
         main = "Nile",
         ylab = "Nile Level",
         xlab = "")
    lines(f.ce$p32[1,], col = 'red', lwd = 2)
    lines(s.ce$p32[1,], col = 'green', lwd = 2)
    grid()
    legend("topright",
           legend = c("Nile level",
                      "Filtered level",
                      "Smoothed level"),
           bty = "n",
           lwd = c(1,2,2),
           col = c(1:3))
    Il codice imposta una serie storica strutturale su livello del Nilo ed estrae i valori filtered (previsione rolling, non guarda al "futuro") e smoothed (estrae il trend guardando a tutta la serie storica). Tra la serie storica delle piene del Nilo e una serie storica finanziaria c'è una bella differenza, e usare quel codice su una qualsiasi serie finanziaria ti darà risultati molto deludenti. Se invece hai in mente altre applicazioni, spero possa esserti utile;
  • per quanto riguarda le applicazioni della RV, mi sembra strano che girovagando su Google tu non ti sia imbattuto in una delle applicazioni "base" che sostanzialmente tutti tirano in ballo quando si tratta di RV & opzioni. Prendo a caso ad esempio Introducing QuantLib: Implied Volatility dove si suggerisce «[...] Is the level of volatility being charged for a particular option too high or too low? If the option’s sigma is too high versus fair value, as determined by some independent estimate of realized volatility over the life of the option, then you may want to sell it. Likewise, if sigma is too low, then you may want to buy the option.»
Ciao!
 

Allegati

  • Rplot02.png
    Rplot02.png
    11,5 KB · Visite: 228
Ultima modifica:
Immagino sia utilissimo se hai una risaia.
 
Le faccio vedere una cosa e faccio un'opera meritoria:

Rispondo alla sua domanda "che ci faccio con la RV (come provo a farci soldi)"


Lei qui a 3 modelli di stima della volatilità generica (un implicita, un garch close to close(1,1) e un LMDRV)

Secondo lei, quale utilizzatore di quale modello gode di un vantaggio assoluto rispetto ad eventuali altri?

Ecco, Renò e Corsi questo tentano di dire.

Sul nilo ce vada a fa la crociera e si porti quantlib.

Usate la testa, non i softwares.

:bye:

Ciao Sig. Ernesto e grazie per la risposta.
Potresti cortesemente chiarirmi il messaggio di quei grafici? Non mi e' molto chiaro ad esempio come leggere i vari quadranti del grafico che mostra gli scatter plot delle log differenze.
Scusami e grazie mille ancora.
 
Ciao the learner, ti rispondo qui anziché in m.p. sia perché mi sembra in tema sia perché altrimenti non posso allegare.


Il problema di quel codice per il calcolo del VIX (cfr. Bakshi, Kapadia e Madan (2003)) è stato individuato e brillantemente risolto dall'utente Thymon non davanti alla sua piattaforma di trading ma davanti ad un bicchiere di vino bianco, giusto per rimarcare chi è il fuoriclasse e chi ha ancora molto da imparare :D Sostanzialmente l'esclusione o il troncamento delle "code" delle option chain falsa il risultato, quindi bisogna includere tutte le DOTM;

Grazie Cren, intendi che occorre includere tutte le OTM che hanno avuto un last in giornata?
Relativamente ai prezzi/IV cosa usare? Lo spread bid/ask a quei livelli puo' essere molto elevato e la scelta potrebbe essere condizionante sui risultati finali.
Sono comunque molto felice di sapere che tutto funziona bene. ;)
E' Thymon che doveva parlarti anche dell'interpolazione dello smile per evitare probabilita' negative?
Spero ci legga e che possa dare qualche idea qui. :)

per quanto riguarda il filtro di Kalman, ti allego sia un esempio di codice in R sia - soprattutto - una serie di avvertenze:

Il codice imposta una serie storica strutturale su livello del Nilo ed estrae i valori filtered (previsione rolling, non guarda al "futuro") e smoothed (estrae il trend guardando a tutta la serie storica). Tra la serie storica delle piene del Nilo e una serie storica finanziaria c'è una bella differenza, e usare quel codice su una qualsiasi serie finanziaria ti darà risultati molto deludenti. Se invece hai in mente altre applicazioni, spero possa esserti utile;

Il filtro pensavo di applicarlo per:

- stimare il mean price in maniera dinamica in modo da replicare la logica usata dai market maker per aggiornare la loro stima del prezzo medio di un titolo. Leggo dal testo di Sinclair che i market maker usano il filtro per stimare il valore medio (hidden variable) in maniera dinamica.
Questo credo sia vicino all'utilizzo del filtro come surrigato delle medie mobili. :confused:

- come hai suggerito, stimare i coefficienti della regressione lineare che sottosta' all'ADF test per valutare la presenza, o meno, di stazionarieta' nella serie.

per quanto riguarda le applicazioni della RV, mi sembra strano che girovagando su Google tu non ti sia imbattuto in una delle applicazioni "base" che sostanzialmente tutti tirano in ballo quando si tratta di RV & opzioni. Prendo a caso ad esempio Introducing QuantLib: Implied Volatility dove si suggerisce «[...] Is the level of volatility being charged for a particular option too high or too low? If the option’s sigma is too high versus fair value, as determined by some independent estimate of realized volatility over the life of the option, then you may want to sell it. Likewise, if sigma is too low, then you may want to buy the option.»
[/LIST]
Ciao!

Si si, questo si. Ma tra RV e IV c'e' sempre una differenza (variance risk premium). Quindi la questione e' capire se la IV e' troppo alta rispetto alla RV non basta vedere se "IV>RV" ma bisogna capire qual'e' il premio al rischio da includere per valutare la relazione tra le due vola e capire quando si arrivi ad una situazione in cui sia ragionevolmente conveniente vendere o comprare vola. Ti sei imbattuto in queste tematiche?

Pensavo (ed anche su questo abbiamo discusso ma avrei molto piacere a discuterne ulteriormente visto che sto continuando a salvare i dati a 5 minuti) ad un utilizzo della HAR-RV nel calcolo del variance ratio test.

In soldoni, l'obiettivo e' sempre quello di identificare un regime (trend o mean reversion) in modo da condizionare la scelta di effettuare o meno un aggiustamento di delta in una strategia in opzioni.

Riassumendo:
- ADF + variance ratio per stimare presenza di trend o mean reversion
- stima della RV

Entrambe le analisi per farmi capire: ok devo aggiustare una posizione in opzioni... mi conviene farlo ora (continua trend contro la mia posizione) oppure posso farlo gradualmente (perchè stimo probabile una mean reversion)? Inoltre, mi conviene fare un aggiustamento che aumenti il vega o che lo diminuisca? Lo stesso col gamma (che credo più connesso alla stima della RV).

Grazie. :)
 
Ultima modifica:
Ti chiedo scusa, siete troppo indietro con la volatilità che è un argomento molto piu' serio di quel che si crede. Li cancello e magari più avanti ne riparliamo:)
 
Ti chiedo scusa, siete troppo indietro con la volatilità che è un argomento molto piu' serio di quel che si crede. Li cancello e magari più avanti ne riparliamo:)

Ciao Sig. Ernesto,

Quei grafici erano certamente utili e mi spiace tu li abbia cancellati per colpa mia. Sono oggettivamente indietro con queste nozioni ma questo avrebbe potuto essere un buono spunto per concentrare l'attenzione mia e di chiunque volesse approfondire quest'importante tema.
Spero tu possa riconsiderare l'inserimento dei grafici. Per me la cosa poco chiara erano gli assi dei vari qudranti.

Grazie comunque.
 
Grazie Cren, intendi che occorre includere tutte le OTM che hanno avuto un last in giornata?
Relativamente ai prezzi/IV cosa usare? Lo spread bid/ask a quei livelli puo' essere molto elevato e la scelta potrebbe essere condizionante sui risultati finali.
Tutte le opzioni, anche quelle che non hanno ancora fatto uno scambio in giornata ovviamente.

Il problema è in caso di denaro-lettera troppo largo per essere rappresentativo, e in quel caso non conosco ricette miracolose per risolvere il problema.
Il filtro pensavo di applicarlo per:

- stimare il mean price in maniera dinamica in modo da replicare la logica usata dai market maker per aggiornare la loro stima del prezzo medio di un titolo. Leggo dal testo di Sinclair che i market maker usano il filtro per stimare il valore medio (hidden variable) in maniera dinamica.
Questo credo sia vicino all'utilizzo del filtro come surrigato delle medie mobili. :confused:
Non ho il Sinclair sotto mano né mi ricordo quel particolare passaggio, ma ritengo che sia cruciale prima di lanciarsi sul filtro di Kalman - sulla cui utilità come media mobile resto comunque molto molto scettico - capire bene cosa vuoi fare: il filtro estrae tutto quello che vuoi da un sistema spazio-stato, ma prima di tutto devi specificare il sistema spazio-stato giusto per il tuo problema.

Quale sistema spazio-stato specifica Sinclair?

Pensavo (ed anche su questo abbiamo discusso ma avrei molto piacere a discuterne ulteriormente visto che sto continuando a salvare i dati a 5 minuti) ad un utilizzo della HAR-RV nel calcolo del variance ratio test.

In soldoni, l'obiettivo e' sempre quello di identificare un regime (trend o mean reversion) in modo da condizionare la scelta di effettuare o meno un aggiustamento di delta in una strategia in opzioni.

Riassumendo:
- ADF + variance ratio per stimare presenza di trend o mean reversion
- stima della RV

Entrambe le analisi per farmi capire: ok devo aggiustare una posizione in opzioni... mi conviene farlo ora (continua trend contro la mia posizione) oppure posso farlo gradualmente (perchè stimo probabile una mean reversion)?
Sì, l'intento è chiarissimo, ma devi considerare che se tu potessi scremare le fasi direzionali da quelle non direzionali in modo definitivo per il Delta hedging... probabilmente non ti servirebbe nemmeno il Delta hedging, perché ti basterebbe guardare se i prezzi stanno salendo e se il tuo indicatore magico ti segnala che siamo in trend per comprare a man bassa e finirla lì.

Quindi non aspettarti proprietà miracolose dal variance ratio.

Per quanto riguarda l'uso della RV nel variance ratio, lo puoi fare usando ad esempio l'HAR-RV (nell'esempio qua sotto 5 min. vs. 60 min.), ma permettimi di essere dubbioso a riguardo: più si aumenta la frequenza più tendenzialmente il rumore tende ad aumentare; siamo sicuri che la volatilità ricavata da frequenze elevate abbia proprietà tali che un confronto tra frequenze diverse possa restituire gli stessi rapporti che ci sono ad esempio tra misure giornaliere e settimanali? Mah.
Codice:
install.packages("highfrequency")
require(highfrequency)

[COLOR="Teal"]# Load sample price data[/COLOR]
data("sample_real5minprices")
ts = sample_real5minprices[,1]

[COLOR="teal"]# Previous tick aggregation to the 5-minutes sampling frequency[/COLOR]
tsagg5min = aggregatets(ts,
                        on = "minutes", 
                        k = 5)
data5min = makeReturns(tsagg5min)

[COLOR="teal"]# Previous tick aggregation to the 60-minutes sampling frequency[/COLOR]
tsagg60min = aggregatets(ts,
                         on = "minutes",
                         k = 60)
data60min = makeReturns(tsagg60min)

model_5 = harModel(data = data5min,
                   periods = c(1, 5, 22),
                   RVest = "rCov",
                   type = "HARRV",
                   h = 1)
model_60 = harModel(data = data60min,
                    periods = c(1, 5, 22),
                    RVest = "rCov",
                    type = "HARRV",
                    h = 1)
num = xts(model_5$fitted.values, 
          as.Date(names(model_5$fitted.values))) * 252
den = xts(model_60$fitted.values, 
          as.Date(names(model_60$fitted.values))) * 252
varianceRatio = num / den
par(mfrow = c(3,1))
plot.xts(ts["2005-03-26/"], 
         log = "y",
         main = "High frequency prices")
plot.xts(to.daily(ts)["2005-03-26/"], 
         log = "y",
         main = "Daily prices")
plot.xts(varianceRatio,
         main = "Variance ratio")
par(mfrow = c(1,1))
(Quella usata qua sopra è una serie artificiale, non soffermarti sulle sue caratteristiche e sui valori in particolare perché l'ho usata solo come esempio per farti vedere).
Inoltre, mi conviene fare un aggiustamento che aumenti il vega o che lo diminuisca? Lo stesso col gamma (che credo più connesso alla stima della RV).
Il Gamma è come reagisce l'opzione alla RV; se alzare o abbassare il Vega quando aggiusti dipende dalla tua posizione complessiva e dalla tua strategia, ma se ti poni di questi problemi troppo spesso sarei curioso di sapere quanto paghi di commissioni a opzione comprata/venduta :D
 

Allegati

  • Rplot01.png
    Rplot01.png
    11,1 KB · Visite: 159
Tutte le opzioni, anche quelle che non hanno ancora fatto uno scambio in giornata ovviamente.

Il problema è in caso di denaro-lettera troppo largo per essere rappresentativo, e in quel caso non conosco ricette miracolose per risolvere il problema.
Ciao Cren,
ma le DOTM non scambiate come le prezziamo in tal caso?

Non ho il Sinclair sotto mano né mi ricordo quel particolare passaggio, ma ritengo che sia cruciale prima di lanciarsi sul filtro di Kalman - sulla cui utilità come media mobile resto comunque molto molto scettico - capire bene cosa vuoi fare: il filtro estrae tutto quello che vuoi da un sistema spazio-stato, ma prima di tutto devi specificare il sistema spazio-stato giusto per il tuo problema.
Quale sistema spazio-stato specifica Sinclair?
Ne parla Sinclair in "Options trading" e c'è un riferimento nel testo di Chen. Vi allego le pagine relative.
In Chen sembra sia simile a quello di una media mobile (lui lo paragona ad un "volume and time weighted average price").

Sì, l'intento è chiarissimo, ma devi considerare che se tu potessi scremare le fasi direzionali da quelle non direzionali in modo definitivo per il Delta hedging... probabilmente non ti servirebbe nemmeno il Delta hedging, perché ti basterebbe guardare se i prezzi stanno salendo e se il tuo indicatore magico ti segnala che siamo in trend per comprare a man bassa e finirla lì.
Quindi non aspettarti proprietà miracolose dal variance ratio.
Mi sono espresso male, scusami. Non mi aspetto di trovare alcun indicatore magico. Tuttavia per operare (specie in modo semi-automatico) servono delle regole.
Quello che cerco è un sistema di regole che possa dettare i tempi di un sistema di operazioni di aggiustamento studiate in fase di what-if.
Es. un debit spread di call che va in sofferenza per il ribasso del sottostante... se ho delle regole quantitative che mi dicono che può essere in atto un trend, allora posso trasformare direttamente il bull spread in bear... se è più probabile una fase mean reverting allora posso pensare a prendere tempo trasformando prima in butterfly e poi, se i prezzi continuano a scendere, in bear spread.
In altri termini, queste regole devono aiutare nella scelta di quale aggiustamento attuare quando il sottostante o la IV lo richiede.
Per quanto riguarda l'uso della RV nel variance ratio, lo puoi fare usando ad esempio l'HAR-RV (nell'esempio qua sotto 5 min. vs. 60 min.), ma permettimi di essere dubbioso a riguardo: più si aumenta la frequenza più tendenzialmente il rumore tende ad aumentare; siamo sicuri che la volatilità ricavata da frequenze elevate abbia proprietà tali che un confronto tra frequenze diverse possa restituire gli stessi rapporti che ci sono ad esempio tra misure giornaliere e settimanali? Mah.
Il Gamma è come reagisce l'opzione alla RV; se alzare o abbassare il Vega quando aggiusti dipende dalla tua posizione complessiva e dalla tua strategia, ma se ti poni di questi problemi troppo spesso sarei curioso di sapere quanto paghi di commissioni a opzione comprata/venduta :D
L'idea di usare stime di RV a timeframe intraday era solo per rendere il sistema più veloce e poterlo usare intraday.
 

Allegati

  • Kalman - Chan.pdf
    68,5 KB · Visite: 996
  • Kalman - Sinclair.pdf
    142,4 KB · Visite: 1.057
...ma le DOTM non scambiate come le prezziamo in tal caso?
Non vedo alternative così valide come un mid price condizionato all'impossibilità di arbitraggio: cioé sostanzialmente la media di denaro e lettera fino al limite al di sotto (sopra) del quale l'opzione è arbitraggiabile.

Se si fora quel limite direi che vale la pena indagare di corsa.

Ma forse non ho capito bene la domanda.

Hai visto, ad esempio, il tipo di "pulizia" che effettua il CBOE quando calcola il VIX, no (pag. 12-15 di THE CBOE VOLATILITY INDEX - VIX)?
 
Ciao,

mi chiedevo se avesse senso utilizzare il quadrato delle IV ATM per calcolare il variance ratio.
Le IVs sono misure forward looking per cui, credo meglio di ogni altra cosa, incorporano le aspettative del market maker in merito alla vola futura.
Ma allora se volessimo testare che la varianza cresce linearmente col tempo (random walk) potremmo confrontare le IV lungo la term structure e quantificare la randomness usando una logica di tipo variance ratio.
Ci sono ragioni teoriche che io non riesco a vedere e che vadano contro un utilizzo delle IVs in un simile contesto? :confused:

Grazie.
 
mi chiedevo se avesse senso utilizzare il quadrato delle IV ATM per calcolare il variance ratio.
Le IVs sono misure forward looking per cui, credo meglio di ogni altra cosa, incorporano le aspettative del market maker in merito alla vola futura.
Ma allora se volessimo testare che la varianza cresce linearmente col tempo (random walk) potremmo confrontare le IV lungo la term structure e quantificare la randomness usando una logica di tipo variance ratio.
Ci sono ragioni teoriche che io non riesco a vedere e che vadano contro un utilizzo delle IVs in un simile contesto? :confused:
Sì che ci sono, e mi sembrano più pratiche che teoriche: il senso del variance ratio è che la varianza stimata su campioni di frequenza difforme e poi annualizzata è la stessa solo se si sta osservando un random walk (negli altri casi hai o trend o mean reversion).

Se usi la IV e ne metti il quadrato al numeratore (denominatore) mi spieghi cosa metti al denominatore (numeratore)? :D
 
Pensavo ad una cosa di questo tipo. Con un processo RW la varianza cresce linearmente col tempo. Se allora di RW si tratta dovrei osservare questa relazione tra le IVs ATM quotate (term structure). Tutte sono vola annualizzate relative a time frames diversi.
Vero che non è proprio la logica del VR (in cui si calcola la varianza per uno stesso periodo solo a frequenza diversa) ma pensavo alla relazione che dovrebbe essere rispettata in ipotesi di RW (square root of time nel caso delle vols).

Ma resto :confused::confused::confused:
 
Pensavo ad una cosa di questo tipo. Con un processo RW la varianza cresce linearmente col tempo. Se allora di RW si tratta dovrei osservare questa relazione tra le IVs ATM quotate (term structure). Tutte sono vola annualizzate relative a time frames diversi.
Non sono relative a time frame diversi, sono relative a scadenze diverse (per altro, come ben sai, come risultato indesiderato ma ormai ampiamente consolidato di un modello descrittivo sostanzialmente sbagliato).

In un random walk non dovrebbe esserci alcuna struttura a termine perché la volatilità è costante, non funzione del tempo.
 
Scusa Cren, intendevo diversa scadenza. :)
Provo a rifolmulare il tutto. Con il VR test ho una regola quantitativa per discriminare un mercato random da uno trending o mean reverting. Tutta l'analisi, come ogni analisi effettuata su dati storici, sarà lagging.
Pensavo all'uso di IV per avere una possibile indicazione leading.

Nel caso di aspettativa per un mercato RW le IV sulle varie scadenze dovrebbero essere legate dalla square root rule.

Quindi la struttura a termine delle IV potrebbe fornire info circa la struttura attesa del mercato (random, trending o mean reverting).

Ma sicuramente sbaglio perchè non trovo nulla in Taleb. :confused:
 
Nel caso di aspettativa per un mercato RW le IV sulle varie scadenze dovrebbero essere legate dalla square root rule.
Ma perché square root rule, scusa?

La square root rule ti dice che se hai un sottostante che ha volatilità giornaliera del 1.25% allora su base annua devi attenderti il 20% c.ca.

Ma le volatilità della struttura a termine sono tutte espresse su base annua equivalente e rappresentano volatilità tutt'altro che costanti: non è che quella a 1Y rappresenta quella a 30D "scalata", si tratta proprio di valori diversi perché è violata l'ipotesi di varianza costante.

Tu puoi benissimo prendere la volatilità a 3M, dividerla per la radice quadrata di 252 e vedere qual è la volatilità giornaliera prevista da 3M a oggi: quella volatilità a 3M non è la volatilità a 30D moltiplicata per la radice quadrata di 3!
 
Indietro