No lo digo yo, daykoku... me falta mucho para ese nivel, si es que es posible conseguirlo.
Como he dicho durante todo el hilo, hay un marco teórico histórico, que se estudia de forma reglada.
Yo creo que desde Von Newman con el proyecto Manhatan y su creación de la simulación de montecarlo y con una aplicación más específica en el año 1959 con Markowitz y sus discípulos, se crean modelos deterministicos con las hipótesis de que:
1º. La rentabilidad de cualquier título o cartera, es una variable aleatoria de caracter subjetivo, cuya distribución de probabilidad para el periodo de referencia es conocido por el inversor. El valor medio o esperanza matemática de dicha variable aleatoria se acepta como medida de la rentabilidad de la inversión.
2.º Se acepta como medida del riesgo la dispersión, medida por la varianza o la desviación estándar de la variable aleatoria que describe la rentabilidad, ya sea de un valor individual o de una cartera.
3.º El rollo que se sobreentiende de que "el inversor prefiere carteras de mayor rentabilidad y menor riesgo".
Esta idea a evolucionado pero no se pudo probar hasta que los ordenadores no fueron capaces de realizar todos los cálculos necesarios.
Por eso la medida de riesgo (volatilidad) aceptada por toda la comunidad "bolsera" es la varianza y/o desviación típica. La idea era simple, surgió del hecho de que si la varianaza fuese cero no habría incertidumbre. Así, cuanto menor sea esta, menor será el posible rango de variación de los rendimientos, menor la incertidumbre y, por lo tanto, el riesgo.
Pero lo que se "descubrió" después es que, si los valores que toma una variable cambian a través del tiempo en forma incierta. A esto se le llama proceso estocástico. Pueden ser discretos y contínuos.
Si en el caso discreto, el proceso estocástico puede cambiar solamente en ciertos puntos fijos en el tiempo, en el contínuo los cambios se pueden dar en cualquier momento. Existe la misma clasificación según el tipo de variable: contínuas y discretas. Las primeras toman valores dentro de cierto rango y las segundas sólo son posibles ciertos valores.
Con todo esto, yo saco la conclusión de que
para modelar el precio de cualquier activo cotizado puedo utilizar un proceso estocástico variable y de tiempo contínuo. Toca empollarlo, jejeje
Durante un tiempo estudié el Market Profile y, seguí indagando a cerca de la idea de que los precios se forman de acuerdo una distribución estadística (que hay muchas, no solo la normal) y empecé por aquí:
http://www.x-trader.net/articulos/siste ... ciona.htmlHan llovido meses desde entonces y muchs "tochos" leídos después, casi todos coinciden en que la distribución que mejor se adapta a estas "cuentas" será la Log-normal. Su proceso para precios
futuros será:
S(t)=S(0)exp(μ -0,5 σ^2)t+σ*(t^0,5)z
donde:
S(0): será el último precio del periodo elegido (cierre).
μ: la media de los logaritmos de los rendimientos.
σ: desviación estándar de los logaritmos de los rendimientos
z: variable aleatoria con distribución de probabilidad normal (0,1)
t: tiempo
Esto, daykoku, después de esta "chapa" solo es un modelo matemático que quiere representar la realidad por medio de símbolos abstractos y relaciones que pueden ser manipulados con reglas y técnicas que garanticen un rigor lógico en el resultado. Hay quien después de hacer un modelo heurístico sobre esto se complica tanto que no hay ordenador capaz de calcular todas las restricciones. Otros, tengo entendido, que prueban con algoritmos genéticos y redes neurales,
aquí es donde me acuerdo cuando en los mapas antigüos se decía: ... más allá hay dragones,
De momento me he concentrado en los procesos estocásticos y probabilísticos porque la aleatoriedad y la incertidumbre están envueltas en sus procesos de manera esencial. Incluso un modelo Boostrap(autosuficiente).
Postearé un modelo que nos diga ese rango que quieres... siguiendo la teoría expuesta. Aunque, con toda la información que he posteado, ya podrías haber hecho una prueba empírica, no crees
Sl2.