Análisis CuantitativoQué pena dejar morir los hilos que empezaron con estadísticas y econometría
No hay más "frikis" como yo que quieran indagar más en el análisis cuantitativo? El material a estudiar es muy extenso y seguro que tedioso para la mayoría. Sin embargo, a mí me ha ofrecido una visión completamente diferente de este negocio. Quizá halla que empezar por el principio y abrir una sección que como la del análisis técnico y el fundamental "oriente" a cerca de que es, como se hace y para que sirve. De momento, voy a atreverme a abrir un hilo nuevo para dar mi visión inicial. Que sería lo primero que podemos pensar de lo que nos ofrece cualquier producto cotizado? Una serie de datos en un espacio de tiempo. Así, cuando hablamos de una secuencia de valores observados a lo largo del tiempo, y por tanto ordenados cronológicamente, la denominamos, en un sentido amplio, serie temporal. Resulta difícil imaginar una rama de la ciencia en la que no aparezcan datos que puedan ser considerados como series temporales. Si, conocidos los valores pasados de la serie, no fuera posible predecir con total certeza el próximo valor de la variable, decimos que la serie es no determinista o aleatoria, y lógicamente es de éstas de las que se ocupa el cuerpo de doctrina denominado "análisis de series temporales". El análisis estadístico de series temporales se usa hoy día con profusión en muchas otras áreas de la ciencia, fundamentalmente en física, ingeniería, medicina y en economía. Los objetivos del análisis de series temporales son diversos, pudiendo destacar la predicción, el control de un proceso, la simulación de procesos, y la generación de nuevas teorías físicas o biológicas. Denominamos predicción a la estimación de valores futuros de la variable en función del comportamiento pasado de la serie. Este objetivo se emplea ampliamente en el campo de la ingeniería y de la economía, incluyendo en esta última rama también la sanidad pública y la vigilancia de la salud. Así por ejemplo, la predicción mediante modelos basados en la teoría de series temporales, puede servir para una buena planificación de recursos, en función de la demanda que se espera en el futuro, prevista por el modelo. Otro de los campos en los que se aplica la predicción mediante series temporales es el de la meteorología o en la predicción de otros fenómenos naturales. En la teoría de control de procesos, se trata de seguir la evolución de una variable determinada con el fin de regular su resultado. Esta teoría se utiliza en medicina, por ejemplo, en los Centros de Control de Enfermedades. La simulación se emplea en investigación aplicada, cuando el proceso es muy complejo para ser estudiado de forma analítica. Evidentemente aunque el valor futuro de una serie temporal no sea predecible con total exactitud, para que tenga interés su estudio, el resultado tampoco puede ser completamente aleatorio, existiendo alguna regularidad en cuanto a su comportamiento en el tiempo, lo que hará posible su modelado y por ende, en su caso, la predicción. La búsqueda de regularidades y de patrones ha sido siempre una de las tareas básicas de la ciencia, y muchas veces se descubren simetrías que sirven de fundamento para la predicción del comportamiento de los fenómenos, incluso antes de que se entienda la razón o causa que justifica esa regularidad. Esto ocurrió, por ejemplo, con el sistema periódico de los elementos, descrito por Mendeleiev, quien organizó de forma muy correcta los elementos químicos en base a las simetrías observadas entre ellos, antes de que se comprendiese la razón de esas simetrías o periodicidad. Por lo tanto, si podemos encontrar patrones de regularidad en diferentes secciones de una serie temporal, podremos también describirlas mediante modelos basados en distribuciones de probabilidad. La secuencia ordenada de variables aleatorias X(t) y su distribución de probabilidad asociada, se denomina proceso estocástico. Un proceso estocástico es por tanto el modelo matemático para una serie temporal. Un concepto importante que encontramos en este ámbito, es el de procesos estacionarios. Si examinamos, por ejemplo, la temperatura para un determinado mes a lo largo de los años en una determinada zona geográfica, y se está produciendo un cambio climático, aunque haya fluctuaciones, habrá una tendencia creciente. De una manera informal, diremos que una serie es estacionaria cuando se encuentra en equilibrio estadístico, en el sentido de que sus propiedades no varían a lo largo del tiempo, y por lo tanto no pueden existir tendencias. Un proceso es no-estacionario si sus propiedades varían con el tiempo, como el clima. Yo he encontrado tres enfoques diferentes, aunque relacionados, para el análisis de series temporales. Modelado clásico de series temporales El primer paso obligatorio para analizar una serie temporal es presentar un gráfico de la evolución de la variable a lo largo del tiempo, nos bastaría cualquiera de nuestra plataforma preferida. El siguiente paso consistirá en determinar si la secuencia de valores es completamente aleatoria o si, por el contrario, se puede encontrar algún patrón a lo largo del tiempo, pues sólo en este caso podremos seguir con el análisis. La metodología tradicional para el estudio de series temporales es bastante sencilla de comprender, y fundamentalmente se basa en descomponer las series en varias partes: tendencia, variación estacional o periódica, y otras fluctuaciones irregulares. * Tendencia. Es la dirección general de la variable en el periodo de observación, es decir el cambio a largo plazo de la media de la serie. * Estacionalidad. Corresponde a fluctuaciones periódicas de la variable, en periodos relativamente cortos de tiempo. * Otras fluctuaciones irregulares. Después de extraer de la serie la tendencia y variaciones cíclicas, nos quedará una serie de valores residuales, que pueden ser o no totalmente aleatorios. Volvemos a estar como en el punto de partida, pues ahora también nos interesa determinar si esa secuencia temporal de valores residuales puede o no ser considerada como aleatoria pura. Análisis de la tendencia Una primera idea sobre la presencia de tendencia en la serie la obtendremos en su representación gráfica. Pero no siempre estará tan clara y tendremos que ampliar el espacio de nuestro gráfico para que no se concentre en un posible "lateral". Los medios más utilizados para detectar y eliminar la tendencia de una serie se basan en la aplicación de filtros a los datos. Un filtro no es más que una función matemática que aplicada a los valores de la serie produce una nueva serie con unas características determinadas. Entre esos filtros encontramos las medias móviles. Una media móvil se calcula, para cada punto, como un promedio del mismo número de valores a cada lado de ese punto. Así una media móvil de tres puntos se calcula como: Mientras que una media móvil de cuatro puntos viene dada por Cuando la cantidad de puntos de la media móvil es par, se toma la mitad de los valores extremos. Existen otros procedimientos para extraer la tendencia, como ajuste de polinomios, alisado mediante funciones exponenciales, etc. Una clase de filtro, que es particularmente útil para eliminar la tendencia, se basa en aplicar diferencias a la serie hasta convertirla en estacionaria. Una diferencia de primer orden se obtiene restando dos valores contiguos: Como no se pueden subir más de 3 imágenes en cada post, continuaré en el siguiente. http://navarinversiones.blogspot.com/
Lo hago porque puedo, puedo porque quiero y quiero porque me dijeron que no podía.
Re: Análisis CuantitativoSi volvemos a diferenciar esa serie, restando los nuevos valores consecutivos obtenemos una nueva serie más suavizada.
Para analizar la estacionalidad de una serie introduciremos un concepto de gran interés en el análisis de series temporales: la función de autocorrelación. La función de autocorrelación mide la correlación entre los valores de la serie distanciados un lapso de tiempo k. Recordemos la fórmula del coeficiente de correlación simple, dados N pares de observaciones y, x: De igual forma, dada una secuencia temporal de N observaciones x1...xN, podemos formar N-1 parejas de observaciones contiguas ( x1, x2), ( x2, x3), ...( xN-1, xN) y calcular el coeficiente de correlación de estas parejas. A este coeficiente lo denominaremos coeficiente de autocorrelación de orden 1 y lo denotamos como r1. Análogamente se pueden formar parejas con puntos separados por una distancia 2, es decir ( x1, x3), ( x2, x4), etc. y calcular el nuevo coeficiente de autocorrelación de orden 2. De forma general, si preparamos parejas con puntos separados una distancia k, calcularemos el coeficiente de autocorrelación de orden k. Al igual que para el coeficiente de correlación lineal simple, se puede calcular un error estándar y por tanto un intervalo de confianza para el coeficiente de autocorrelación. La función de autocorrelación es el conjunto de coeficientes de autocorrelación rk desde 1 hasta un máximo que no puede exceder la mitad de los valores observados, y es de gran importancia para estudiar la estacionalidad de la serie, ya que si ésta existe, los valores separados entre sí por intervalos iguales al periodo estacional deben estar correlacionados de alguna forma. Es decir que el coeficiente de autocorrelación para un retardo igual al periodo estacional debe ser significativamente diferente de 0. Relacionada con la función de autocorrelación nos encontramos con la función de autocorrelación parcial. En el coeficiente de autocorrelación parcial de orden k, se calcula la correlación entre parejas de valores separados esa distancia pero eliminando el efecto debido a la correlación producida por retardos anteriores a k. El enfoque moderno de series temporales: modelos ARIMA A comienzo de los años 70, G.E.P. Box, profesor de Estadística de la Universidad de Wisconsin, y G.M. Jenkins, profesor de Ingeniería de Sistemas de la Universidad de Lancaster, introdujeron una pequeña revolución en el enfoque del análisis de series temporales, en sus trabajos sobre el comportamiento de la contaminación en la bahía de San Francisco, con el propósito de establecer mejores mecanismos de pronóstico y control. El libro en el que describen la metodología, se convirtió rápidamente en un clásico, y sus procedimientos se utilizan ampliamente desde entonces en diferentes ramas de la ciencia, conociéndose como modelos ARIMA y también como modelos Box-Jenkins. Para este tipo de modelos, el primer paso consiste en convertir nuestra serie de observaciones en una serie estacionaria, que es aquella en la que ni la media, ni la varianza, ni las autocorrelaciones dependen del tiempo. Una vez "estabilizada" la serie mediante las transformaciones adecuadas, se procede a estudiar la presencia de regularidades en la serie, para identificar un posible modelo matemático. Para ello se calculan la función de autocorrelación simple y parcial, y se compara su forma con un catálogo de patrones gráficos, que son típicos de los diferentes modelos propuestos, seleccionando el modelo que más se adecue a la forma de las funciones de autocorrelación que hemos obtenido con nuestros datos. Una vez elegida la forma del modelo, se estiman los coeficientes del mismo, y finalmente se procede a efectuar un análisis de los residuos (diferencia entre el valor realmente observado y el valor previsto por el modelo), con el fin de comprobar si el ajuste del modelo a nuestros datos es adecuado. Si no lo fuera repetimos el proceso buscando otros modelos. Una vez determinado un modelo suficientemente válido, sobre la serie estacionaria, procedemos a deshacer la transformación inicialmente efectuada para estabilizar la serie, y ahora comprobamos si los pronósticos del modelo son adecuados con nuestros datos, volviendo a comenzar la búsqueda de otro modelo si no fuera el caso. Puede por tanto tratarse de un proceso iterativo de mejora del modelo. En el modelo, cada valor tomado por la variable en un instante dado, está influido por los valores de la variable en momentos anteriores, y se expresa como una relación lineal, función de: 1. Valores recientes de la variable 2. Ruidos en valores recientes de la variable 3. Valores remotos de la variable 4. Ruidos en valores remotos de la variable El esquema general del modelo es el siguiente: que es la fórmula general de los modelos denominados ARMA. Está constituido por una combinación de p términos AR (proceso autorregresivo), y q términos MA (proceso de medias móviles). La parte AR modela la influencia de los valores anteriores de la serie (Xt-1 hacia atrás), y la parte MA modela la influencia del ruido en valores anteriores de la serie (Zt-1 hacia atrás), junto con el término Zt que corresponde al ruido esperado en el mismo momento t en el que se estima el nuevo valor de la variable X. Una de las ventajas de estos modelos es su gran simplicidad (sumas de términos), frente a los modelos propuestos en la formulación clásica. La letra I que aparece en el nombre del modelo completo -ARIMA-, corresponde al proceso último a realizar, una vez definido el tipo de modelo y estimados los coeficientes de éste, ya que entonces hay que restablecer las características originales de la serie de datos, que fue transformada para inducir estacionaridad. A ese proceso inverso se denomina en general Integración y aporta esa letra que completa el nombre. Voy a dejarlo aquí por hoy. Me gustaría que hubiese un poco de debate, incluso críticas . Sl2. http://navarinversiones.blogspot.com/
Lo hago porque puedo, puedo porque quiero y quiero porque me dijeron que no podía.
Re: Análisis CuantitativoLo siento navar. No puedo compartir este enfoque, se aleja mucho de la esencia de los mercados pues casi convierte el trading en una pizarra del profesor de mates
Peeero ...siempre te leo con interés y si en algo me siento identificado, no dudes en que aportaré mi granito. Saludos
Re: Análisis CuantitativoMuchas gracias por leerme, daykoku.
Mientras buscaba información a cerca de esta "visión" de los mercados, un amigo me pasó un enlace de un documental que hizo la 2 en España sobre el trading algoritmico. Una de las cosas que más me llamó la atención es que, de entre los que se dejaron filmar algo, los de Knight Capital no tenían en ninguna pantalla ni un solo gráfico. Tan solo líneas de código. Se parecía más a Matrix que a cualquier plataforma habitual . Así que, si sabemos que la mayoría de las operaciones que se comercian se hacen a través de estos sistemas, quizá solo quizá, "mirar velas" no sea lo más adecuado. Son adictivas, coloridas, fascinantes, están vivas, "creemos ver" patrones repetitivos sobre los que hacer nuestra operaciones y nos olvidamos de las matemáticas que hay detrás (y delante, a la izquierda y a la derecha, jejeje). Voy a seguir donde lo dejé ayer deseando que alguien más se "contagie" con estas ideas . Análisis del espectro de frecuencias Se demuestra que cualquier proceso periódico se puede modelar, con la precisión deseada, mediante series de términos de funciones senoidales (seno y coseno), lo que se conoce como series de Fourier, y se denomina espectro a la representación de las amplitudes, en el eje de las Y, que constituyen los diferentes términos de la serie para toda la gama de frecuencias (eje de las X). El espectro es una herramienta fundamental para detectar estacionalidad en una serie y determinar su periodo. Como es de esperar, el espectro está íntimamente relacionado con la función de autocorrelación. En la siguiente figura se muestra una imagen típica del espectro de frecuencias de una serie, en el que se representa en el eje de las Y la amplitud y en el de las X la frecuencia, y partiendo de la estimación directa del espectro a partir de los datos (esquina superior izquierda), se va refinando mediante procedimientos de alisado y nos permite en este caso detectar la presencia de un factor de periodicidad para la frecuencia en torno del valor 1. Puesto que Periodo = 1/ Frecuencia, obtenida la frecuencia, o frecuencias (picos en el espectro), a partir de ésta se calcula de forma sencilla el periodo de las oscilaciones en la serie de datos. Los datos no tienen significado por sí mismos, sino en relación a un modelo conceptual del fenómeno que los produce. Las manzanas venían cayéndose de los árboles mucho antes de que Newton estableciese las ecuaciones del movimiento de caída libre de los cuerpos; la circulación de la sangre se comportaba de igual forma antes y después de Harvey; las estrellas y planetas se movían en el espacio de igual manera en los tiempos de Ptolomeo, de Galileo, de Copérnico, de Kepler, del mismo Newton, o de Einstein. Los datos relativos al movimiento de los planetas recogidos en las diferentes épocas, salvo por diferencias en la capacidad de la instrumentación existente en el momento, eran similares; lo que fue evolucionando a lo largo del tiempo es el modelo conceptual establecido por cada científico para explicar el fenómeno. Aunque en la historia de la ciencia, desde un punto de vista formal, durante mucho tiempo solo existieron modelos de tipo determinista, en los que el fenómeno se expresaba mediante leyes matemáticas perfectamente formuladas, de tal manera que conocidas las variables que intervenían en el modelo y su valor, el resultado quedaba completamente determinado, y solo más recientemente se empezó a plantear modelos de tipo probabilístico, en los que conocidas las variables únicamente se calculaba la probabilidad de aparición de un resultado, y en los que se introducía por tanto un margen de incertidumbre, realmente este tipo de modelos probabilísticos ha venido siendo utilizado desde siempre, sin una formulación matemática expresa, por el ser humano, quién en su toma de decisiones se ha basado en la estimación de la probabilidad de que algo ocurra en base a lo que ha observado que ocurrió con anterioridad en situaciones similares, aunque lo que a veces nos dicta lo que conocemos como "sentido común" se ha revelado en muchas ocasiones como contrario a la realidad científica. La construcción de modelos de riesgo de aparición de un suceso es de gran importancia en cualquier rama que queramos estudiar (en este caso, el trading), tanto para intentar conocer las variables que influyen en que se presente ese suceso, como para analizar el mecanismo que lo produce y para predecir su aparición. En el primer caso, el conocimiento de las variables que influyen nos permitirá establecer medidas (cuando entrar al mercado?), y en el segundo mediante el modelo podemos efectuar cálculos relacionados con la aparición del suceso, por ejemplo para determinar TP ó SL. Precisamente la teoría matemática para el cálculo de modelos de riesgo tiene su origen probablemente en este último aspecto, y más concretamente en el campo de la ingeniería, donde la demanda creciente de equipos que funcionen cada vez mejor y a un menor coste lleva aparejada la necesidad de disminuir las probabilidades de fallo de éstos, lo que posibilitó el estudio y desarrollo de modelos probabilísticos para analizar la naturaleza de esos fallos y minimizar así la probabilidad de que ocurran, lo que en ingeniería se conoce como teoría de la fiabilidad (reliability) y en medicina habitualmente como análisis de supervivencia (survival analysis). Cualquier construcción matemática, por sencilla que ésta sea, constituye un modelo y como tal una simplificación de la realidad, útil pero simplificación al fin y al cabo. Así en términos de supervivencia es habitual utilizar la mediana como dato resumen. La mediana es el valor que deja el 50% de los datos a cada lado de la distribución. A diferencia de los modelos deterministas propios de las leyes físicas, los modelos que se pueden/deben pensar para el trading, son en su gran mayoría modelos probabilísticos, sujetos a incertidumbre, que además se trata de simplificaciones de la realidad y que efectúan cálculos generales para valores promedio, mientras que la práctica se ejerce sobre activos concretos con sus características individuales. Hay que conocer más sobre la distribución de probabilidad, y sobre todo cómo es la cola del lado derecho de la distribución. Y también qué características individuales pueden influir en el resultado. Podemos pensar que lo habitual es atribuir una distribución normal para la organización de los datos cuando puede ser log-normal Los modelos matemáticos constituyen sin ninguna duda valiosísimas herramientas para el conocimiento, interpretación y en su caso modificación de los fenómenos, pero casi siempre se trata de modelos transitorios, sujetos a verificación y perfeccionamiento, y como todo en el mundo de la ciencia (ciencia de los mercados?) solo pueden ser aceptados con una cierta dosis de escepticismo y con una mentalidad crítica. http://navarinversiones.blogspot.com/
Lo hago porque puedo, puedo porque quiero y quiero porque me dijeron que no podía.
Re: Análisis CuantitativoHola Navar,
Tema interesante, lo seguire de cerca. Saludos
Re: Análisis CuantitativoHola FXKing. Me alegro de que te resulte interesante.
Podría decir que todo se reduce a "predecir" el valor del producto cotizado, el que sea. Pero sería demasiado simple e irreal. Si que podemos realizar una predicción por intervalos de confianza, usar estimadores de máxima verosimilitud, hacer un análisis más detallado mediante medidas de bondad de ajuste y análisis gráfico. Es más razonable pensar que el tratamiento del precio que ueda teer el activo en un instante determinado, no como una magnitud determinista, sino como una variable aleatoria, y por tanto, es más adecuado considerar la trayectoria temporal su valor como una realización de un proceso estocástico. En ambiente de certidumbre, si S(t) es el valor resultante de invertir 1€ a un régimen de capitalización a interés compuesto continuo a una tasa constante μ durante un intervalo de tiempo (0,t), entonces S(t) es la solución del siguiente problema de valor inicial cuya ecuación diferencial ordinaria indica que el capital crece ca una tasa de crecimiento relativo constante e igual a μ, y cuya condición inicial indica la inversión al principio del intervalo: dS(t)/dt=μS(t); S(0)=1. Sin embargo, cuando la inversión se realiza en un mercado bursatil, es más realista considerar que la tasa de crecimiento de la inversión contiene incertidumbre, y ésta es habitualmente modelizada en la forma μ+σB(t), siendo B(t)~N(0;√t), un proceso estocástico de tipo gaussiano o normal con media 0 y varianza t, llamado movimiento browniano y B'(t) su derivada (en el sentido de la teoría de las distribuciones, ya que, las trayectorias de dicho proceso estocástico no son diferenciables en ningún punto). B'(t) es un proceso estocástico también gaussiano y estacionario, que llaman ruido blanco. Su representación diferencial será: dS(t)=(μS(t)dt+σS(t))dB(t) Por lo tanto, esta es la ecuación diferecial estocástica. Cuando σ=0, corresponde a un modelo determinista (o sin ruido o incertidumbre) cuya solución para la condición inicial S(0)=1, es bien conocida: S(t)=exp(μt), pero si σ≠0, su solución es un proceso estocástico y para su cálculo se precisa de un cálculo estocástico especial denominado Lema de Itô: S(t)=f(t,B(t))=S(0)exp((μ-1/2*σ^2)t+σB(t)); con t≥0 Este es el proceso estocástico solución a la ecuación diferencial estocástica, el cual es denominado en la literatura movimiento browniano geométrico o proceso estocástico log-normal, ya que para cada t es la exponencial de una variable aleatoria gaussiana (B(t)). ¿Y que es una distribución log-normal? Según wikipedia: "es una distribución de probabilidad de cualquier variable aleatoria con su logaritmo normalmente distribuido (la base de una función logarítmica no es importante, ya que loga X está distribuida normalmente si y sólo si logb X está distribuida normalmente). Si X es una variable aleatoria con una distribución normal, entonces exp(X) tiene una distribución log-normal. Log-normal también se escribe log normal o lognormal. Una variable puede ser modelada como log-normal si puede ser considerada como un producto multiplicativo de muchos pequeños factores independientes. Un ejemplo típico es un retorno a largo plazo de una inversión: puede considerarse como un producto de muchos retornos diarios. La distribución log-normal tiende a la función densidad de probabilidad f(x;μ,σ) = (1/xσ√(2 π)) e^(-(ln(x-μ)^2/2σ^2) para x>0, donde μ y σ son la media y la desviación estándar del logaritmo de variable. El valor esperado es E(X) = e^(μ+σ^2/2) y la varianza es var(X) = (e^(σ^2) - 1) e^(2μ+σ^2) http://navarinversiones.blogspot.com/
Lo hago porque puedo, puedo porque quiero y quiero porque me dijeron que no podía.
Re: Análisis CuantitativoVaya trabajón, Navar!!
Gracias por compartirlo.
Re: Análisis CuantitativoDe nada, Opaco. Gracias por leerlo.
Parámetros del modelo. Si S(t) dada en el anterior post, pretende recoger el comportamiento de la trayectoria temporal de un activo bursátil, primero se deben calibrar los parámetros μ y σ. Para este propósito es más adecuado manejar la fórmula anterior en la forma equivalente que resulta de tomar logaritmos: ln(S8t))-ln(S(0))=(μ-σ^2/2)t+σB(t)~N((μ-σ^2/2)t;√σt) donde se utiliza que la distribución estadística es gaussiana por ser una transformación lineal de B(t)~N(0;√t). El movimiento browniano B(t) cumple que tiene incrementos gaussianos en independientes de media 0 y varianza la longitud del incremento sobre (t), se tiene que: B(jΔt)-B((j-1)Δt)~N(0;√Δt), 1≥j≥k, por lo que las variables aleatorias U(j) son gaussianas e independientes con media (μ-σ^2/2)Δt y varianza σ^2Δt. A partir de una muestra de k+1 datos reales de las cotizaciones, podemos construir las k diferencias dadas en cada incremento: U(j)=(μ-σ^2/2)Δt+σB(jΔt)-B((j-1)Δt) y realizar una estimación de losparámetros μ y σ mediante el método de los momentos (http://www.ub.edu/stat/GrupsInnovacio/S ... C7m1t9.htm), que supone igualarla media y la varianza de las k variables aleatorias a ma media muestral U y a la cuasivarianza muestral S^2 dadas por: k k U=ΣU(j), S^2=1/k-1Σ(U(j)-U)^2 j=1 j=1 lo que permite construirel siguiente esquema para estimar μ y σ: U=(μ-σ^2/2)Δt ; S^2=σ^2Δt En la práctica, para calibrar el modelo sobre cotizaciones diarias del mercado bursatil que sea, se toma Δt=1/365 cuando el activo es sensible a los sucesos y acontecimientos que ocurren durante todos los días del año, y Δt=1/252, cuando el precio del activo solo depende de las decisiones que se toman por los traders en horario de cotización durante los 252 días, que en media, operan los mercados. Por último en esta nueva entrega de expresiones matemáticas, para que el modelo: S(t)=f(t,B(t))=S(0)exp((μ-1/2*σ^2)t+σB(t)); con t≥0 pueda aplicarse con datos reales, es necesario simular el término: B(t)~N(0;√t) a través de cualquiera de los métodos disponibles en la literatura (simulación de monte-carlo, históricos, etc.). Sl2. http://navarinversiones.blogspot.com/
Lo hago porque puedo, puedo porque quiero y quiero porque me dijeron que no podía.
|
|
Usuarios navegando por este Foro: No hay usuarios registrados visitando el Foro y 0 invitados