Tesis EP Estadística
Permanent URI for this collectionhttps://hdl.handle.net/20.500.12672/38
Browse
Browsing Tesis EP Estadística by Issue Date
Now showing 1 - 20 of 77
- Results Per Page
- Sort Options
Item Estimación por mínimos cuadrados ponderados en modelos lineales generalizados(Universidad Nacional Mayor de San Marcos, 2001) Gonzales King-Keé, Karin CeciliaEn este trabajo se aplica el método de Mínimos Cuadrados Ponderados como un método alternativo de estimación de parámetros en los Modelos Lineales Generalizados, y en particular para el caso de variables respuesta con distribución Multinomial y de Poisson, usando el enfoque desarrollado por Grizzme, Starmer y Koch (GSK). Se estudia la formación de funciones respuesta de variables dependientes con distribución Multinomial y Poisson.Item Factores que caracterizan a los estudiantes sanmarquinos de pregrado que trabajan, y que influyen en su bajo rendimiento académico(Universidad Nacional Mayor de San Marcos, 2003) Chumpitaz Vásquez, Miguel Angel; Ponce Aruneri, María EstelaBusca investigar la relación entre dicha situación con algunos aspectos socioeconómicos, demográficos y académicos de los estudiantes sanmarquinos de pregrado. Para cumplir con los objetivos de investigación no sólo se utilizó el análisis de tablas de contingencia, sino además dos métodos multivariantes uno exploratorio y otro confirmatorio- En primer lugar, el análisis de correspondencia múltiple para caracterizar a los estudiantes de pregrado que trabajan y en segundo lugar el análisis de regresión logística para encontrar dos modelos, uno que permita explicar la situación laboral y otro el rendimiento académico de los estudiantes de pregrado. La información con la que se trabajó corresponde a los datos del Censo Universitario Sanmarquino 2002, para lo cual seleccionamos una muestra de 718 estudiantes de pregrado. Para analizar los datos se utilizaron los siguientes softwares estadísticos, SPSS, STATISTICA además del programa EXCEL.Item Medidas de influencia en el análisis discriminante lineal para dos grupos y algunas aplicaciones en la etnobotánica(Universidad Nacional Mayor de San Marcos, 2010) Cañari Casaño, Edilberto Daniel; Cañari Casaño, Edilberto DanielPresenta diversas medidas para identificar observaciones influyentes en el marco del análisis discriminante lineal en dos grupos. Simula una muestra de vectores aleatorios en el espacio 4 R en la que identifica observaciones influyentes. Desarrolla algunas aplicaciones en la etnobotánica. Previamente, divide los aspectos básicos del análisis discriminante lineal en dos grupos y establece la relación de proporcionalidad entre los coeficientes de la función lineal discriminante y los coeficientes del ajuste del modelo de regresión lineal múltiple.Item Medidas de diagnóstico para identificar observaciones influyentes en análisis de componentes principales comunes(Universidad Nacional Mayor de San Marcos, 2010) Figueroa Agüero, Jeanette; Gómez Ticerán, Doris AlbinaSe presentan medidas para detectar e identificar observaciones influyentes, que han sido ampliamente desarrollados en el área de robustez y principalmente en el contexto de los modelos de regresión lineal, en cuya línea argumental, cabe citar los trabajos de Belsley (1982), Cook (1986), Atkinson (1986) entre otros. El modelo de Componentes Principales Comunes según Flury (1984) para varios grupos de observaciones multivariantes asume que las variables transformadas según este modelo, tienen ejes principales iguales en todos los grupos pero diferentes matrices de covarianzas a lo largo de los ejes comunes entre los grupos. En el presente trabajo, se presentan medidas para identificar observaciones influyentes cuando los datos siguen el modelo de. También se ve la aproximación entre los elementos de la diagonal de la matriz de influencia local con los elementos de la diagonal de la matriz leverage, por lo que nos permiten detectar conjuntos de observaciones cuyos efectos simultáneos coinciden en la identificación de dichas observaciones influyentes y se ilustra con algunas aplicaciones en la botánica y agricultura. El método, se basa en la búsqueda de una estructura común, una rotación (común), que diagonalice las matrices de covarianza de los datos originales simultáneamente en todas las poblaciones, a partir de la comparación de las matrices de covarianzas. La hipótesis para la estructura básica común de las matrices de covarianza (definidas positivas) para poblaciones es: donde: es la matriz ortogonal de autovectores, son las matrices diagonales de autovalores y es la matriz de covarianza de la población -ésima.Item Método de clasificación para evaluar el riesgo crediticio : una comparación(Universidad Nacional Mayor de San Marcos, 2010) Vigo Chacón, Geraldine Judith; Cambillo Moyano, Emma NormaSe comparan dos métodos clásicos de clasificación: Análisis de Regresión Logística y Árboles de Clasificación, con el método de Redes Neuronales. La comparación se realizó en base al poder de clasificación y predicción de los modelos obtenidos en la evaluación del Riesgo Crediticio, siendo Redes Neuronales el mejor método por tener mayor poder de clasificación y predicción. Para el análisis se utilizó una Base de Datos de Riesgo Crediticio. Asimismo, se establecen las ventajas y desventajas en el empleo de cada método. -- Palabras Claves: Análisis de Regresión Logística, Árboles de Clasificación, Redes Neuronales.Item Indicador Foster Greer y Thorbecke (FGT) y su aplicación en la medición de la calidad de los servicios de Consulta Externa, Hospitalización y Emergencia del Hospital Nacional Arzobispo Loayza(Universidad Nacional Mayor de San Marcos, 2010) Bazán Méndez, Hermes Jonathan; Cambillo Moyano, Emma NormaPresenta el estudio del indicador FOSTER-GREER-THORBECKE (FGT) y su aplicación en la medición de la calidad de los servicios de Hospitalización, Emergencia y Consulta Externa del Hospital Nacional Arzobispo Loayza. El levantamiento de la información se realizó mediante el instrumento medición de la calidad desde la percepción de los pacientes, el procesamiento y análisis de la información levantada se realizó mediante el programa SEEUS (Software para la evaluación de encuestas de Usuarios en Salud), software brindado por el Ministerio de Salud en lo que respecta a un plan de mejora continua de la calidad en los centros de salud del país. Se obtuvieron los Índices de insatisfacción, el porcentaje de población insatisfecha, brecha de insatisfacción e importancia relativa, por cada área, variable control, dimensiones y variables. Por último, se muestra la construcción de las matrices de mejoras por cada área del hospital, estas matrices son de suma importancia para la toma de decisiones por parte de la alta dirección.Item Estimación de observaciones faltantes mediante la media aritmética y su efecto en el análisis de componentes principales(Universidad Nacional Mayor de San Marcos, 2011) Ríos Tello, Eduviges Cleofé de los; Gómez Ticerán, Doris AlbinaDemuestra que la estimación de los datos faltantes mediante la media aritmética de los datos conocidos, no tiene efecto y/o modificación en el valor de la media aritmética de todos los datos, incluidos los datos faltantes previamente estimados por la media aritmética de los datos conocidos y sus consecuencias en el análisis de componentes Principales. Se demuestra que las componentes principales usando la matriz de covarianzas y correlaciones no han sido alterados respecto a su valor original con todos los datos conocidos y con datos faltantes estimados mediante las medias.Item Modelo de regresión de Cox usando splines(Universidad Nacional Mayor de San Marcos, 2011) Flores Flores, Claudio Jaime; Bravo Quiroz, AntonioEn muchos estudios clínicos es muy frecuente el uso de modelo de riesgos proporcionales de Cox; el cual asume riesgos proporcionales y restringe a que el logaritmo de la razón de riesgo sea lineal en las covariables, lo cual en muchos casos no se verifica. En este sentido, una forma funcional no lineal del efecto de las covariables puede ser aproximada por una función spline. En este trabajo, se presenta la metodología del modelo de regresión de Cox usando splines, particularmente regresión splines y P-splines, para aproximar la forma funcional no-lineal de los efectos de las covariables en la función de riesgo. Como una aplicación, se analiza los datos de pacientes con LNH para determinar los factores pronósticos para la supervivencia global. Los resultados muestran que el efecto de las covariables contínuas como hemoglobina, leucocitos, linfocitos y DHL presentan una forma funcional no lineal en el logaritmo de la razón de riesgo. -- Palabras claves: Modelo de Cox, regresión splines, P-splines, LNH.Item Vectores autoregresivos (VAR): estudio de la dinámica de la inflación y el tipo de cambio en el Perú(Universidad Nacional Mayor de San Marcos, 2011) Vásquez Sotero, Patricia Elizabeth; Agüero Palacios, Ysela DomingaAnaliza la dinámica de la relación entre las variaciones del tipo de cambio (soles por dólar) y la tasa de inflación (nivel general de precios) de la economía peruana en los últimos veinte años (datos trimestrales para el período, mar. 1991 – set. 2011), utilizando el modelo de vectores autorregresivos (VAR). La metodología para estimar los modelos VAR, propuestos por Sims (1980), para abordar el problema de sobre especificación de modelos con variables económicas, se basa en el análisis de Box-Jenkins (1976). Los resultados indican la existencia de relación de causalidad bidireccional o simultánea entre el tipo de cambio y la inflación en el corto plazo.Item Representaciones gráficas de variables principales comunes: una aplicación a la botánica(Universidad Nacional Mayor de San Marcos, 2011) Díaz Gómez, Carlos; Gómez Ticerán, Doris AlbinaEstudia en detalle la teoría y la obtención de las variables componentes principales comunes y mostrar sus correspondientes representaciones gráficas bidimensionales en 2 R. Previamente, se presentan aspectos básicos del modelo de componentes principales para un grupo, la cual desde la perspectiva teórica, según Flury (1984), se generaliza al análisis de componentes principales comunes. Este método se basa en la búsqueda de una estructura común, una rotación que diagonalice las matrices de covarianza de los datos originales simultáneamente en todas las poblaciones. Concluye el trabajo con una aplicación a la Botánica realizados con las muestras de un estudio desarrollado en cuatro lugares del departamento de Loreto.Item Exceso de ceros en el análisis de regresión Poisson. Aplicación al estudio de factores asociados con el número ideal de hijos en las mujeres peruanas en edad fértil(Universidad Nacional Mayor de San Marcos, 2011) Cruz Reyna, Amanda; Agüero Palacios, Ysela DomingaEstudia los modelos de regresión para el caso en que las observaciones de la variable respuesta contiene un número excesivo de ceros y pretende ajustar un modelo para explicar el número ideal de hijos de las mujeres peruanas en edad fértil a partir de un conjunto de variables explicativas, utilizando los datos de la Encuesta Demográfica y de Salud Familiar ENDES – 2009. Cuando se tiene una variable de respuesta, en la cual, se observa la frecuencia (conteos) con que se presenta una característica de la población e interesa relacionarla con un conjunto de características observadas en la misma población, normalmente se ajusta un modelo de regresión Poisson, el cual, es un miembro de la familia de los modelos lineales generalizados. Una característica de los modelos de regresión Poisson es que la varianza de la componente aleatoria es igual a la esperanza más un parámetro de escala, el cual se asume que es igual a 1, es decir que existe equidispersión. Este supuesto implica que los datos observados no presenten sobre dispersión (>1) o sub dispersión (<1). Cuando la muestra observada presenta una elevada cantidad de ceros en la variable respuesta, el supuesto de equidispersión puede verse afectado, por lo tanto, el modelo de regresión Poisson no se ajusta adecuadamente a los datos observados, puesto que pierde potencia. Por lo tanto, es necesario utilizar otros modelos de regresión que no sean afectados o por lo menos, sean menos afectados por este problema. En el caso en que no sea conveniente utilizar el modelo de regresión Poisson, por el problema antes mencionado, existen varios modelos alternativos tales como la regresión binomial negativa y el modelo de regresión Hurdle que son menos conocidos y utilizados que el modelo de regresión Poisson.Item Ensayos clínicos con actualización del tamaño de muestra: una aplicación en el análisis de supervivencia(Universidad Nacional Mayor de San Marcos, 2011) Cárdenas González, Rogger Paúl; Agüero Palacios, Ysela DomingaBusca evitar que el paciente este expuesto innecesariamente a tratamientos ineficaces o inferiores, además de un ahorro en el tiempo de estudio y costos originados por los estudios diseñados con un número fijo de pacientes y/o eventos y periodo, es conveniente ajustar el tamaño de muestra y/o la duración del estudio secuencialmente, utilizando información del estudio actual en las etapas intermedias, asegurando una potencia adecuada para detectar una diferencia clínicamente significativa entre tratamientos, mientras se mantiene la tasa de error tipo /. Se estudia un diseño flexible de actualización del tamaño de muestra para ensayos clínicos con datos de supervivencia censurados, considerando que los pacientes ingresan secuencialmente al estudio con entradas escalonadas durante un periodo de reclutamiento, utilizando una estadistica de prueba no-paramétrica de rango lineal ponderado, correspondiente a una prueba log-rank. Se realiza estudios de simulación de Monte Cado para estimar el tamaño empírico, potencia empírica, número promedio de eventos y duración promedio del estudio, y con ello evaluar el performance del diseño flexible comparado con la prueba log-rank usual con diseño de muestra fijo. Dando como resultado que el diseño flexible es más conveniente comparado al diseño de muestra fijo, manteniendo la tasa de error tipo I y asegurando una potencia adecuada, e incluso ganando más potencia).Item Comparación entre la metodología Statis y el análisis factorial múltiple en el análisis de tablas múltiples(Universidad Nacional Mayor de San Marcos, 2011) Rafael Herrera, Dora Fridely; Cambillo Moyano, Emma NormaPresenta una comparación entre la Metodología STATIS y el Análisis Factorial Múltiple. Los criterios de comparación utilizados fueron la inercia, las contribuciones, las ayudas a la interpretación, la representación individual, las variables, las condiciones y las trayectorias. Se analizan las etapas de Interestructura, Compromiso e Intraestructura. Programas SPAD v4.5, STATISTICA y SPSS 15 se utilizan para el análisis de los datos. Los métodos comparados difieren respecto a su estructura básica y procedimiento. Son similares respecto a la representación de los individuos, variables, condiciones y trayectorias de los individuos a través de condiciones. El AFM muestra algunas ventajas sobre la metodología STATIS, ya que es posible calcular las contribuciones y la calidad de la representación de los individuos y variables. Del análisis de la transición demográfica en el Perú con dos métodos, STATIS y AFM, se encuentran cuatro etapas de la transición, en relación con los niveles de vida y muerte, que muestra una visión sintética de los posibles cambios en el tiempo y la existencia de una tendencia, lo cual es importante en la transición demográfica.Item Estimación no paramétrica para datos con eventos recurrentes(Universidad Nacional Mayor de San Marcos, 2011) Huamaní Ñahuinlla, Percy; Bravo Quiroz, AntonioCuando se estudia el análisis de supervivencia generalmente lo hacemos para eventos que ocurren por única vez para cual es muy útil el estimador de Klapan Meier para estimar la función de supervivencia. Sin embargo, cuando tenemos el caso de eventos que ocurren varias veces para un mismo individuo u objeto necesitamos otros estimadores para la función de supervivencia, es ahí donde nacen nuevos conceptos para el análisis de supervivencia como por ejemplo, interocurrencia, tiempos correlacionados, modelos de fragilidad, etc. Para realizar inferencia en este tipo de estudio, debe tener cuidado con los tiempos de interocurrencia ya que muchas veces estos tiempos no son independientes, si no tenemos en cuenta este hecho, se pueden obtenerse estimadores sesgados e ineficientes. En el caso de independencia, podemos usar el Estimador General Limite de Producto (GPLE), por otra parte para modelos con tiempos correlacionados debemos utilizar otros estimadores como Wang-Chang (WC) y modelos de Gamma de Fragilidad (FRMLE). El objetivo que se persigue en este trabajo de investigación, es estimar la función de supervivencia a través de los estimadores no paramétricos para eventos que ocurren más de una vez. La aplicación de los estimadores en la base de datos de Complejo Migratorio Motor (CMM) que fue elaborado por Aalen y Husebye en 1991 y que actualmente se encuentra en la consola de R Project, en dicho base de datos se aplica los estimadores de Wang-Chang y Peña-Strawderman-Hollander de modo independiente, los resultados de ambas estimaciones son muy similares por lo que el método de análisis no afecta en los resultados siempre y cuando los tiempos de interocurrencias son independientes, en el caso de datos con tiempos correlacionados es recomendable sólo utilizar el estimador de Wang-Chang.Item Componentes principales mediante el método robusto MCD: Matriz de covarianzas de determinante mínimo(Universidad Nacional Mayor de San Marcos, 2012) Hualpa Benavente, Flor Patricia; Gómez Ticerán, Doris AlbinaEste trabajo de investigación aborda el problema de falta de robustez, mediante el reemplazo de la matriz de covarianzas obtenida con el método clásico, por la matriz de covarianzas obtenida con el método robusto MCD (Todorov y Filzmoser, 2009). El método robusto MCD: Minimun Covariance Determinant, consiste en realizar las estimaciones para el vector de medias y la matriz de covarianzas a partir de la selección de una submuestra obtenida del remuestreo del conjunto de datos en estudio, cuya característica principal es que tiene la matriz de covarianzas con determinante mínimo. Muchas veces, el análisis estadístico en presencia de datos atípicos, mediante métodos clásicos, puede llevar a conclusiones erróneas debido a la sensibilidad de dichos métodos, por ello el objetivo del presente trabajo es presentar la metodología de los estimadores MCD, a fin de conseguir una “matriz de covarianzas robustificada” la cual será utilizada para realizar el Análisis de Componentes Principales en conjuntos de datos con presencia de observaciones atípicas. Se ilustra la metodología de la teoría y la aplicación para dos conjuntos de datos, resultados de investigaciones en la Botánica (Quinteros, 2010 y Gómez, et. al., 2008), se analiza el comportamiento de las Componentes Principales con la metodología MCD y se compara con la metodología clásica. Se determina que las Componentes Principales obtenidas por el método de MCD permiten encontrar mejores indicadores para los conjuntos de datos que tienen valores atípicos. -- Palabras clave: Minimum Covariance Determinant, MCD, Componentes Principales, Estimación Robusta, Matriz de Varianzas y Covarianzas.Item Una aplicación de procedimiento de “Imputación múltiple” como método alternativo a la no respuesta(Universidad Nacional Mayor de San Marcos, 2012) Condori Garro, Haydee; Pillhuaman Caña, Nelly DemetriaPresenta el procedimiento de imputación múltiple como método alternativo a la no respuesta parcial. Para la aplicación de este estudio se contó con una base de datos de empleados de una empresa de Lima Metropolitana, en ella se determinó el tamaño de muestra para los objetivos que se trazaron, la muestra seleccionada se denominó muestra completa y a partir de ella se generó una muestra incompleta eliminando aproximadamente el 10.4% de algunos campos, esto se realizó con la finalidad de comparar las estimaciones con datos completos e incompletos mediante la aplicación del procedimiento de imputación múltiple a la muestra incompleta.Item La componente probabilística en la matemática actuarial de los seguros de vida(Universidad Nacional Mayor de San Marcos, 2012) Patricio Velazco, Homero Eric; Kraenau Espinal, ErwinEstudia a la componente probabilística y su trascendencia en la Ciencia Actuarial, específicamente en la matemática actuarial de los seguros de vida, desarrollando una descripción detallada de las principales variables aleatorias que se utilizan y la determinación de las probabilidades requeridas, conjugando todo esto con la parte financiera a la que se encuentra asociada. Finalizando con una aplicación en la determinación de una prima de un seguro de tipo vida entera.Item El análisis factorial confirmatorio como un método para la medición de la percepción de una distribuidora industrial(Universidad Nacional Mayor de San Marcos, 2012) Flores Chamba, Juan Carlos; Bravo Quiroz, AntonioPresenta los fundamentos teóricos del análisis factorial confirmatorio con el objetivo de medir la percepción de una distribuidora industrial. Se empleó un tipo de enfoque como alternativa para la reespecificación del modelo cuando se observan estimaciones que exceden los límites aceptables, determinando así el número de factores y el subconjunto de variables observables asociado a cada factor mediante pruebas estadísticas. Se completa el trabajo con una aplicación utilizando los paquetes estadísticos SPSS 18 y STATISTICA V.7.Item Elaboración y pronóstico de la estructura del costo de limpieza pública: (recolección/transporte/disposición final)(Universidad Nacional Mayor de San Marcos, 2012) Valer Ramírez, Juan Melchor; Ticse Núñez, Cornelio VicenteEvalúa el pronóstico presupuestal de la estructura de costos del servicio de limpieza pública para cada periodo(mensual), para ello utilizaremos el modelo ARIMA-AI, que es un método de análisis univariado de series temporales, quienes describen mejor el comportamiento dinámico de las variables y así también en la parte estocástica, estudiar las tendencias, las variaciones estacionales, las oscilaciones cíclicas, el grado de impredictibilidad, etc., y mediante la parte del análisis de intervención se pueden fijar hipótesis para ciertos acontecimientos económicos que se contrastan por medio de los modelos para validar o rechazar las hipótesis establecidas.Item Estimación no paramétrica de la función de regresión mediante funciones kernel(Universidad Nacional Mayor de San Marcos, 2012) Paniora Ceron, Lucio; Kraenau Espinal, ErwinSe presenta los fundamentos teóricos de la regresión no paramétrica utilizando las funciones Kernel, como una alternativa más flexible en los casos en que la variable respuesta y variables explicativas no cumplen los supuestos que exige los modelos paramétricos o a menudo no se logra captar el comportamiento de los datos en todo el campo de variación de las variables explicativas, la estimación no paramétrica explota la idea de suavizado local, que solamente utiliza las propiedades de continuidad o diferenciabilidad local de la función a estimar, se completa el trabajo con una aplicación utilizando el paquete KernSmooth de R.