Tesis EP Computación Científica
Permanent URI for this collectionhttps://hdl.handle.net/20.500.12672/37
Browse
Browsing Tesis EP Computación Científica by browse.metadata.advisor "Vásquez Serpa, Luis Javier"
Now showing 1 - 6 of 6
- Results Per Page
- Sort Options
Item Ajuste del modelo de funciones racionales para la ortorectificación de imágenes satelitales(Universidad Nacional Mayor de San Marcos, 2023) Samaniego Lopez, Clinton Teobaldo; Vásquez Serpa, Luis JavierEl modelo RFM (Rational Functions Model) es muy usado en el área de la fotogrametría como herramienta de corrección geométrica (ortorectificación) a imágenes satelitales. El modelo RPC (Rational plynomial oefficients) es un caso específico del modelo RFM, este modelo consiste en relacionar el espacio imagen y el espacio objeto mediante parámetros denominados coeficientes RPCs de ahí el nombre del modelo RPC. La presente investigación toma como elemento particular las imágenes del satélite PeruSAT1. El centro de investigación CONIDA (Comisión Nacional de Investigación y Desarrollo Aeroespacial) cuenta con software licenciado de paga que le permite realizar la corrección geométrica de sus imágenes satelitales. Como antecedente se tuvo que al aplicar directamente el modelo RPCs no se obtuvo resultados a los del software. Es por ello que se hizo ajuste al modelo RPC para conseguir resultados similares a los del software.Item Aplicación de modelos de aprendizaje automático y optimización de parámetros para estimar los ingresos laborales en el Perú(Universidad Nacional Mayor de San Marcos, 2025) Madge Escobedo, Jennifer Yvonne; Vásquez Serpa, Luis JavierEn esta tesis se desarrolla una plataforma basada en modelos de aprendizaje automático para estimar los ingresos laborales en Perú. Se emplean datos provenientes de la Encuesta Permanente de Empleo Nacional del INEI de 26 ciudades, la cual constituye la fuente principal y especializada sobre el mercado laboral peruano. Estos datos fueron procesados en SQL y analizados en Power BI y Python. El tratamiento de los datos incluye la aplicación del Análisis de Componentes Principales como técnica de reducción de dimensionalidad. Por cada ciudad, se evalúan cinco modelos de aprendizaje automático: Random Forest, Extra Trees, LightGBM, XGBoost, CatBoost y para cada uno se realizó la optimización de parámetros usando Random Search, Bayesian Optimization y Grid Search obteniendo un total de 22,360 modelos. Con los resultados de cada ciudad se implementa una herramienta interactiva que ofrece estimaciones salariales personalizadas basadas en su perfil socioeconómico. Esta aplicación simplifica el uso de herramientas de aprendizaje automático, ajustándolas a situaciones como la planificación económica y la toma de decisiones en el ámbito laboral. El enfoque metodológico y la innovación tecnológica de este trabajo contribuyen al entendimiento y mejoramiento del análisis del mercado laboral peruano.Item Comparación de técnicas de balanceo de datos para la clasificación de fraude en transacciones bancarias(Universidad Nacional Mayor de San Marcos, 2023) Montalvo Cusi, Marjorie Dayanne; Vásquez Serpa, Luis JavierCompara técnicas de balanceo de datos entrenando un algoritmo específico de Machine Learning, a fin de determinar cuál modelo obtiene la mayor puntuación en las métricas de evaluación de modelos de clasificación de fraude en transacciones bancarias Para llevar a cabo esta evaluación, se implementan tres técnicas de balanceo de datos: Oversampling, Undersampling y SMOTE, en conjunción con el algoritmo de redes neuronales profundas (Deep Neural Network), utilizando datos sintéticos generados por PaySim. Este conjunto de datos simulados emula transacciones bancarias basadas en una muestra de registros financieros existentes extraídos de un mes de operaciones de un servicio de dinero móvil desplegado en un país africano. Todo este análisis y modelado se realizó haciendo uso del lenguaje de programación de Python ejecutado en Colab PRO. Esta elección del entorno Python permitió la implementación y el entrenamiento de modelos de redes neuronales profundas en un entorno flexible y accesible. El enfoque de utilizar datos sintéticos basados en el mundo real y aplicar técnicas avanzadas de aprendizaje automático subraya la relevancia de abordar el desafío de desequilibrio en conjuntos de datos para mejorar la precisión y confiabilidad de los resultados en aplicaciones financieras y más allá.Item Implementación de algoritmo de redes neuronales convolucionales para la identificación anticipada de armas de fuego(Universidad Nacional Mayor de San Marcos, 2025) Holguín Mori, Jeremy Karsen; Vásquez Serpa, Luis JavierEsta investigación tiene como objetivo principal desarrollar e implementar un algoritmo basado en redes neuronales convolucionales (CNN como sus siglas en ingles Convolutional Neural Networks) en cámaras de vigilancia para la identificación anticipada de armas de fuego en entornos urbanos. Se propone un método de detección basado en inteligencia artificial que permite reconocer armas exhibidas en situaciones criminales, captadas por cámaras de video en tiempo real. La implementación de este sistema facilitará la gestión de proyectos de seguridad en empresas y entidades que requieran soluciones basadas en visión computacional. Para su desarrollo, se diseñó un algoritmo de entrenamiento en Python, empleando librerías de acceso abierto especializadas en visión computacional e inteligencia artificial. El sistema permite el reconocimiento automático de imágenes captadas por cámaras convencionales, extrayendo y analizando características relevantes para la identificación precisa de armas. Como resultado, se logró desarrollar un algoritmo accesible y eficiente, capaz de generar alertas automáticas ante la detección de una posible amenaza, contribuyendo a la reducción de la criminalidad en Lima. La validación del modelo demostró su eficacia en la detección temprana de armas, consolidando su potencial como herramienta innovadora en la prevención del delito.Item Modelo matemático de optimización en la incorporación de los costos de transacción en el modelo de Markowitz para la asignación de activos financieros(Universidad Nacional Mayor de San Marcos, 2019) Carlos Molina, César Gabriel; Vásquez Serpa, Luis JavierManifiesta que el modelo de Markowitz calcula cuantitativamente la combinación óptima de activos que forma el portafolio de riesgo mínimo dado un retorno esperado (ganancia) predeterminado. La inclusión de costos de transacción es una parte importante del proceso de mantenimiento del portafolio óptimo, ante las restricciones que se dan en la práctica. En este trabajo se extendió el problema de selección de portafolio para incluir costos de transacción proporcionales al valor de los activos (acciones de bolsa), para el caso particular en que el retorno se obtiene del portafolio de pesos iguales. Se usaron los conjuntos de herramientas de alimentación de datos, econométricas y financieras de MATLAB® para desarrollar el programa que automatiza la optimización de portafolio y la asignación de activos, presentado con una interfaz gráfica desarrollada en GUIDE. El análisis de los resultados obtenidos con el programa antes mencionado confirmó que ignorar los costos de transacción resulta en portafolios ineficientes y que un control de estos costos resultará en un impacto positivo en el desempeño del portafolio. Además, la solución o frontera eficiente obtenida cuando se incluyeron los costos de transacción siempre está por debajo de su equivalente sin restricciones, lo que representa menor retorno esperado de la inversión.Item Modelos predictivos para la detección de riesgo académico en los estudiantes de pregrado de la carrera de computación científica utilizando técnicas de Machine Learning(Universidad Nacional Mayor de San Marcos, 2023) Garcia Chambi, Eunice Luzdemivida; Vásquez Serpa, Luis JavierDesarrolla modelos predictivos mediante diversas técnicas de aprendizaje automático, utilizando como conjunto de datos los historiales académicos de 241 estudiantes de pregrado de la carrera de Computación Científica de la Universidad Nacional Mayor de San Marcos. Ello con el fin de determinar si un estudiante de pregrado enfrentará dificultades académicas (riesgo académico) en su próximo semestre en función de su desempeño académico desde que ingreso a la universidad. Así mismo, se utiliza diferentes métricas de evaluación para comparar los modelos que fueron construidos por medio de 5 técnicas de aprendizaje automático, para luego analizar los resultados obtenidos en cada modelo. Llegando a la conclusión de que existe mas de un modelo adecuado con una exhaustividad (Recall) superior al 80% para identificar estudiantes en riesgo académico. También se encontró que el promedio del último semestre cursado es una de las características más significativas para la predicción de estudiantes en riesgo académico. De esta manera, se logra brindar a la escuela de Computación Científica una herramienta que ayuda a identificar a los estudiantes en riesgo académico para el próximo semestre. Finalmente, se sugiere replicar la metodología desarrollada a las otras carreras de la FCM, y evaluar la posibilidad de implementar estrategias de apoyo educativo para aquellos estudiantes en situación de riesgo académico identificados por los distintos modelos.