Doctorado Facultad de Ingeniería de Sistemas e Informática

Permanent URI for this collectionhttps://hdl.handle.net/20.500.12672/129

Browse

Recent Submissions

Now showing 1 - 20 of 37
  • Item
    Modelo conceptual para sistemas de gestión de aprendizaje social en ambientes Blended Learning
    (Universidad Nacional Mayor de San Marcos, 2025) Hidalgo Cajo, Byron Geovanny; Delgadillo Ávila, Rosa Sumactika
    La investigación tuvo como objetivo desarrollar un modelo conceptual que explique los factores determinantes de la adopción de Sistemas de Gestión del Aprendizaje (LMS) con enfoque social en entornos de Blended Learning en la educación universitaria. El estudio se sustentó en una revisión sistemática de la literatura para la identificación de constructos teóricos y la formulación de hipótesis, proponiendo un modelo inicial que integró variables como calidad del sistema, calidad del contenido, presencia social, utilidad percibida, facilidad de uso percibida, norma subjetiva, satisfacción y uso continuo. La validez de contenido fue establecida mediante juicio de expertos y la contrastación empírica se realizó en la Universidad Nacional de Chimborazo (Ecuador), a través de la aplicación de cuestionarios a docentes y estudiantes. El análisis de datos se efectuó mediante modelado de ecuaciones estructurales con PLS-SEM, lo que permitió validar dos modelos finales diferenciados por perfil de usuario. Los resultados evidenciaron que la calidad del sistema, la calidad del contenido y la presencia social influyen de manera significativa en la utilidad y facilidad de uso percibida, así como en la norma subjetiva y la satisfacción del usuario, alcanzando altos valores de R² y Q² que confirman una adecuada capacidad predictiva. Se concluye que estos factores resultan determinantes para la adopción y el uso continuado de los LMS sociales, y que el modelo propuesto constituye un aporte teórico y aplicado para optimizar los entornos de aprendizaje híbrido en la educación superior, fortaleciendo la interacción, el aprendizaje colaborativo y la experiencia centrada en el estudiante.
  • Item
    Arquitectura de honeynet con integración de datos para el análisis de evidencia digital
    (Universidad Nacional Mayor de San Marcos, 2025) Velasco Silva, Danny Patricio; Rodríguez Rafael, Glen Darío
    La honeynet surgió como una herramienta de seguridad informática, diseñada intencionalmente para ser detectada, atacada y comprometida por intrusos en un entorno controlado. Está compuesta por una serie de entornos de red y sistemas señuelo, conocidos como honeypots, los cuales, una vez instalados y configurados, simulan servicios y vulnerabilidades reales con el objetivo de atraer a los intrusos. Esta infraestructura permite observar en tiempo real las acciones de los atacantes, facilitando el análisis profundo de sus tácticas, técnicas, estrategias y objetivos, proporcionando información valiosa para el desarrollo de defensas más eficaces frente a amenazas cibernéticas. A lo largo de los últimos años, se han implementado diversas arquitecturas honeynet con el propósito de mejorar la detección y análisis de ataques, sin embargo, estos estudios han evidenciado una limitación persistente en la falta de integración de datos. En este contexto, el propósito principal de esta investigación es desarrollar una arquitectura de honeynet con integración de datos para el análisis de evidencia digital, que mejore la interoperabilidad propia de la heterogeneidad en los datos proporcionados por las herramientas utilizadas en honeynet en cuanto a confiabilidad y tiempos de respuesta. Se elaboró una ontología honeynet para integración de datos, mediante una especificación explícita y formal de una conceptualización compartida, desarrollada en la herramienta de código abierto Protégé, tomando como base metodológica methontology, la cual fue la base para la arquitectura honeynet con integración de datos para el análisis de evidencia digital, las herramientas que se utilizaron en la arquitectura honeynet para la captura de datos son: Firewall, Sebek, Snort, Argos, P0f, con la finalidad de capturar el comportamiento del intruso dentro de la honeynet, generando una base de datos unificada con toda la información recopilada. La investigación adoptó un enfoque cuantitativo, con un nivel descriptivo y explicativo, y se enmarcó en un diseño cuasiexperimental, mediante la validación de indicadores técnicos con el juicio de expertos y pruebas de hipótesis. Los resultados obtenidos en la evaluación de la arquitectura de honeynet con integración de datos evidencian mejoras sustanciales para el análisis de seguridad digital. Se observó una mejora significativa en la recopilación y comparación de atributos de los datos capturados, lo que facilitó la identificación de patrones de ataque y correlación de eventos, la integración de datos permitió el acceso centralizado a información proveniente de diversas fuentes a través de una sola vista, simplificando la labor del analista, otro hallazgo clave fue la reducción de los tiempos de detección de ciberataques, lo que permite actuar con prontitud ante amenazas y reducir el riesgo de daño a la infraestructura tecnológica, incrementando la confianza de los analistas en el proceso y en los resultados obtenidos permitiendo una mejor gestión para la toma de decisiones de manera eficaz y oportuna.
  • Item
    La cultura organizacional y transformación digital en la gestión de los proyectos de Tecnología de Información en la SUNAT
    (Universidad Nacional Mayor de San Marcos, 2025) Perez Soncco, Justo; León Fernández, Cayo Víctor
    El estudio analiza la relación entre la cultura organizacional, la transformación digital y la gestión de proyectos de tecnologías de la información en una entidad pública del sistema tributario peruano. Se desarrolló una investigación de enfoque cuantitativo, con diseño descriptivo-correlacional, no experimental y de corte transversal, aplicándose un cuestionario tipo Likert a 175 colaboradores del área de sistemas. El análisis incluyó validación y confiabilidad de instrumentos, estadística descriptiva, correlaciones de Spearman, regresiones lineales con errores robustos y un modelo de ecuaciones estructurales por parcelas. Los resultados evidencian niveles elevados de las variables estudiadas y confirman asociaciones positivas y significativas entre la cultura organizacional y la gestión de proyectos de TI, así como entre la transformación digital y dicha gestión, siendo esta última la variable con mayor efecto explicativo. El modelo estructural muestra que la transformación digital actúa como un mecanismo mediador parcial del impacto de la cultura organizacional sobre la gestión de proyectos de TI. Se concluye que el fortalecimiento de la cultura organizacional y, principalmente, el impulso de la transformación digital se asocian con una gestión más eficiente de los proyectos de tecnologías de la información, aportando evidencia relevante para la toma de decisiones estratégicas en contextos públicos de modernización tecnológica.
  • Item
    De la Crisis al Algoritmo: Modelos de Machine Learning para Predecir el Riesgo de Crédito en Perú
    (Universidad Nacional Mayor de San Marcos, 2025) Noriega Zapata, Jomark Pablo; Herrera Quispe, José Alfredo
    La presente investigación propone una metodología basada en escenarios para mejorar la predicción del riesgo crediticio en economías emergentes mediante la incorporación de factores externos exógenos que influyen en la estabilidad financiera, integrando variables asociadas a la severidad del COVID-19, anomalías climáticas y episodios de convulsión social en modelos de aprendizaje automático aplicados a la morosidad crediticia. Para ello, se emplearon series temporales nacionales y sectoriales sometidas a pruebas de estacionariedad y causalidad, las cuales fueron incorporadas como indicadores externos en modelos de machine learning desarrollados bajo el marco CRISP-DM y complementados con técnicas de explicabilidad como SHAP y LIME. El análisis incluyó más de 8.2 millones de registros y 367 000 créditos individuales otorgados por una entidad financiera regulada en Perú entre 2020 y 2023, demostrando que la integración de factores externos mejoró el desempeño de modelos como CNN y XGB hasta en siete puntos porcentuales en métricas AUC y ACC, especialmente en sectores económicos sensibles. Asimismo, escenarios como el COVID-MOV permitieron captar efectos diferidos al desplazar la curva de mortalidad en el tiempo, mientras que escenarios compuestos —clima y protestas— intensificaron el riesgo de incumplimiento entre un 10% y 18% en carteras sin respaldo estatal. Los resultados evidencian que el enfoque propuesto constituye un marco replicable y escalable para la modelización del riesgo crediticio ante shocks sistémicos, con implicancias relevantes para reguladores, gestores de riesgo y entidades financieras que operan en contextos volátiles.
  • Item
    Modelo Basado en Aprendizaje Profundo para Clasificar Células Neoplásicas en Imágenes de Citología de Líquido Pleural
    (Universidad Nacional Mayor de San Marcos, 2025) López Córdova, Frida Mereyda; Vega Huerta, Hugo Froilán
    El Derrame Pleural, es una patología que se manifiesta con la acumulación excesiva o fuera del rango normal de líquido pleural en la zona que rodea los pulmones. La citología es una rama de la medicina que estudia las células en sus diferentes aspectos morfológicos, funcionales y genéticos; desde microscopios simples hasta técnicas modernas, la evolución continúa, permitiendo su uso en oncología y análisis celular. El examen citológico es una técnica diagnóstica muy utilizada y de alta precisión para confirmar enfermedades y determinar su estadio. El proceso consiste en identificar signos atípicos, como células con formas y texturas irregulares. El diagnóstico médico se complica debido a la variabilidad de los estados patológicos en las muestras de líquido pleural, que pueden incluir enfermedades inflamatorias, infecciosas y neoplasias. La detección temprana de malignidad es crucial para un tratamiento oportuno, reduciendo el sufrimiento y potencialmente prolongando la vida del paciente. Además, la escasez de médicos patólogos y la demora en los diagnósticos abren oportunidades para la implementación de técnicas de inteligencia artificial, las cuales han demostrado un impacto significativo en la medicina diagnóstica en los últimos años. La investigación se llevó a cabo utilizando la metodología de Investigación en Ciencias del Diseño (DSR), lo que permitió un diseño estructurado, una implementación efectiva y una validación exhaustiva de la técnica propuesta. Se construyó un conjunto de datos de imágenes citológicas de líquido pleural que contiene 2640 imágenes de muestras de citología de líquido pleural. Para identificar células neoplásicas, se diseñó un modelo basado en Redes Neuronales Convolucionales (CNN), utilizando Transfer Learnig y tres arquitecturas de CNN pre entrenadas ResNet50V2, DesNet121 e InceptionV3. Se evaluó el desempeño al identificar células MAL (malignas) y células NFM (negativas para malignidad - benignas) según la clasificación del sistema internacional (TIS) para informar citología de líquidos serosos: riesgo de malignidad (MAL y NFM). Los tres modelos fueron entrenados, validados y evaluados con el mismo conjunto de datos, se evaluó el desempeño por modelo y se realizaron comparaciones combinadas mediante el Voting Classifier, para determinar qué modelo presenta la mejor precisión en la clasificación de imágenes citológicas. Los algoritmos de aprendizaje profundo propuestos para clasificar imágenes citológicas de líquido pleural lograron un rendimiento superior al 90% en pruebas. Las combinaciones más efectivas fueron ResNet+Inception y ResNet+DesNet, la primera combinación obtuvo mayor precisión (0.94) pero fue menos generalizable con un conjunto de datos externo, a diferencia la segunda combinación, aunque obtuvo una menor precisión (0.92) fue más generalizable cuando se probó en un conjunto de datos externo. Los resultados confirman el potencial del método propuesto para ayudar a los patólogos a lograr un diagnóstico más preciso.
  • Item
    Modelo de Gobernanza para Blockchain mediante BPM (Business Process Management) orientado a procesos inter-organizacionales
    (Universidad Nacional Mayor de San Marcos, 2025) Solorzano Cadena, Ruben Dario; León Fernández, Cayo Víctor
    El objetivo de la presente tesis Doctoral fue establecer de qué manera un modelo de gobernanza para Blockchain mediante BPM orientado a los procesos inter-organizacionales mejora el nivel de confianza del usuario y el nivel de alineación estratégica de los procesos inter-organizacionales. Los tipos de investigación abordados fueron: aplicada, descriptiva, relacional y transversal. El diseño de investigación fue no experimental, descriptivo y correlacional. La técnica para la recolección de datos aplicó la encuesta y el instrumento utilizado fue el cuestionario, cuya población estuvo conformada por 10 empresas locales. En ese contexto, la correlación positiva significativa de 0,688 entre el Modelo de Gobernanza para Blockchain mediante BPM y los procesos inter-organizacionales indica una sólida relación entre ambos. Se concluye que la implementación de un modelo de gobernanza para Blockchain mediante BPM mejora la gestión de procesos inter-organizacionales.
  • Item
    Modelo Sectrabank para mitigar el fraude informático en operaciones electrónicas a través de aplicaciones bancarias en dispositivos Android
    (Universidad Nacional Mayor de San Marcos, 2025) Melendez Melendez, Jhon Rigner; Mayhuasca Guerra, Jorge Victor
    El estudio desarrolla Sectrabank, un modelo de seguridad informática para mitigar el fraude en operaciones bancarias electrónicas en dispositivos Android. Aborda dos ataques frecuentes: SIM Swapping, que permite a ciberdelincuentes interceptar códigos de autenticación, y Fake Apps, que imitan aplicaciones oficiales para robar credenciales. Sectrabank refuerza la seguridad con un enfoque multicapa, combinando autenticación biométrica, validación de IMEI y geolocalización en tiempo real, ofreciendo una protección robusta y eficiente. Para evaluar la efectividad del modelo, se realizó un diseño experimental con dos grupos: un grupo experimental, donde los usuarios realizaron transacciones bancarias con la implementación de las medidas de seguridad del modelo Sectrabank y un grupo de control, sin medidas de seguridad. El modelo Sectrabank demostró ser una solución efectiva y confiable para mitigar el fraude en operaciones bancarias electrónicas en dispositivos Android, reduciendo significativamente los ataques de Fake Apps y SIM Swapping, con niveles de significación de 0.00 y altos porcentajes de efectividad en el grupo experimental (97.5% y 76.25%, respectivamente). Su diseño compacto y robusto, basado en un enfoque de seguridad multicapa que integra autenticación biométrica, validación del IMEI y geolocalización, permitió detectar y bloquear accesos fraudulentos antes de que se completaran transacciones no autorizadas. Además, los usuarios percibieron positivamente la usabilidad y confiabilidad del modelo, destacando su potencial para fortalecer la seguridad en plataformas bancarias móviles y su relevancia en un contexto de creciente fraude informático.
  • Item
    Modelo de predicción de deserción de clientes de servicio postpago de telefonía móvil en empresas de telecomunicaciones
    (Universidad Nacional Mayor de San Marcos, 2025) Freire Vera, David Andres; Rodriguez Rodriguez, Ciro
    El sector de telecomunicaciones ha experimentado un crecimiento exponencial desde el año 2000, alcanzando 5.31 billones de usuarios hasta el 2022 y generando ingresos de 1.07 trillones de dólares, sin embargo, este crecimiento conduce a una intensa competencia entre las empresas para la adquisición de clientes, especialmente en servicios móviles, lo que a menudo resulta en una deserción de clientes "churn". Por ello, se vienen desarrollando múltiples investigaciones que presentan algoritmos de predicción, que ayuden a tomar acciones con antelación para evitar la fuga de clientes, sin embargo, no existe homogeneidad entre las variables utilizadas en el conjunto de datos, el diseño de pasos para obtención del modelo y su comprobación, por lo cual el objetivo de esta investigación consiste en determinar cómo contribuye el uso del modelo de aprendizaje automático a la predicción de la deserción de clientes postpago en empresas de telecomunicaciones, considerando las variables del conjunto de datos (pertenecientes o no al sector de telecomunicaciones), el diseño del modelo y su validación a través de técnicas como la validación cruzada, prueba t de Student y el test de McNemar, demostrando con un p-value cercano a 0 que el modelo supera significativamente a los modelos base, y alcanzando un F1 score de 84% y un recall de 74%. El estudio concluye que el uso de aprendizaje automático contribuye significativamente a predecir la deserción de clientes, proponiendo mejoras en la integración de datos externos y exploración de nuevas técnicas de ensamblaje. La implementación del modelo puede extenderse a otros sectores, sugiriendo incluir variables macro y microeconómicas para una visión más completa del cliente.
  • Item
    Modelo de predicción basado en aprendizaje automático para la explicabilidad del riesgo de accidente vehicular por conducta de manejo
    (Universidad Nacional Mayor de San Marcos, 2025) Lacherre Vargas, Javier Enrique; Rodriguez Rodriguez, Ciro
    Este estudio tiene como objetivo desarrollar un modelo de predicción basado en aprendizaje automático para explicar el riesgo de accidentes vehiculares en vehículos pesados del sector minero, específicamente en carreteras rurales. Con datos de telemetría recolectados en tiempo real, se busca identificar patrones de comportamiento del conductor y condiciones del vehículo que logren predecir accidentes en tiempo real. Se usa un modelo ensamblado, que combina varios algoritmos de aprendizaje automático, con el fin de mejorar la exactitud y sensibilidad en la predicción de los riesgos. El estudio se estructura en tres fases principales. Primero, se lleva a cabo un estudio naturalista que recolecta datos de telemetría de vehículos pesados en operaciones mineras en carreteras rurales. En segundo lugar, se desarrolla y valida un modelo de predicción que combina modelos individuales para optimizar los resultados y lograr un equilibrio entre exactitud, sensibilidad y capacidad explicativa. Por último, se evalúa el modelo con un conjunto de datos independientes, y se demuestra que mantiene altos niveles de exactitud y fiabilidad. Los resultados obtenidos muestran que el modelo propuesto puede identificar de manera efectiva los riesgos de accidentes en función de 15 características del comportamiento del conductor. Además, el estudio confirma que un modelo ensamblado mejora significativamente los resultados en comparación con modelos individuales. Este enfoque está desarrollado para el sector minero, pero podría extenderse a otros sectores del transporte pesado. Por lo tanto, el estudio proporciona un modelo innovador para mejorar la seguridad vial y reducir el riesgo de accidentes en carreteras rurales.
  • Item
    Framework para la implantación de sistemas gestores de aprendizaje (LMS Learning Management System) en instituciones de educación superior
    (Universidad Nacional Mayor de San Marcos, 2025) Salazar Fierro, Fausto Alberto; León Fernández, Cayo Víctor
    Las Instituciones de Educación Superior (IES) enfrentan la necesidad de implantar sistemas gestores de aprendizaje (LMS) para aprovechar los beneficios tecnológicos. El presente proyecto propone un Framework denominado SimpleLMS, que incluye cinco componentes clave como guía para el proceso de implantación de LMS, basándose en el modelo de YIN. Se llevaron a cabo entrevistas con expertos en administración de tecnologías de la información, administradores de LMS y pedagogos de Argentina, Colombia, Ecuador y Perú, y se creó un sistema de códigos utilizando el software MaxQDA. Se identificaron cinco componentes: preparación (administrativos, tecnológicos y pedagógicos), actores involucrados (departamento de tecnología educativa, departamento de tecnologías de información, proveedor de LMS y comunidad educativa), proceso (pre-implantación, implantación y post-implantación), y actividades transversales (liderazgo, gestión de proyectos, gestión del cambio, capacitación). Además, se aplicó una encuesta de 22 preguntas con una prueba piloto, usando el alfa Cronbach a 26 expertos. Los análisis estadísticos (Traza de Pillai, Lambda de Wilks, Traza de Hotelling y Raíz Mayor de Roy) mostraron un valor de p significativo (0.000) y una eta parcial al cuadrado de 0.997, lo que indica que la varianza en la variable dependiente se explica por la intersección. La Raíz Mayor de Roy también mostró un valor de p significativo (0.025). En conclusión, el Framework SimpleLMS influye positivamente en la implantación del LMS en las IES.
  • Item
    Modelo de aprendizaje automático para mejorar la predicción de la quiebra de empresas
    (Universidad Nacional Mayor de San Marcos, 2025) Quinteros Navarro, Dino Michael; Rodriguez Rodriguez, Ciro
    El objetivo del trabajo de investigación fue desarrollar un modelo de aprendizaje automático para optimizar la predicción de la quiebra de empresas. El tipo de investigación fue aplicada con enfoque cuantitativo y diseño experimental. Asimismo, la muestra estuvo conformada por 379 empresas ubicadas en Lima Metropolitana, donde se realizó la aplicación de un instrumento (encuesta) y se clasificó en dos dimensiones: Entorno Empresarial y Situación Financiera. En ese marco, las actividades realizadas permitieron generar la matriz del conjunto de datos de 7,959 celdas. Posterior a ello, se ejecutaron 4 etapas, la primera etapa fue realizar el preprocesamiento: Limpieza de datos, normalización y categorización. La segunda etapa fue evaluar algoritmos y seleccionar el de mejor performance. La tercera etapa consistió en implementar el modelo mediante la identificación de factores relevantes y generar correlaciones. La cuarta etapa fue evaluar el modelo mediante métricas de performance. En ese sentido, los resultados mostraron que el modelo optimizado de aprendizaje supervisado (MO2A) obtuvo precisión 97%, exactitud 97%, sensibilidad 99% y f1-score 98%. Asimismo, para comprobar las hipótesis se realizaron las medidas estadísticas de Wilcoxon, coeficientes de correlación de Rho Spearman y Kappa de Cohen. Finalmente, se precisa que el desarrollo de un modelo de aprendizaje automático para mejorar la predicción de la quiebra de empresas propicia mejores panoramas para la toma de decisiones y evitar escenarios de quiebra empresarial.
  • Item
    Técnica basada en aislamiento para mejorar la detección de valores atípicos en Redes de Sensores Inalámbricos de monitoreo ambiental
    (Universidad Nacional Mayor de San Marcos, 2025) Garcia Garcia, Julio Cesar; Rivera Escriba, Luis Antonio
    Este trabajo presenta el desarrollo de una nueva técnica de detección de valores atípicos para redes de sensores inalámbricos (WSN) de monitoreo ambiental, denominada PVH-ADiForest (Percentage Variation and Histogram-based Adaptive Distributed Isolation Forest). La técnica propuesta aborda las limitaciones de los enfoques existentes mediante una adaptación distribuida del algoritmo Isolation Forest, incorporando el uso innovador de variaciones porcentuales, histogramas y ventanas deslizantes, además de un proceso online de tres fases que mejora significativamente el proceso de detección. La investigación se desarrolló siguiendo la metodología de Investigación en Ciencias del Diseño (DSRM), que permitió el diseño, implementación y validación exhaustiva de la técnica propuesta. PVH-ADiForest opera en una arquitectura jerárquica de tres niveles: nodos sensores que realizan la detección local, nodos de cabecera (cluster heads) que identifican la fuente de las anomalías y una estación base que recibe las notificaciones, alertas y alarmas para la toma de decisiones. Los resultados experimentales, basados en simulaciones con datos reales y sintéticos, demostraron que la técnica alcanza tasas de efectividad (ACC) superiores al 95% y tasas de falsos positivos (FPR) menores al 5%. La técnica mostró un rendimiento particularmente destacado en datos univariados y bivariados, superando a soluciones comparables como Isolation Forest original y AHIForest. Además, el análisis de complejidad confirmó que la técnica mantiene una complejidad computacional lineal y un uso eficiente de memoria, características cruciales para su implementación en entornos WSN con recursos limitados.
  • Item
    Captura de datos con tecnologías de drones en zonas pobladas: legalidad, seguridad y confiabilidad de la actividad
    (Universidad Nacional Mayor de San Marcos, 2024) Perez Veliz, Jonny Vicente; Delgadillo Avila, Rosa Sumactika
    En este estudio se evalúa la legalidad de estas operaciones mediante el análisis de los requisitos regulatorios, la seguridad a través de los lineamientos operativos, y la confiabilidad mediante los principios de privacidad. Utilizando un enfoque cuantitativo, se combinaron datos de diversas regulaciones y se incorporaron los criterios de explotadores y pilotos de drones con experiencia en estas actividades, los datos fueron analizados con ayuda del software SmartPLS 4.0. Los resultados revelan que las regulaciones no se ajustan totalmente a la realidad de los drones, lo que imposibilita que las actividades con estos dispositivos sean totalmente legales, seguras y confiables. El rápido crecimiento del mercado de drones y sus numerosas aplicaciones vuelve urgente establecer un equilibrio entre la innovación tecnológica, la seguridad operativa y la protección de la privacidad, maximizando los beneficios y minimizando los riesgos potenciales de esta tecnología.
  • Item
    Contribuciones al modelo de aceptación tecnológica aplicado al sector exportador de mercancías agrícolas
    (Universidad Nacional Mayor de San Marcos, 2023) Salas Arbaiza, Cesar Enrique; Vega Huerta, Hugo Froilán
    Valida un modelo de aceptación tecnológica, que fomente el incremento de los indicadores financieros de las empresas del SEMA. La investigación, se centra en la etapa de lanzamiento o puesta en producción del ciclo de vida de desarrollo de software, siendo necesario gestionar un proceso de adopción de tecnología para una adecuada transición a la nueva tecnología. La herramienta tecnológica usada en el proceso de adopción es la Ventanilla Única de Comercio Exterior (VUCE) y se aplicó al Sector Exportador de Mercancías Agrícolas del Perú (SEMA) la aceptación será más conveniente si evidencia incremento de las ventas y operaciones comerciales en el sector. Para esta investigación, se relevó los factores importantes y necesarios para una conveniente adopción tecnológica, se revisó el estado del arte de los Modelo de Aceptación Tecnológica (TAM) del 2001 al 2019, encontrando 10 modelos y 36 factores. Se plantea adaptar el modelo TAM, a un modelo que permitan al sector en estudio adoptar tecnología que agilice la burocracia y tramitología que obstaculiza el desarrollo del sector en estudio, éste modelo se le llama TAM4. Como primer estudio se aplica una encuesta a 68 de las 4560 empresas del sector, con un nivel de confianza y un error del 90% y ± 10% respectivamente, obteniendo que el 68% de estas estaría dispuesto a usar un modelo que posea los factores de: confianza y riesgo percibido. Como segundo estudio de investigación se diseña casos de estudio en cinco empresas agro exportadoras para validar el modelo TAM4, analizando el comportamiento a los largo de siete años de sus operaciones comerciales, se determinó que el modelo TAM4 incrementa en 11% de las ventas de las empresas participantes en el periodo de estudio.
  • Item
    Modelo de realidad aumentada que considere características cognitivas para aprendizaje de niños en edad escolar
    (Universidad Nacional Mayor de San Marcos, 2023) Lozada Yánez, Raúl Marcelo; La Serna Palomino, Nora Bertha
    Desarrolla el modelo de Realidad Aumentada denominado “Model for Augmented Reality Applications with Gestural Interface for Children (MARAGIC)”. El modelo considera las características cognitivas de niños en edad escolar, su validación y aplicación en el diseño y desarrollo de dos Recursos Educativos Digitales (RED) que se emplean como herramientas de apoyo en dos casos de estudio donde participan estudiantes que asisten al 3° grado de Educación General Básica (EGB) en la ciudad de Riobamba de Ecuador. El trabajo pretende ser un aporte que oriente el adecuado diseño y desarrollo de este tipo de herramientas tecnológicas educativas. Como método de estudio, se utiliza un enfoque de investigación cualitativa en el que la recolección de datos se realiza mediante la aplicación de una encuesta con elementos de referencia a la percepción tanto a los niños participantes del estudio como a un grupo de docentes de nivel medio y superior frente a la utilización de los recursos basados en MARAGIC. Se realiza además un análisis cuantitativo que permite comparar el rendimiento académico de los estudiantes antes y después de usar dichos recursos para los dos casos de estudio ejecutados. Los resultados señalan que los docentes encuestados perciben al modelo desarrollado como una oportunidad para mejorar los procesos de aprendizaje y que, la utilización de los recursos educativos desarrollados siguiendo las orientaciones del modelo MARAGIC mejora significativamente el rendimiento académico de los estudiantes participantes del estudio en sus clases de matemática. La aplicación de este tipo de recurso facilita los procesos de aprendizaje de los niños, mismos que se muestran motivados y participan activamente en las actividades propuestas en los recursos educativos diseñados a partir del modelo.
  • Item
    Herramientas Web. 2.0 y su influencia en las competencias genéricas Tuning en estudiantes de universidades públicas de Ecuador, 2020: Caso UFA ESPE
    (Universidad Nacional Mayor de San Marcos, 2023) Valencia Vivas, Gloria Maritza; León Fernández, Cayo Víctor
    Establece de qué manera las herramientas Web 2.0 influyen en las competencias genéricas Tuning en estudiantes de universidades públicas de Ecuador. En su desarrollo participaron 88 estudiantes universitarios de las carreras de Licenciatura en Ciencias Navales y Licenciatura en Ciencias Aeronáuticas de la Universidad de las Fuerzas Armadas del Ecuador, sus edades oscilaron entre de 20 a 21 años y con acceso a internet. El análisis de los datos revela que las herramientas web 2.0 más utilizada por los estudiantes fue el Blog, seguido por YouTube, representando el 68,2% del total de la muestra. Sin embargo, determina que la Wiki y el Foro son las herramientas que tuvieron mayor influencia en las competencias genéricas Tuning, mientras que el Blog, las Redes Sociales y YouTube presentaron una menor influencia. Por lo cual, se concluye que el uso de herramientas web 2.0 tienen influencia positiva en las competencias genéricas Tuning en estudiantes universitarios. Asimismo, se debe incorporar estas herramientas en el proceso de enseñanza aprendizaje con el uso adecuado y direccionado, en función de los objetivos y necesidades específicas de cada contexto educativo.
  • Item
    Nube social para enseñanza práctica de tecnología de información
    (Universidad Nacional Mayor de San Marcos, 2023) Luna Encalada, Washington Gilberto; La Serna Palomino, Nora Bertha
    Desarrolla un ecosistema de nube social para enseñanza práctica de TI, mediante un modelo de implementación, que cumplan con los cuatro pilares educativos, basados en tres modelos de servicios de la computación en la nube, conocidos como Software como Servicio (SaaS), Plataforma como servicio (PaaS) e Infraestructura como Servicio (IaaS).
  • Item
    Contribuciones para el aseguramiento de la calidad en el proceso de desarrollo de software ágil
    (Universidad Nacional Mayor de San Marcos, 2023) Arcos Medina, Gloria de Lourdes; Mauricio Sánchez, David Santos
    El propósito de esta investigación es contribuir en el aseguramiento de la calidad del software a través de la determinación de nuevos factores críticos de éxito y prácticas ágiles que influyen en las características de calidad de software. A a pesar de que existen estándares y modelos de calidad para asegurar la calidad en proyectos de desarrollo ágil, su complejidad en su aplicación es contraria a los principios propuestos por el agilismo, lo que impide tener un software con un adecuado nivel de calidad. Para cumplir con el objetivo propuesto se ha aplicado un diseño de investigación cualitativa, los resultados se obtuvieron mediante el análisis de residuos estandarizados a 146 cuestionarios dirigidos a personas involucradas en el proceso de desarrollo de software. Esta investigación contiene una revisión sistemática de la literatura que permitió catalogar 148 factores críticos de éxito, 137 prácticas ágiles, 165 métricas y 71 atributos de calidad relacionados con el desarrollo ágil de software. Además, se presenta un modelo compuesto por cuatro componentes: 1) seis factores críticos de éxito obtenidas de las teorías del comportamiento humano y administrativo, 2) cuatro categorías de prácticas ágiles, 3) ocho características de calidad basadas en el estándar ISO/IEC 25010 , y 4) hipótesis que determinan la influencia entre los componentes del modelo propuesto. Las contribuciones realizadas como resultado de este estudio permitirán asegurar la calidad en el proceso de desarrollo de software ágil y tomar acciones para mitigar la influencia negativa de algunos factores críticos y contribuir a la implementación de proyectos exitosos.
  • Item
    Un algoritmo multiplicador proximal para clasificación binaria en máquinas de vectores soporte
    (Universidad Nacional Mayor de San Marcos, 2023) Cano Lengua, Miguel Angel; Papa Quiroz, Erik Alex
    Desarrolla un algoritmo multiplicador proximal para resolver problemas de optimización convexa separable sobre conos simétricos y aplicarlo a problemas de clasificación binaria para máquinas de vectores de soporte. Este algoritmo tiene como fundamento teórico los espacios vectoriales de dimensión finita, además de un producto interior, un Álgebra de Jordan Euclidiana, distancias proximales, cono simétrico de segundo orden, entre otros conceptos teóricos. El algoritmo para clasificación de datos binario se desarrolló probando la buena definición, el análisis de la convergencia, el análisis de la complejidad de este. Este algoritmo surge como una nueva técnica el cual puede ser utilizado para la clasificación de datos, se probó su convergencia global bajo determinados supuestos, se realizó la implementó del algoritmo en el software Matlab versión 2017 (R2017a), en una computadora 8 th Gen Intel (R) Core (TM) i5-8250U CPU, 1.60 GHz 1.80 GHz, 4.00 GB, Windows 1064 bits. Posteriormente se realizó el diseño utilizando el marco metodológico Scrum. Para ello se desarrolló 3 sprint de acuerdo con los requerimientos de las historias de usuarios. Se realizó un análisis comparativo con otros algoritmos proximales, así como también experimentos computacionales con el uso del algoritmo implementado.
  • Item
    Contribuciones para la Detección de Ataques Distribuidos de Denegación de Servicio (DDoS) en la Capa de Aplicación
    (Universidad Nacional Mayor de San Marcos, 2019) Bravo Mullo, Silvia Jeaneth; Mauricio Sánchez, David Santos
    Se analizaron seis aspectos sobre la detección de ataques DDoS: técnicas, variables, herramientas, ubicación de implementación, punto en el tiempo y precisión de detección. Este análisis permitió realizar una contribución útil al diseño de una estrategia adecuada para neutralizar estos ataques. En los últimos años, estos ataques se han dirigido hacia la capa de aplicación. Este fenómeno se debe principalmente a la gran cantidad de herramientas para la generación de este tipo de ataque. Por ello, además, en este trabajo se propone una alternativa de detección basada en el dinamismo del usuario web. Para esto, se evaluaron las características del dinamismo del usuario extraídas de las funciones del mouse y del teclado. Finalmente, el presente trabajo propone un enfoque de detección de bajo costo que consta de dos pasos: primero, las características del usuario se extraen en tiempo real mientras se navega por la aplicación web; en segundo lugar, cada característica extraída es utilizada por un algoritmo de orden (O1) para diferenciar a un usuario real de un ataque DDoS. Los resultados de las pruebas con las herramientas de ataque LOIC, OWASP y GoldenEye muestran que el método propuesto tiene una eficacia de detección del 100% y que las características del dinamismo del usuario de la web permiten diferenciar entre un usuario real y un robot.