Unidad de Postgrado Ingeniería de Sistemas e Informática
Permanent URI for this communityhttps://hdl.handle.net/20.500.12672/127
Browse
Browsing Unidad de Postgrado Ingeniería de Sistemas e Informática by Title
Now showing 1 - 20 of 193
- Results Per Page
- Sort Options
Item Adaptación del algoritmo Grasp en el diseño eficiente de la interfaz gráfica de usuario(Universidad Nacional Mayor de San Marcos, 2007) Zamudio Díaz, Juan JoséExisten algunos métodos en la actualidad para el mejoramiento de la interfaz gráfica de usuario (GUI), métodos que, muchas veces, se basan en la recopilación de información vía test de usuarios y en la creatividad del diseñador; de acuerdo a las funcionalidades que debe proporcionar la GUI para el procesamiento de los datos. En el presente trabajo desarrollaremos una metodología de optimización para el diseño de una GUI utilizando un algoritmo de procedimiento de búsqueda adaptativa aleatoria (GRASP), que tendrá como base un algoritmo goloso de tipo FFD (first fit decreassing), que nos permitirá encontrar un diseño óptimo de una GUI, basado en la eficiente distribución de objetos visuales. Este diseño óptimo servirá para la correcta comunicación hombre-maquina en el eficiente procesamiento de los datos. Cabe recalcar que siempre un diseño de una GUI guarda una estrecha relación con el desarrollo cognitivo del usuario. Esto puede ocasionar una pequeña variación en el diseño final de una GUI.Item Algoritmo en detección positiva de la imagen de una persona para la mejora en eficiencia energética en una Smart Grid Home(Universidad Nacional Mayor de San Marcos, 2021) Garcia Quilachamin, Washington Xavier; Pró Concepción, Luzmila ElisaLa revolución tecnológica del siglo XXI ha contribuido a la aplicación de algoritmos en cámaras para la detección y reconocimiento de personas a partir de imágenes o videos considerados aún complejos para una computadora. Por lo que las tecnologías asociadas a la eficiencia energética y su uso en sistemas eléctricos surgen como problemas en la aplicación de dispositivos inteligentes en: viviendas, edificios, empresas e instituciones públicas y privadas. El objetivo de esta tesis es determinar de qué manera un algoritmo en detección positiva de la imagen de una persona en tiempo real influye en la eficiencia energética generada en un sistema de iluminación en una Smart Grid Home. Se realizó una revisión sistemática de los algoritmos en detección de patrones, considerando los criterios de Kitchenham y un estudio de campo, aplicado en instituciones públicas de la provincia de Manabí - Ecuador, la cual fue validada mediante el análisis factorial de confiabilidad relacionado con la prueba KMO, la esfericidad de Bartlett y el coeficiente alfa de Cronbach. Se aplicaron técnicas en la detección de patrones y los resultados obtenidos nos permiten considerar el modelo Support Vector Machines con un 92% de reconocimiento y el algoritmo Viola-Jones con detección efectiva del 97,53%. De manera experimental en relación con el algoritmo aplicado en un control de encendido y apagado de un dispositivo de iluminación, los resultados determinaron que el 99.5% en la detección de imágenes es positiva. Se concluye que la eficiencia y efectividad del algoritmo aplicado en un control de encendido y apagado de un dispositivo de iluminación mejora el consumo de energía eléctrica, siendo un aporte a la gestión energética, seguridad y vigilancia de las personas y bienes materiales.Item Un algoritmo multiplicador proximal para clasificación binaria en máquinas de vectores soporte(Universidad Nacional Mayor de San Marcos, 2023) Cano Lengua, Miguel Angel; Papa Quiroz, Erik AlexDesarrolla un algoritmo multiplicador proximal para resolver problemas de optimización convexa separable sobre conos simétricos y aplicarlo a problemas de clasificación binaria para máquinas de vectores de soporte. Este algoritmo tiene como fundamento teórico los espacios vectoriales de dimensión finita, además de un producto interior, un Álgebra de Jordan Euclidiana, distancias proximales, cono simétrico de segundo orden, entre otros conceptos teóricos. El algoritmo para clasificación de datos binario se desarrolló probando la buena definición, el análisis de la convergencia, el análisis de la complejidad de este. Este algoritmo surge como una nueva técnica el cual puede ser utilizado para la clasificación de datos, se probó su convergencia global bajo determinados supuestos, se realizó la implementó del algoritmo en el software Matlab versión 2017 (R2017a), en una computadora 8 th Gen Intel (R) Core (TM) i5-8250U CPU, 1.60 GHz 1.80 GHz, 4.00 GB, Windows 1064 bits. Posteriormente se realizó el diseño utilizando el marco metodológico Scrum. Para ello se desarrolló 3 sprint de acuerdo con los requerimientos de las historias de usuarios. Se realizó un análisis comparativo con otros algoritmos proximales, así como también experimentos computacionales con el uso del algoritmo implementado.Item Análisis cienciométrico de las tendencias emergentes, dinámicas y modelos espacio-temporales del uso de bots de inteligencia artificial, ChatGPTs y agentes conversacionales inteligentes en la educación médica(Universidad Nacional Mayor de San Marcos, 2024) Mayta Tovalino, Frank Roger; Escobedo Bailón, Frank EdmundoAnaliza las tendencias emergentes, dinámicas y modelos espacio-temporales relacionadas con el uso de bots de inteligencia artificial, ChatGPTs y agentes conversacionales inteligentes en la educación médica. Se empleó un análisis transversal, retrospectivo y observacional con enfoque cienciométrico de las publicaciones científicas indexadas en Web of Science. Se utilizaron indicadores bibliométricos para analizar los metadatos de los artículos científicos publicados sobre el tema. Se observó un crecimiento constante en la producción científica, con un aumento significativo en los últimos años. Las revistas “Journal of Biomedical Informatics”, “Journal of the American Medical Informatics Association” y “Journal of Medical Internet Research” fueron las más influyentes en este campo. Los Estados Unidos lideran la producción de artículos, seguidos por China. El estudio bibliométrico revela un crecimiento constante en la producción documental en el campo de la inteligencia artificial en la educación médica, los Estados Unidos y China lideran en la producción de artículos, con una alta tasa de colaboración internacional.Item Análisis de la aceptación de la normativa de tecnologías en las instituciones públicas del Estado peruano(Universidad Nacional Mayor de San Marcos, 2012) Gutarra Castañeda, Maritza; Rodríguez Robles, Flavio EnriqueValida la aplicabilidad del modelo de aceptación de la tecnología -TAM en un contexto como Perú; asimismo evalúa y explica la adopción de una tecnología en particular como es la NTP-ISO/IEC 12207 por los usuarios de tecnología de la información en las Instituciones Públicas, se aplicó el TAM ya que goza de un mayor reconocimiento en la literatura en estas últimas décadas, con el fin de entender la fuerza que motiva o impide una adecuada relación de tecnología con los usuarios especialistas, pues es considerado como el más difícil de analizar pero en el que recae la decisión de uso de la tecnología.Item Aplicación móvil mediante la metodología skanbok para la mejora del proceso de atención al cliente en el sector turismo post COVID-19(Universidad Nacional Mayor de San Marcos, 2024) Oncebay Lopez, Julio Jesus; Gamboa Cruzado, Javier ArturoLa presente investigación implementa una aplicación móvil usando la metodología SKANBOK para el proceso de atención al cliente en el turismo, que tendrá como principal objetivo conectar al viajero, turista con las zonas turísticas optimizando el proceso de atención. Además, la popularidad de las aplicaciones móviles crece constantemente y cambia el comportamiento en la atención al cliente en el sector turismo en todos sus tipos y diversidades. Por tal motivo, al implementar la aplicación móvil bajo la metodología SKANBOK, es contar con una herramienta tecnológica que interactué con el turista agilizando y personalizando el proceso de atención. También, generar progreso, rentabilidad al turismo que está en proceso de reactivación.Item Arquitectura de honeynet con integración de datos para el análisis de evidencia digital(Universidad Nacional Mayor de San Marcos, 2025) Velasco Silva, Danny Patricio; Rodríguez Rafael, Glen DaríoLa honeynet surgió como una herramienta de seguridad informática, diseñada intencionalmente para ser detectada, atacada y comprometida por intrusos en un entorno controlado. Está compuesta por una serie de entornos de red y sistemas señuelo, conocidos como honeypots, los cuales, una vez instalados y configurados, simulan servicios y vulnerabilidades reales con el objetivo de atraer a los intrusos. Esta infraestructura permite observar en tiempo real las acciones de los atacantes, facilitando el análisis profundo de sus tácticas, técnicas, estrategias y objetivos, proporcionando información valiosa para el desarrollo de defensas más eficaces frente a amenazas cibernéticas. A lo largo de los últimos años, se han implementado diversas arquitecturas honeynet con el propósito de mejorar la detección y análisis de ataques, sin embargo, estos estudios han evidenciado una limitación persistente en la falta de integración de datos. En este contexto, el propósito principal de esta investigación es desarrollar una arquitectura de honeynet con integración de datos para el análisis de evidencia digital, que mejore la interoperabilidad propia de la heterogeneidad en los datos proporcionados por las herramientas utilizadas en honeynet en cuanto a confiabilidad y tiempos de respuesta. Se elaboró una ontología honeynet para integración de datos, mediante una especificación explícita y formal de una conceptualización compartida, desarrollada en la herramienta de código abierto Protégé, tomando como base metodológica methontology, la cual fue la base para la arquitectura honeynet con integración de datos para el análisis de evidencia digital, las herramientas que se utilizaron en la arquitectura honeynet para la captura de datos son: Firewall, Sebek, Snort, Argos, P0f, con la finalidad de capturar el comportamiento del intruso dentro de la honeynet, generando una base de datos unificada con toda la información recopilada. La investigación adoptó un enfoque cuantitativo, con un nivel descriptivo y explicativo, y se enmarcó en un diseño cuasiexperimental, mediante la validación de indicadores técnicos con el juicio de expertos y pruebas de hipótesis. Los resultados obtenidos en la evaluación de la arquitectura de honeynet con integración de datos evidencian mejoras sustanciales para el análisis de seguridad digital. Se observó una mejora significativa en la recopilación y comparación de atributos de los datos capturados, lo que facilitó la identificación de patrones de ataque y correlación de eventos, la integración de datos permitió el acceso centralizado a información proveniente de diversas fuentes a través de una sola vista, simplificando la labor del analista, otro hallazgo clave fue la reducción de los tiempos de detección de ciberataques, lo que permite actuar con prontitud ante amenazas y reducir el riesgo de daño a la infraestructura tecnológica, incrementando la confianza de los analistas en el proceso y en los resultados obtenidos permitiendo una mejor gestión para la toma de decisiones de manera eficaz y oportuna.Item Barreras que influyen en la interoperabilidad de los sistemas de información y comunicación en el Gobierno Electrónico del estado peruano(Universidad Nacional Mayor de San Marcos, 2024) Oncoy Nieves, Edward James; Lezama Gonzales, Pedro MartinEl Gobierno Electrónico (E-Gobierno) se fundamenta en la integración de Tecnologías de la Información y Comunicación (TIC) dentro de las instituciones gubernamentales con la finalidad de atender las necesidades de servicios eficientes por parte de los ciudadanos. No obstante, alcanzar una auténtica interoperabilidad, es decir, la destreza de las instituciones para compartir y usar datos de manera efectiva mediante las TIC para cumplir con sus metas, se ve comprometida por una serie de barreras. La principal dificultad que enfrenta la implementación de E-Gobierno en diversas naciones es la falta de interoperabilidad entre las plataformas de Tecnologías de Información (TI) de los establecimientos gubernamentales. Si el gobierno público consigue ofrecer servicios integrados, se podrían mejorar aspectos fundamentales como la transparencia, la disputa a la corrupción y el nivel de atención de las prestaciones (Olumoye & Govender, 2017). El propósito primordial de este estudio es reconocer los obstáculos que afectan la capacidad de interoperar entre las plataformas tecnológicas en el marco del E-Gobierno en el Estado Peruano. Estas dificultades se pueden clasificar en tres categorías: organizativas, semánticas y técnicas. Entre los desafíos identificados se encuentran problemas relacionados con los procesos institucionales, el respaldo legal, la escasez de recursos humanos competentes, la inadecuada seguridad y protección de información, la disparidad semántica de los datos y las incompatibilidades entre los sistemas. La comprensión de estas barreras es crucial, ya que proporciona el fundamento para desarrollar estrategias que puedan superar estos desafíos y lograr una implementación exitosa de servicios en línea. La identificación de estas barreras no solo contribuye a mejorar la eficacia del Gobierno Electrónico, sino que también facilita a elegir una acertada decisión fundamentada para fortalecer la calidad y la accesibilidad de las asistencias y prestaciones gubernamentales en línea en el Estado Peruano.Item Base de datos distribuidos usando algoritmos genéticos para optimización de proceso transacción en la Web(Universidad Nacional Mayor de San Marcos, 2010) Pró Concepción, Luzmila ElisaEL desarrollo de la investigación de la Tesis de “Base de Datos Distribuidos Usando Algoritmos Genéticos Para Optimización de Proceso Transacción en la Web”, ha sido posible llegar a las siguientes conclusiones: Hay deficiencia en el tiempo de procesos de transacción por el procesador del servidor; que actualmente trabajan con algoritmos tradicionales; como la lectura / escritura de datos en el disco magnético en el servidor Web, produciéndose por ejemplo, demora en la cola de espera, demora en tiempo de proceso de transacción, demora en tiempo de respuesta, que ocasionan los denominados cuellos de botella, falta memoria, etcétera. El problema central que se propone está orientado al crecimiento y, evolución del servidor web de una manera económica y escalable que lleva a un rendimiento óptimo. Por consiguiente, existe la necesidad de estudiar los procesos de transacciones del sistema, de tal manera que se aplique otra alternativa como algoritmos genéticos para optimizar el proceso de transacción en el servidor, a fin de así mejorar los procesos del servidor web y, mejorar la atención a los clientes / usuarios. El objetivo es implementar un simulador de transacciones orientando a la toma de decisiones del administrador de transacciones con la aplicación de algoritmos genéticos. Se usará los algoritmos genéticos para determinar que transacción se debe tomar para asignarlo en la cola de procesos. Se asumen ciertas restricciones que el simulador tomará como dadas. Por ejemplo, cada transacción tiene un número constante de recursos que solicitan. Cada recurso tiene una cola que administra y solo se pueden hacer 2 tipos de requerimiento: leer y escribir. La estructura de un cromosoma consta de un grupo de alelos y cada uno corresponde con un recurso solicitado. El administrador de transacciones tomará el requerimiento por el recurso para ponerlo en cola, el que tenga un máximo de cromosoma igual a 1, es decir, cuando encuentre entre el grupo de transacciones la transacción que tenga sus alelos en 1. Se tomará como cromosoma una cadena binaria que será convertida a números enteros. Se ha realizado un análisis de los modelos de transacciones que operan actualmente y se ha extraído tales mecanismos para llevarlo a un proceso de toma de decisiones en función de los algoritmos genéticos. Se ha implementado un simulador prototipo para un sistema de aplicación con algoritmos genéticos, para optimizar el proceso de transacción, antes de procesar los datos, se evaluarán los procesos de transacciones sobre: tiempo de simulación, número de transacciones, tiempo de la transacción, número de recursos, longitud de la cola del recurso, probabilidad de cruzamiento, probabilidad de mutación, transacciones en cola, atendidos, en lectura, en escritura, tiempo consumido, y se consigue los resultados de procesos óptimos; el tiempo de procesamiento de datos mediante el simulador es menor que el tiempo de procesamiento de datos que en el procesador convencional, mejor uso del recurso de la computadora. -- PALABRAS CLAVES: ALGORITMOS GENÉTICOS, BASE DE DATOS DISTRIBUIDOS, GENOMA, INTERCONEXIÓN DE SISTEMAS ABIERTOS, PROTOCOLO DE CONTROL DE TRANSMISIÓN, PROTOCOLO DE INTERNET, SERVIDOR WEB, SISTEMA OPERATIVO, TRANSACCIÓNItem Captura de datos con tecnologías de drones en zonas pobladas: legalidad, seguridad y confiabilidad de la actividad(Universidad Nacional Mayor de San Marcos, 2024) Perez Veliz, Jonny Vicente; Delgadillo Avila, Rosa SumactikaEn este estudio se evalúa la legalidad de estas operaciones mediante el análisis de los requisitos regulatorios, la seguridad a través de los lineamientos operativos, y la confiabilidad mediante los principios de privacidad. Utilizando un enfoque cuantitativo, se combinaron datos de diversas regulaciones y se incorporaron los criterios de explotadores y pilotos de drones con experiencia en estas actividades, los datos fueron analizados con ayuda del software SmartPLS 4.0. Los resultados revelan que las regulaciones no se ajustan totalmente a la realidad de los drones, lo que imposibilita que las actividades con estos dispositivos sean totalmente legales, seguras y confiables. El rápido crecimiento del mercado de drones y sus numerosas aplicaciones vuelve urgente establecer un equilibrio entre la innovación tecnológica, la seguridad operativa y la protección de la privacidad, maximizando los beneficios y minimizando los riesgos potenciales de esta tecnología.Item Clasificación de lesiones en imágenes dermatoscópicas usando redes convolucionales profundas, transfer learning, congelamiento de capa óptima y ensamblado(Universidad Nacional Mayor de San Marcos, 2023) Herrera Del Aguila, Henry Miguel; Herrera Quispe, José AlfredoOptimiza el desempeño en la clasificación de imágenes dermatoscópicas en 7 tipos de lesiones mediante el uso de redes neuronales convolucionales profundas con transfer learning, congelamiento de capa óptima y ensamblado. La visión computacional y las redes neuronales convolucionales profundas han tenido un impacto significativo en la actividad médica, siendo utilizadas para el diagnóstico de enfermedades mediante imágenes y detección de patrones. Los resultados del estudio demuestran una mejora en el desempeño de la clasificación del diagnóstico al aplicar un método novedoso de congelamiento mediante búsqueda binaria mejorando su exactitud hasta un 3.18 %. Además, se compara este enfoque con la propuesta de Nagae, que utiliza algoritmos genéticos para el congelamiento de capas, obteniendo en algunos casos una mejora de hasta un 2.65% en exactitud. Posteriormente, se aplican diversos métodos de ensamblado para mejorar hasta un 4.69% en exactitud.Item Clasificación de reclamos virtuales en el sector público: un análisis comparativo de algoritmos de aprendizaje automático usando procesamiento de lenguaje natural(Universidad Nacional Mayor de San Marcos, 2025) Diaz Tunjar, Thalia; Herrera Quispe, José AlfredoLa atención oportuna y eficiente de los reclamos ciudadanos en el sector público representa un desafío persistente, especialmente ante el creciente volumen de registros en plataformas virtuales. El procesamiento manual de estos reclamos genera demoras, errores y respuestas insatisfactorias que afectan la confianza del ciudadano en la gestión pública. La presente investigación de carácter aplicado y experimental tiene como objetivo validar la efectividad de técnicas de clasificación automática de reclamos mediante el uso de Natural Language Processing (NLP) y algoritmos de Machine Learning (ML). Para ello, se formula una hipótesis principal orientada a determinar si es posible mejorar la clasificación y gestión de reclamos en un libro de reclamaciones virtual mediante la aplicación de modelos supervisados entrenados con datos reales del sector público peruano. Se desarrolló un análisis comparativo de cinco algoritmos de clasificación: Naive Bayes, Random Forest, Logistic Regression, Linear Support Vector Classifier (LinearSVC) y el modelo de lenguaje Claude AI. El conjunto de datos constó de 261,627 registros textuales, categorizados en seis clases: reclamo, queja, denuncia, consulta, sugerencia y otro. Los textos fueron sometidos a procesos de lematización, vectorización TF-IDF y balanceo mediante SMOTE, y los modelos fueron evaluados mediante métricas como precisión, recall y F1-score. Los resultados demuestran que es factible mejorar significativamente la clasificación. Entre los algoritmos clásicos, la Logistic Regression mostró un desempeño sólido y equilibrado, alcanzando un F1- score de 0.8639 en la categoría “Reclamo”. El modelo LinearSVC demostró alta capacidad de generalización con recall de 1.0 en clases minoritarias. El modelo Claude AI presentó un rendimiento competitivo, aunque inferior a los modelos supervisados optimizados. Esto confirma que la aplicación de NLP y ML, particularmente con modelos entrenados específicamente para el dominio, constituye una solución escalable y confiable para optimizar la gestión de reclamos, reduciendo tiempos de atención y aumentando la eficiencia operativa en entornos institucionales digitales.Item Comparación de métodos estadísticos y redes neuronales para la toma de decisiones en la asignación de ubicación del almacenamiento(Universidad Nacional Mayor de San Marcos, 2025) Sánchez Ferrer, Agusto Guillermo; Herrera Quispe, José AlfredoEn la actualidad, los almacenes enfrentan diversos desafíos logísticos, siendo uno de los más críticos el proceso de preparación de pedidos, en el cual los tiempos de recolección se incrementan significativamente debido a la congestión ocasionada por la falta de productos en las ubicaciones asignadas, lo que ha motivado la aplicación de estrategias como el slotting para optimizar la asignación de productos mediante técnicas analíticas; sin embargo, las variaciones estacionales y los cambios en la demanda dificultan una asignación eficiente y flexible. En este contexto, la investigación desarrolla un enfoque orientado a mejorar la asignación de ubicaciones de almacenamiento mediante el pronóstico de la demanda de productos, empleando métodos estadísticos y redes neuronales como soporte para la toma de decisiones logísticas, a partir del análisis de datos históricos correspondientes a 50 productos durante un período de siete años, comprendido entre enero de 2016 y julio de 2023. El estudio se estructura en dos fases, en las que inicialmente se integra un modelo novedoso sustentado en la revisión rigurosa de antecedentes, y posteriormente se comparan diferentes técnicas de pronóstico, tales como el modelo autorregresivo integrado de medias móviles estacional, la suavización exponencial doble y triple, y redes neuronales basadas en unidades recurrentes con puertas y memoria de largo y corto plazo. Los resultados obtenidos demuestran que el enfoque híbrido propuesto mejora la precisión de los pronósticos de demanda y contribuye a la optimización de la asignación de ubicaciones en el almacenamiento, permitiendo reducir los tiempos de preparación de pedidos y fortalecer el desempeño logístico de los almacenes.Item El conocimiento del gobierno de TI permitirá determinar los factores de la implementación de un Módulo COBIT E-Learning dentro de la Currícula de Administración de la UNMSM(Universidad Nacional Mayor de San Marcos, 2024) Saldarriaga Cabrera, Roxanna Fiorella; Vega Huerta, Hugo FroilánAnaliza los factores que implicaría incorporar un módulo de aprendizaje el cual se realiza a los alumnos de Administración de la Universidad Nacional Mayor de San Marcos, a causa de la problemática que se tiene para comprender el buen uso del Gobierno de TI (Tecnologías de la información y la comunicación) y la importancia que tiene en todo aspecto. Gracias a dicho módulo, los estudiantes podrán aprender de forma más fácil el Gobierno de TI en su vida cotidiana ya que la tecnología está abarcando todas las áreas hoy en día. Se sugiere ejecutar el módulo orientado al modelo COBIT el cual se analiza los niveles y componentes que contendrán para mejorar las habilidades de los alumnos. Se analizaron métodos para la enseñanza de esta materia y los criterios que se empleaban para la mejor adaptabilidad de los estudiantes. A su vez, se realizó una investigación ejecutada a los alumnos de la Facultad de Administración para recaudar información real y poder formular los valores correspondientes a esta investigación. Dicha investigación arrojó que solo el 10% de estudiantes conocía sobre el Gobierno de TI.Item Construcción de un framework que facilite la implementación de VSE, según la norma ISO/IEC 29110(Universidad Nacional Mayor de San Marcos, 2015) Fabián Germán, Cristian Manuel; Sotelo Bedón, Adolfo MarcosLa mejora de una organización, depende básicamente de la forma en cómo hayan sido implementados los procesos y la definición correcta de los mismos, los cuales deben estar alineados a los intereses de la organización, además de ser adoptados y acogidos por las personas que las ejecutan de manera correcta. Sin embargo para llegar a cumplir con el enunciado antes citado se requiere de una serie de pasos, los cuales se convierten en una receta para lograr los objetivos deseados; el desconocimiento de estos pasos o receta son principalmente los que se convierten en trabas para que las pequeñas organizaciones no logren sus objetivos de cumplir con los estándares indicados por los modelos de procesos orientados a la calidad. El estudio propone un framework o marco de trabajo que facilite la implementación del modelo de proceso VSEs (de sus siglas en ingles Very Small Entity), según lo indicado en la norma ISO /IEC TR 29110-5-1-2. Mediante la utilización de framework, la idea principal es facilitar la adopción de la norma en las pequeñas organizaciones, con soporte guiado paso a paso para su implementación y proceso de evaluación. Su viabilidad queda demostrada con su puesta en práctica en algunos proyectos orientados a desarrollo de software. Para la elaboración del framework propuesto se ha tomado como referencia a varias herramientas como: i) Meycor CobiT, el cual es una completa herramienta integral e intuitiva para la implementación del marco CobiT, para la Gobernanza, la Gestión de riesgos tecnológicos, la Seguridad, el Control Interno, y el Aseguramiento de la TI, basado en COBIT ii) CMMI-Quest, esta herramienta permite efectuar evaluaciones de acuerdo al modelo CMMI-SE/SW en su representación continua. La evaluación se limita a asignar valores a los objetivos, no permite evaluaciones a nivel de prácticas (por debajo del nivel de los objetivos). No brinda soporte para el método SCAMPI. iii) IME Toolkit, esta herramienta permite efectuar evaluaciones de acuerdo al modelo CMMI SE/SW. Las evaluaciones consisten en asignar valores numéricos a las prácticas, en base a los cuales la herramienta genera puntuaciones (scores) para cada área de proceso. No brinda soporte para el método SCAMPI. No posee guías de asistencia para la evaluación. Además de estas herramientas de software, se ha investigado como parte integral del estudio, algunas de las normas ISO relacionadas, tales como la: i) NTPISO/ IEC 9126-2: Calidad del producto. ii) ISO 12207, Ciclo de vida del Software iii) ISO 15504, Evaluación de procesos.Item Contribuciones a la predicción de la deserción universitaria a través de minería de datos(Universidad Nacional Mayor de San Marcos, 2019) Albán Taipe, Mayra Susana; Mauricio Sánchez, David SantosIdentifica una limitada producción científica que analiza factores de deserción desde la perspectiva del estudiante, que es el actor principal de la deserción, y la construcción de modelos híbridos de predicción que permitan comprender mejor manera el problema de la deserción en las universidades. El objetivo consiste en contribuir al proceso de predicción de la deserción estudiantil universitaria a través del estudio integral de factores, técnicas y herramientas de minería de datos usados con este fin. Se concluye que la predicción de la deserción en las universidades puede variar, ya que dependerá de los factores de ingreso, del contexto educativo estudiado, del entorno de educación aplicado, y de los antecedentes de los estudios para los que fueron usados. Por otro lado, se considera importante determinar si es suficiente con predecir la deserción o si se requiere incorporar estudios que establezcan estrategias para mitigar la deserción en las instituciones de educación superior.Item Contribuciones al desarrollo de una Startup de TI: ciclo de vida y factores críticos de éxito(Universidad Nacional Mayor de San Marcos, 2021) Santisteban Pazos, José Luis; Mauricio Sánchez, David SantosEl emprendurismo es un responsable directo de impulsar el progreso económico de las naciones, ya que al generar nuevas compañías se generan nuevos puestos de trabajos y riquezas. Uno de los emprendimientos más conocidos son las Startups de Tecnología de la Información (STI), este tipo de empresas son entidades temporales e innovadoras que transforman invenciones tecnológicas en productos innovadores. Conocedores de su importancia que tienen este tipo de iniciativas empresariales, su tasa de fracaso es alta en todo el mundo, solo el 20% logra superar los 3 primeros años de operación. Por esta razón, se viene realizando diferentes estudios sobre el éxito de la startup, identificando Factores Críticos de Éxito (FCE). Sin embargo, aún hay factores que no han sido estudiados y que influyen de manera positiva. Además, estos estudios no identifican cómo los factores contribuyen en el éxito de las Etapas del Ciclo de Vida (ECV) de una STI. Por lo tanto, esta tesis se identifican nuevos FCE en cada una de las ECV y su éxito general, así mismo, se identifican y estandarizan las ECV de una STI. Teorías como Capacidad de absorción, Confirmación de la expectativa, Modelo de éxito de un sistema de información, y la Capacidad dinámica ofrecen FCE no investigados en materia de emprendimiento tecnológico (Capacidad de absorción de conocimiento, Alto rendimiento percibido del producto, Calidad del producto, Satisfacción del cliente, y Capacidad dinámica). Se llevó a cabo dos estudios con pruebas estadísticas para demostrar, que los nuevos FCE tienen una contribución “Alta” y “Muy alta” sobre el éxito de una STI, con un 95% de certidumbre en la prueba de hipótesis T-Student.Item Contribuciones al gobierno de las tecnologías de la información en el contexto universitario(Universidad Nacional Mayor de San Marcos, 2022) Oñate Andino, Mayra Alejandra; Mauricio Sánchez, David SantosDetermina la influencia de los 13 factores críticos de éxito propuestos en el principio de responsabilidad establecido en la norma ISO 38500. Una revisión exhaustiva de la literatura muestra que, en el contexto universitario no se han realizado estudios con estos propósitos. Este estudio empírico se realizó sobre el 76% de universidades ecuatorianas y muestra que los 13 factores analizados, 8 tomados de contextos distintos al universitario y 5 extraídos desde las teorías del ámbito administrativo y comportamiento humano, tienen una influencia positiva en el éxito del Gobierno de las Tecnologías de la Información y el cumplimiento del principio de responsabilidad.Item Contribuciones al modelo de aceptación tecnológica aplicado al sector exportador de mercancías agrícolas(Universidad Nacional Mayor de San Marcos, 2023) Salas Arbaiza, Cesar Enrique; Vega Huerta, Hugo FroilánValida un modelo de aceptación tecnológica, que fomente el incremento de los indicadores financieros de las empresas del SEMA. La investigación, se centra en la etapa de lanzamiento o puesta en producción del ciclo de vida de desarrollo de software, siendo necesario gestionar un proceso de adopción de tecnología para una adecuada transición a la nueva tecnología. La herramienta tecnológica usada en el proceso de adopción es la Ventanilla Única de Comercio Exterior (VUCE) y se aplicó al Sector Exportador de Mercancías Agrícolas del Perú (SEMA) la aceptación será más conveniente si evidencia incremento de las ventas y operaciones comerciales en el sector. Para esta investigación, se relevó los factores importantes y necesarios para una conveniente adopción tecnológica, se revisó el estado del arte de los Modelo de Aceptación Tecnológica (TAM) del 2001 al 2019, encontrando 10 modelos y 36 factores. Se plantea adaptar el modelo TAM, a un modelo que permitan al sector en estudio adoptar tecnología que agilice la burocracia y tramitología que obstaculiza el desarrollo del sector en estudio, éste modelo se le llama TAM4. Como primer estudio se aplica una encuesta a 68 de las 4560 empresas del sector, con un nivel de confianza y un error del 90% y ± 10% respectivamente, obteniendo que el 68% de estas estaría dispuesto a usar un modelo que posea los factores de: confianza y riesgo percibido. Como segundo estudio de investigación se diseña casos de estudio en cinco empresas agro exportadoras para validar el modelo TAM4, analizando el comportamiento a los largo de siete años de sus operaciones comerciales, se determinó que el modelo TAM4 incrementa en 11% de las ventas de las empresas participantes en el periodo de estudio.Item Contribuciones en el proceso de elicitación de requisitos: factores, actividades y cualidades(Universidad Nacional Mayor de San Marcos, 2019) Wong Portillo, Lenis Rossi; Mauricio Sánchez, David SantosEn los últimos años han surgido diferentes problemas en la elicitación de requisitos de software, lo cual ocasiona que se obtenga requisitos deficientes. Por ello, la elicitación es una pieza clave para la industria del software, puesto que los requisitos con mala calidad son una de las causas del fracaso de los proyectos de software. Por esta razón, se han realizado diferentes estudios sobre la elicitación de requisitos, sin embargo, en la literatura se han identificado factores que afectan algunas actividades del proceso de elicitación, de ahí que se hallen actividades que no han sido estudiadas, pero que son importantes en el proceso, puesto que obtener un “buen requisito” depende de todas las actividades del proceso en su conjunto. Además, estos estudios no analizan cómo las actividades del proceso de elicitación contribuyen en la calidad del requisito. En la presente tesis se introduce nuevos factores que influyen en cada una de las actividades del proceso de elicitación de requisitos, así mismo, se identifican las cualidades que estas actividades deben cumplir con el fin de garantizar un “buen requisito”. Las teorías del Comportamiento Organizacional, Aprendizaje Organizacional, Argumentación, entre otras, proporcionan factores no estudiados en el área de elicitación de requisitos (capacidad de aprendizaje, capacidad de negociación, personal estable, confianza, estrés y semi-autonómica). Dos estudios empíricos demuestran, a través de pruebas estadísticas, que los factores mencionados tienen influencia entre “alta” y “muy alta” sobre las actividades del proceso de elicitación, además, que estas actividades deben cumplir dieciséis cualidades para obtener un buen requisito. Finalmente, ambos estudios se corroboran con la prueba de hipótesis T-Student, con el 95% de confianza.