Doctorado Facultad de Ingeniería de Sistemas e Informática
Permanent URI for this collectionhttps://hdl.handle.net/20.500.12672/129
Browse
Browsing Doctorado Facultad de Ingeniería de Sistemas e Informática by Title
Now showing 1 - 20 of 41
- Results Per Page
- Sort Options
Item Algoritmo en detección positiva de la imagen de una persona para la mejora en eficiencia energética en una Smart Grid Home(Universidad Nacional Mayor de San Marcos, 2021) Garcia Quilachamin, Washington Xavier; Pró Concepción, Luzmila ElisaLa revolución tecnológica del siglo XXI ha contribuido a la aplicación de algoritmos en cámaras para la detección y reconocimiento de personas a partir de imágenes o videos considerados aún complejos para una computadora. Por lo que las tecnologías asociadas a la eficiencia energética y su uso en sistemas eléctricos surgen como problemas en la aplicación de dispositivos inteligentes en: viviendas, edificios, empresas e instituciones públicas y privadas. El objetivo de esta tesis es determinar de qué manera un algoritmo en detección positiva de la imagen de una persona en tiempo real influye en la eficiencia energética generada en un sistema de iluminación en una Smart Grid Home. Se realizó una revisión sistemática de los algoritmos en detección de patrones, considerando los criterios de Kitchenham y un estudio de campo, aplicado en instituciones públicas de la provincia de Manabí - Ecuador, la cual fue validada mediante el análisis factorial de confiabilidad relacionado con la prueba KMO, la esfericidad de Bartlett y el coeficiente alfa de Cronbach. Se aplicaron técnicas en la detección de patrones y los resultados obtenidos nos permiten considerar el modelo Support Vector Machines con un 92% de reconocimiento y el algoritmo Viola-Jones con detección efectiva del 97,53%. De manera experimental en relación con el algoritmo aplicado en un control de encendido y apagado de un dispositivo de iluminación, los resultados determinaron que el 99.5% en la detección de imágenes es positiva. Se concluye que la eficiencia y efectividad del algoritmo aplicado en un control de encendido y apagado de un dispositivo de iluminación mejora el consumo de energía eléctrica, siendo un aporte a la gestión energética, seguridad y vigilancia de las personas y bienes materiales.Item Un algoritmo multiplicador proximal para clasificación binaria en máquinas de vectores soporte(Universidad Nacional Mayor de San Marcos, 2023) Cano Lengua, Miguel Angel; Papa Quiroz, Erik AlexDesarrolla un algoritmo multiplicador proximal para resolver problemas de optimización convexa separable sobre conos simétricos y aplicarlo a problemas de clasificación binaria para máquinas de vectores de soporte. Este algoritmo tiene como fundamento teórico los espacios vectoriales de dimensión finita, además de un producto interior, un Álgebra de Jordan Euclidiana, distancias proximales, cono simétrico de segundo orden, entre otros conceptos teóricos. El algoritmo para clasificación de datos binario se desarrolló probando la buena definición, el análisis de la convergencia, el análisis de la complejidad de este. Este algoritmo surge como una nueva técnica el cual puede ser utilizado para la clasificación de datos, se probó su convergencia global bajo determinados supuestos, se realizó la implementó del algoritmo en el software Matlab versión 2017 (R2017a), en una computadora 8 th Gen Intel (R) Core (TM) i5-8250U CPU, 1.60 GHz 1.80 GHz, 4.00 GB, Windows 1064 bits. Posteriormente se realizó el diseño utilizando el marco metodológico Scrum. Para ello se desarrolló 3 sprint de acuerdo con los requerimientos de las historias de usuarios. Se realizó un análisis comparativo con otros algoritmos proximales, así como también experimentos computacionales con el uso del algoritmo implementado.Item Arquitectura de honeynet con integración de datos para el análisis de evidencia digital(Universidad Nacional Mayor de San Marcos, 2025) Velasco Silva, Danny Patricio; Rodríguez Rafael, Glen DaríoLa honeynet surgió como una herramienta de seguridad informática, diseñada intencionalmente para ser detectada, atacada y comprometida por intrusos en un entorno controlado. Está compuesta por una serie de entornos de red y sistemas señuelo, conocidos como honeypots, los cuales, una vez instalados y configurados, simulan servicios y vulnerabilidades reales con el objetivo de atraer a los intrusos. Esta infraestructura permite observar en tiempo real las acciones de los atacantes, facilitando el análisis profundo de sus tácticas, técnicas, estrategias y objetivos, proporcionando información valiosa para el desarrollo de defensas más eficaces frente a amenazas cibernéticas. A lo largo de los últimos años, se han implementado diversas arquitecturas honeynet con el propósito de mejorar la detección y análisis de ataques, sin embargo, estos estudios han evidenciado una limitación persistente en la falta de integración de datos. En este contexto, el propósito principal de esta investigación es desarrollar una arquitectura de honeynet con integración de datos para el análisis de evidencia digital, que mejore la interoperabilidad propia de la heterogeneidad en los datos proporcionados por las herramientas utilizadas en honeynet en cuanto a confiabilidad y tiempos de respuesta. Se elaboró una ontología honeynet para integración de datos, mediante una especificación explícita y formal de una conceptualización compartida, desarrollada en la herramienta de código abierto Protégé, tomando como base metodológica methontology, la cual fue la base para la arquitectura honeynet con integración de datos para el análisis de evidencia digital, las herramientas que se utilizaron en la arquitectura honeynet para la captura de datos son: Firewall, Sebek, Snort, Argos, P0f, con la finalidad de capturar el comportamiento del intruso dentro de la honeynet, generando una base de datos unificada con toda la información recopilada. La investigación adoptó un enfoque cuantitativo, con un nivel descriptivo y explicativo, y se enmarcó en un diseño cuasiexperimental, mediante la validación de indicadores técnicos con el juicio de expertos y pruebas de hipótesis. Los resultados obtenidos en la evaluación de la arquitectura de honeynet con integración de datos evidencian mejoras sustanciales para el análisis de seguridad digital. Se observó una mejora significativa en la recopilación y comparación de atributos de los datos capturados, lo que facilitó la identificación de patrones de ataque y correlación de eventos, la integración de datos permitió el acceso centralizado a información proveniente de diversas fuentes a través de una sola vista, simplificando la labor del analista, otro hallazgo clave fue la reducción de los tiempos de detección de ciberataques, lo que permite actuar con prontitud ante amenazas y reducir el riesgo de daño a la infraestructura tecnológica, incrementando la confianza de los analistas en el proceso y en los resultados obtenidos permitiendo una mejor gestión para la toma de decisiones de manera eficaz y oportuna.Item Base de datos distribuidos usando algoritmos genéticos para optimización de proceso transacción en la Web(Universidad Nacional Mayor de San Marcos, 2010) Pró Concepción, Luzmila ElisaEL desarrollo de la investigación de la Tesis de “Base de Datos Distribuidos Usando Algoritmos Genéticos Para Optimización de Proceso Transacción en la Web”, ha sido posible llegar a las siguientes conclusiones: Hay deficiencia en el tiempo de procesos de transacción por el procesador del servidor; que actualmente trabajan con algoritmos tradicionales; como la lectura / escritura de datos en el disco magnético en el servidor Web, produciéndose por ejemplo, demora en la cola de espera, demora en tiempo de proceso de transacción, demora en tiempo de respuesta, que ocasionan los denominados cuellos de botella, falta memoria, etcétera. El problema central que se propone está orientado al crecimiento y, evolución del servidor web de una manera económica y escalable que lleva a un rendimiento óptimo. Por consiguiente, existe la necesidad de estudiar los procesos de transacciones del sistema, de tal manera que se aplique otra alternativa como algoritmos genéticos para optimizar el proceso de transacción en el servidor, a fin de así mejorar los procesos del servidor web y, mejorar la atención a los clientes / usuarios. El objetivo es implementar un simulador de transacciones orientando a la toma de decisiones del administrador de transacciones con la aplicación de algoritmos genéticos. Se usará los algoritmos genéticos para determinar que transacción se debe tomar para asignarlo en la cola de procesos. Se asumen ciertas restricciones que el simulador tomará como dadas. Por ejemplo, cada transacción tiene un número constante de recursos que solicitan. Cada recurso tiene una cola que administra y solo se pueden hacer 2 tipos de requerimiento: leer y escribir. La estructura de un cromosoma consta de un grupo de alelos y cada uno corresponde con un recurso solicitado. El administrador de transacciones tomará el requerimiento por el recurso para ponerlo en cola, el que tenga un máximo de cromosoma igual a 1, es decir, cuando encuentre entre el grupo de transacciones la transacción que tenga sus alelos en 1. Se tomará como cromosoma una cadena binaria que será convertida a números enteros. Se ha realizado un análisis de los modelos de transacciones que operan actualmente y se ha extraído tales mecanismos para llevarlo a un proceso de toma de decisiones en función de los algoritmos genéticos. Se ha implementado un simulador prototipo para un sistema de aplicación con algoritmos genéticos, para optimizar el proceso de transacción, antes de procesar los datos, se evaluarán los procesos de transacciones sobre: tiempo de simulación, número de transacciones, tiempo de la transacción, número de recursos, longitud de la cola del recurso, probabilidad de cruzamiento, probabilidad de mutación, transacciones en cola, atendidos, en lectura, en escritura, tiempo consumido, y se consigue los resultados de procesos óptimos; el tiempo de procesamiento de datos mediante el simulador es menor que el tiempo de procesamiento de datos que en el procesador convencional, mejor uso del recurso de la computadora. -- PALABRAS CLAVES: ALGORITMOS GENÉTICOS, BASE DE DATOS DISTRIBUIDOS, GENOMA, INTERCONEXIÓN DE SISTEMAS ABIERTOS, PROTOCOLO DE CONTROL DE TRANSMISIÓN, PROTOCOLO DE INTERNET, SERVIDOR WEB, SISTEMA OPERATIVO, TRANSACCIÓNItem Captura de datos con tecnologías de drones en zonas pobladas: legalidad, seguridad y confiabilidad de la actividad(Universidad Nacional Mayor de San Marcos, 2024) Perez Veliz, Jonny Vicente; Delgadillo Ávila, Rosa SumactikaEn este estudio se evalúa la legalidad de estas operaciones mediante el análisis de los requisitos regulatorios, la seguridad a través de los lineamientos operativos, y la confiabilidad mediante los principios de privacidad. Utilizando un enfoque cuantitativo, se combinaron datos de diversas regulaciones y se incorporaron los criterios de explotadores y pilotos de drones con experiencia en estas actividades, los datos fueron analizados con ayuda del software SmartPLS 4.0. Los resultados revelan que las regulaciones no se ajustan totalmente a la realidad de los drones, lo que imposibilita que las actividades con estos dispositivos sean totalmente legales, seguras y confiables. El rápido crecimiento del mercado de drones y sus numerosas aplicaciones vuelve urgente establecer un equilibrio entre la innovación tecnológica, la seguridad operativa y la protección de la privacidad, maximizando los beneficios y minimizando los riesgos potenciales de esta tecnología.Item Contribuciones a la predicción de la deserción universitaria a través de minería de datos(Universidad Nacional Mayor de San Marcos, 2019) Albán Taipe, Mayra Susana; Mauricio Sánchez, David SantosIdentifica una limitada producción científica que analiza factores de deserción desde la perspectiva del estudiante, que es el actor principal de la deserción, y la construcción de modelos híbridos de predicción que permitan comprender mejor manera el problema de la deserción en las universidades. El objetivo consiste en contribuir al proceso de predicción de la deserción estudiantil universitaria a través del estudio integral de factores, técnicas y herramientas de minería de datos usados con este fin. Se concluye que la predicción de la deserción en las universidades puede variar, ya que dependerá de los factores de ingreso, del contexto educativo estudiado, del entorno de educación aplicado, y de los antecedentes de los estudios para los que fueron usados. Por otro lado, se considera importante determinar si es suficiente con predecir la deserción o si se requiere incorporar estudios que establezcan estrategias para mitigar la deserción en las instituciones de educación superior.Item Contribuciones al desarrollo de una Startup de TI: ciclo de vida y factores críticos de éxito(Universidad Nacional Mayor de San Marcos, 2021) Santisteban Pazos, José Luis; Mauricio Sánchez, David SantosEl emprendurismo es un responsable directo de impulsar el progreso económico de las naciones, ya que al generar nuevas compañías se generan nuevos puestos de trabajos y riquezas. Uno de los emprendimientos más conocidos son las Startups de Tecnología de la Información (STI), este tipo de empresas son entidades temporales e innovadoras que transforman invenciones tecnológicas en productos innovadores. Conocedores de su importancia que tienen este tipo de iniciativas empresariales, su tasa de fracaso es alta en todo el mundo, solo el 20% logra superar los 3 primeros años de operación. Por esta razón, se viene realizando diferentes estudios sobre el éxito de la startup, identificando Factores Críticos de Éxito (FCE). Sin embargo, aún hay factores que no han sido estudiados y que influyen de manera positiva. Además, estos estudios no identifican cómo los factores contribuyen en el éxito de las Etapas del Ciclo de Vida (ECV) de una STI. Por lo tanto, esta tesis se identifican nuevos FCE en cada una de las ECV y su éxito general, así mismo, se identifican y estandarizan las ECV de una STI. Teorías como Capacidad de absorción, Confirmación de la expectativa, Modelo de éxito de un sistema de información, y la Capacidad dinámica ofrecen FCE no investigados en materia de emprendimiento tecnológico (Capacidad de absorción de conocimiento, Alto rendimiento percibido del producto, Calidad del producto, Satisfacción del cliente, y Capacidad dinámica). Se llevó a cabo dos estudios con pruebas estadísticas para demostrar, que los nuevos FCE tienen una contribución “Alta” y “Muy alta” sobre el éxito de una STI, con un 95% de certidumbre en la prueba de hipótesis T-Student.Item Contribuciones al gobierno de las tecnologías de la información en el contexto universitario(Universidad Nacional Mayor de San Marcos, 2022) Oñate Andino, Mayra Alejandra; Mauricio Sánchez, David SantosDetermina la influencia de los 13 factores críticos de éxito propuestos en el principio de responsabilidad establecido en la norma ISO 38500. Una revisión exhaustiva de la literatura muestra que, en el contexto universitario no se han realizado estudios con estos propósitos. Este estudio empírico se realizó sobre el 76% de universidades ecuatorianas y muestra que los 13 factores analizados, 8 tomados de contextos distintos al universitario y 5 extraídos desde las teorías del ámbito administrativo y comportamiento humano, tienen una influencia positiva en el éxito del Gobierno de las Tecnologías de la Información y el cumplimiento del principio de responsabilidad.Item Contribuciones al modelo de aceptación tecnológica aplicado al sector exportador de mercancías agrícolas(Universidad Nacional Mayor de San Marcos, 2023) Salas Arbaiza, Cesar Enrique; Vega Huerta, Hugo FroilánValida un modelo de aceptación tecnológica, que fomente el incremento de los indicadores financieros de las empresas del SEMA. La investigación, se centra en la etapa de lanzamiento o puesta en producción del ciclo de vida de desarrollo de software, siendo necesario gestionar un proceso de adopción de tecnología para una adecuada transición a la nueva tecnología. La herramienta tecnológica usada en el proceso de adopción es la Ventanilla Única de Comercio Exterior (VUCE) y se aplicó al Sector Exportador de Mercancías Agrícolas del Perú (SEMA) la aceptación será más conveniente si evidencia incremento de las ventas y operaciones comerciales en el sector. Para esta investigación, se relevó los factores importantes y necesarios para una conveniente adopción tecnológica, se revisó el estado del arte de los Modelo de Aceptación Tecnológica (TAM) del 2001 al 2019, encontrando 10 modelos y 36 factores. Se plantea adaptar el modelo TAM, a un modelo que permitan al sector en estudio adoptar tecnología que agilice la burocracia y tramitología que obstaculiza el desarrollo del sector en estudio, éste modelo se le llama TAM4. Como primer estudio se aplica una encuesta a 68 de las 4560 empresas del sector, con un nivel de confianza y un error del 90% y ± 10% respectivamente, obteniendo que el 68% de estas estaría dispuesto a usar un modelo que posea los factores de: confianza y riesgo percibido. Como segundo estudio de investigación se diseña casos de estudio en cinco empresas agro exportadoras para validar el modelo TAM4, analizando el comportamiento a los largo de siete años de sus operaciones comerciales, se determinó que el modelo TAM4 incrementa en 11% de las ventas de las empresas participantes en el periodo de estudio.Item Contribuciones en el proceso de elicitación de requisitos: factores, actividades y cualidades(Universidad Nacional Mayor de San Marcos, 2019) Wong Portillo, Lenis Rossi; Mauricio Sánchez, David SantosEn los últimos años han surgido diferentes problemas en la elicitación de requisitos de software, lo cual ocasiona que se obtenga requisitos deficientes. Por ello, la elicitación es una pieza clave para la industria del software, puesto que los requisitos con mala calidad son una de las causas del fracaso de los proyectos de software. Por esta razón, se han realizado diferentes estudios sobre la elicitación de requisitos, sin embargo, en la literatura se han identificado factores que afectan algunas actividades del proceso de elicitación, de ahí que se hallen actividades que no han sido estudiadas, pero que son importantes en el proceso, puesto que obtener un “buen requisito” depende de todas las actividades del proceso en su conjunto. Además, estos estudios no analizan cómo las actividades del proceso de elicitación contribuyen en la calidad del requisito. En la presente tesis se introduce nuevos factores que influyen en cada una de las actividades del proceso de elicitación de requisitos, así mismo, se identifican las cualidades que estas actividades deben cumplir con el fin de garantizar un “buen requisito”. Las teorías del Comportamiento Organizacional, Aprendizaje Organizacional, Argumentación, entre otras, proporcionan factores no estudiados en el área de elicitación de requisitos (capacidad de aprendizaje, capacidad de negociación, personal estable, confianza, estrés y semi-autonómica). Dos estudios empíricos demuestran, a través de pruebas estadísticas, que los factores mencionados tienen influencia entre “alta” y “muy alta” sobre las actividades del proceso de elicitación, además, que estas actividades deben cumplir dieciséis cualidades para obtener un buen requisito. Finalmente, ambos estudios se corroboran con la prueba de hipótesis T-Student, con el 95% de confianza.Item Contribuciones para el aseguramiento de la calidad en el proceso de desarrollo de software ágil(Universidad Nacional Mayor de San Marcos, 2023) Arcos Medina, Gloria de Lourdes; Mauricio Sánchez, David SantosEl propósito de esta investigación es contribuir en el aseguramiento de la calidad del software a través de la determinación de nuevos factores críticos de éxito y prácticas ágiles que influyen en las características de calidad de software. A a pesar de que existen estándares y modelos de calidad para asegurar la calidad en proyectos de desarrollo ágil, su complejidad en su aplicación es contraria a los principios propuestos por el agilismo, lo que impide tener un software con un adecuado nivel de calidad. Para cumplir con el objetivo propuesto se ha aplicado un diseño de investigación cualitativa, los resultados se obtuvieron mediante el análisis de residuos estandarizados a 146 cuestionarios dirigidos a personas involucradas en el proceso de desarrollo de software. Esta investigación contiene una revisión sistemática de la literatura que permitió catalogar 148 factores críticos de éxito, 137 prácticas ágiles, 165 métricas y 71 atributos de calidad relacionados con el desarrollo ágil de software. Además, se presenta un modelo compuesto por cuatro componentes: 1) seis factores críticos de éxito obtenidas de las teorías del comportamiento humano y administrativo, 2) cuatro categorías de prácticas ágiles, 3) ocho características de calidad basadas en el estándar ISO/IEC 25010 , y 4) hipótesis que determinan la influencia entre los componentes del modelo propuesto. Las contribuciones realizadas como resultado de este estudio permitirán asegurar la calidad en el proceso de desarrollo de software ágil y tomar acciones para mitigar la influencia negativa de algunos factores críticos y contribuir a la implementación de proyectos exitosos.Item Contribuciones para la Detección de Ataques Distribuidos de Denegación de Servicio (DDoS) en la Capa de Aplicación(Universidad Nacional Mayor de San Marcos, 2019) Bravo Mullo, Silvia Jeaneth; Mauricio Sánchez, David SantosSe analizaron seis aspectos sobre la detección de ataques DDoS: técnicas, variables, herramientas, ubicación de implementación, punto en el tiempo y precisión de detección. Este análisis permitió realizar una contribución útil al diseño de una estrategia adecuada para neutralizar estos ataques. En los últimos años, estos ataques se han dirigido hacia la capa de aplicación. Este fenómeno se debe principalmente a la gran cantidad de herramientas para la generación de este tipo de ataque. Por ello, además, en este trabajo se propone una alternativa de detección basada en el dinamismo del usuario web. Para esto, se evaluaron las características del dinamismo del usuario extraídas de las funciones del mouse y del teclado. Finalmente, el presente trabajo propone un enfoque de detección de bajo costo que consta de dos pasos: primero, las características del usuario se extraen en tiempo real mientras se navega por la aplicación web; en segundo lugar, cada característica extraída es utilizada por un algoritmo de orden (O1) para diferenciar a un usuario real de un ataque DDoS. Los resultados de las pruebas con las herramientas de ataque LOIC, OWASP y GoldenEye muestran que el método propuesto tiene una eficacia de detección del 100% y que las características del dinamismo del usuario de la web permiten diferenciar entre un usuario real y un robot.Item De la Crisis al Algoritmo: Modelos de Machine Learning para Predecir el Riesgo de Crédito en Perú(Universidad Nacional Mayor de San Marcos, 2025) Noriega Zapata, Jomark Pablo; Herrera Quispe, José AlfredoLa presente investigación propone una metodología basada en escenarios para mejorar la predicción del riesgo crediticio en economías emergentes mediante la incorporación de factores externos exógenos que influyen en la estabilidad financiera, integrando variables asociadas a la severidad del COVID-19, anomalías climáticas y episodios de convulsión social en modelos de aprendizaje automático aplicados a la morosidad crediticia. Para ello, se emplearon series temporales nacionales y sectoriales sometidas a pruebas de estacionariedad y causalidad, las cuales fueron incorporadas como indicadores externos en modelos de machine learning desarrollados bajo el marco CRISP-DM y complementados con técnicas de explicabilidad como SHAP y LIME. El análisis incluyó más de 8.2 millones de registros y 367 000 créditos individuales otorgados por una entidad financiera regulada en Perú entre 2020 y 2023, demostrando que la integración de factores externos mejoró el desempeño de modelos como CNN y XGB hasta en siete puntos porcentuales en métricas AUC y ACC, especialmente en sectores económicos sensibles. Asimismo, escenarios como el COVID-MOV permitieron captar efectos diferidos al desplazar la curva de mortalidad en el tiempo, mientras que escenarios compuestos —clima y protestas— intensificaron el riesgo de incumplimiento entre un 10% y 18% en carteras sin respaldo estatal. Los resultados evidencian que el enfoque propuesto constituye un marco replicable y escalable para la modelización del riesgo crediticio ante shocks sistémicos, con implicancias relevantes para reguladores, gestores de riesgo y entidades financieras que operan en contextos volátiles.Item Framework para la implantación de sistemas gestores de aprendizaje (LMS Learning Management System) en instituciones de educación superior(Universidad Nacional Mayor de San Marcos, 2025) Salazar Fierro, Fausto Alberto; León Fernández, Cayo VíctorLas Instituciones de Educación Superior (IES) enfrentan la necesidad de implantar sistemas gestores de aprendizaje (LMS) para aprovechar los beneficios tecnológicos. El presente proyecto propone un Framework denominado SimpleLMS, que incluye cinco componentes clave como guía para el proceso de implantación de LMS, basándose en el modelo de YIN. Se llevaron a cabo entrevistas con expertos en administración de tecnologías de la información, administradores de LMS y pedagogos de Argentina, Colombia, Ecuador y Perú, y se creó un sistema de códigos utilizando el software MaxQDA. Se identificaron cinco componentes: preparación (administrativos, tecnológicos y pedagógicos), actores involucrados (departamento de tecnología educativa, departamento de tecnologías de información, proveedor de LMS y comunidad educativa), proceso (pre-implantación, implantación y post-implantación), y actividades transversales (liderazgo, gestión de proyectos, gestión del cambio, capacitación). Además, se aplicó una encuesta de 22 preguntas con una prueba piloto, usando el alfa Cronbach a 26 expertos. Los análisis estadísticos (Traza de Pillai, Lambda de Wilks, Traza de Hotelling y Raíz Mayor de Roy) mostraron un valor de p significativo (0.000) y una eta parcial al cuadrado de 0.997, lo que indica que la varianza en la variable dependiente se explica por la intersección. La Raíz Mayor de Roy también mostró un valor de p significativo (0.025). En conclusión, el Framework SimpleLMS influye positivamente en la implantación del LMS en las IES.Item Herramientas Web. 2.0 y su influencia en las competencias genéricas Tuning en estudiantes de universidades públicas de Ecuador, 2020: Caso UFA ESPE(Universidad Nacional Mayor de San Marcos, 2023) Valencia Vivas, Gloria Maritza; León Fernández, Cayo VíctorEstablece de qué manera las herramientas Web 2.0 influyen en las competencias genéricas Tuning en estudiantes de universidades públicas de Ecuador. En su desarrollo participaron 88 estudiantes universitarios de las carreras de Licenciatura en Ciencias Navales y Licenciatura en Ciencias Aeronáuticas de la Universidad de las Fuerzas Armadas del Ecuador, sus edades oscilaron entre de 20 a 21 años y con acceso a internet. El análisis de los datos revela que las herramientas web 2.0 más utilizada por los estudiantes fue el Blog, seguido por YouTube, representando el 68,2% del total de la muestra. Sin embargo, determina que la Wiki y el Foro son las herramientas que tuvieron mayor influencia en las competencias genéricas Tuning, mientras que el Blog, las Redes Sociales y YouTube presentaron una menor influencia. Por lo cual, se concluye que el uso de herramientas web 2.0 tienen influencia positiva en las competencias genéricas Tuning en estudiantes universitarios. Asimismo, se debe incorporar estas herramientas en el proceso de enseñanza aprendizaje con el uso adecuado y direccionado, en función de los objetivos y necesidades específicas de cada contexto educativo.Item Implementación de un modelo de adopción de la tecnología de información y comunicación para el proceso de enseñanza–aprendizaje en la Universidad Técnica de Cotopaxi(Universidad Nacional Mayor de San Marcos, 2021) Chancusig Chisag, Juan Carlos; Gamboa Cruzado, Javier ArturoLa investigación se encuentra enmarcada en la implementación de un modelo de adopción de las TIC para el proceso enseñanza – aprendizaje aplicadas a la Universidad Técnica de Cotopaxi, específicamente para mejorar la educación universitaria, esto se debe a los constantes avances en áreas de multimedia digital y la tecnología didáctica, por lo que los organismos se comprometen a mejorar su organización académica y sus procesos educativos. A través del uso de tecnologías de colaboración, las instituciones educativas tratan que la administración del conocimiento se integre interiormente y externamente de la propia universidad, ya que se consideran que ello ayuda a la innovación educativa. En este contexto y viendo la problemática de estudio, la solución es la aplicación del nuevo proceso de aceptación de las TIC mejorará el proceso enseñanza – aprendizaje en los estudiantes universitarios. En los últimos años se ha desarrollado el uso de TIC en los distintos niveles de educación y específicamente en las universidades actualmente cuentan con nuevos recursos tecnológicos muy avanzados, en el caso concreto de la universidad donde se está desarrollando la investigación el objetivo de estudio es, desarrollar un nuevo modelo de adopción de TIC, con lo cual es posible dar solución al proceso educativo. Se aplica una metodología de estudio basado en un abordaje sistemático de la literatura de los teórías de las TIC tomando como referencia el primer modelo que apareció el Modelo TAM que fue desarrollado por Davis en 1986 en las universidades del mundo. La investigación arrojó los resultados esperados con el desarrollo del nuevo modelo de adopción de las TIC, con la utilización de herramientas colaborativas de uso en un Ambiente de Aprendizaje Colaborativo (CLE) para la elaboración de los constructos, alfa de cronbach, varianza, colinealidad, correlaciones y la utilización de software estadístico como el minitab se validó las hipótesis planteadas.Item La cultura organizacional y transformación digital en la gestión de los proyectos de Tecnología de Información en la SUNAT(Universidad Nacional Mayor de San Marcos, 2025) Perez Soncco, Justo; León Fernández, Cayo VíctorEl estudio analiza la relación entre la cultura organizacional, la transformación digital y la gestión de proyectos de tecnologías de la información en una entidad pública del sistema tributario peruano. Se desarrolló una investigación de enfoque cuantitativo, con diseño descriptivo-correlacional, no experimental y de corte transversal, aplicándose un cuestionario tipo Likert a 175 colaboradores del área de sistemas. El análisis incluyó validación y confiabilidad de instrumentos, estadística descriptiva, correlaciones de Spearman, regresiones lineales con errores robustos y un modelo de ecuaciones estructurales por parcelas. Los resultados evidencian niveles elevados de las variables estudiadas y confirman asociaciones positivas y significativas entre la cultura organizacional y la gestión de proyectos de TI, así como entre la transformación digital y dicha gestión, siendo esta última la variable con mayor efecto explicativo. El modelo estructural muestra que la transformación digital actúa como un mecanismo mediador parcial del impacto de la cultura organizacional sobre la gestión de proyectos de TI. Se concluye que el fortalecimiento de la cultura organizacional y, principalmente, el impulso de la transformación digital se asocian con una gestión más eficiente de los proyectos de tecnologías de la información, aportando evidencia relevante para la toma de decisiones estratégicas en contextos públicos de modernización tecnológica.Item Método para reducir pruebas de regresión de software basado en acceso a los datos en entornos de desarrollo iterativo incremental(Universidad Nacional Mayor de San Marcos, 2021) Rosero Miranda, Raúl Hernán; Rodríguez Rafael, Glen DaríoActualmente, en diferentes contextos, en mayor o menor grado, los productos de software tienen acceso a bases de datos, siendo necesario considerar las pruebas de regresión para productos de software, tales como los sistemas de información. Esta tesis presenta dos aportes de investigación que permiten motivar e introducir una nueva técnica/método para pruebas de regresión por selección para software con acceso a datos. El primer aporte establece los aspectos y factores considerados hasta el año 2020, que evidencia la escasa aplicabilidad de las investigaciones de la academia en la industria. El segundo aporte es el diseño de un método para pruebas de regresión que realiza una combinación de técnicas de clusterización probabilística no supervisada con valores de centroide aleatorios y pruebas unitarias, que juntamente con el esquema de la base de datos, determinar los casos de prueba relacionados con las modificaciones o adiciones de nuevas funcionalidades del producto software. El método fue validado empíricamente bajo el enfoque de ingeniería de software experimental, mediante 32 de 37 pruebas de regresión de cinco proyectos de software de pequeña y mediana escala, utilizando indicadores del campo de la búsqueda y recuperación de información. Los resultados sugieren que el método propuesto mejora las pruebas de regresión en productos de software con acceso a datos bajo entornos de desarrollo iterativo incremental.Item Metodología para la construcción del catálogo de servicios de TI basada en mejores prácticas de ITSM en entidades públicas(Universidad Nacional Mayor de San Marcos, 2021) Mera Macias, Angel Cristian; Aguilar Alonso, Igor JovinoPara desarrollar una buena gestión de servicios tecnológicos es necesario contar con un catálogo de servicios de tecnologías de la información; sin embargo, según la literatura se evidencian bajos niveles de implementación de este catálogo en entidades públicas, esto se corroboró mediante un estudio de campo realizado en 30 instituciones públicas de la provincia de Manabí, República del Ecuador, evidenciando que de las pocas entidades que contaban con un catálogo de servicios (22% parcialmente y 5% totalmente implementado), la mayoría realizan sus operaciones de manera empírica; su falta de implementación se da por factores como la no obligatoriedad para desarrollarlo, el desconocimiento del tema y de las normas y/o prácticas existentes. Ante esta situación se propuso como objetivo general desarrollar una metodología para la construcción del ITSC basada en mejores prácticas de ITSM para contribuir a la gestión del catálogo de servicios de TI en entidades públicas mediante la automatización de sus actividades. Para lograrlo, se realizó una revisión sistemática de la literatura, donde se determinaron 35 estudios que contribuyeron al desarrollo de la propuesta, la misma que fue construida siguiendo el paradigma de la investigación en las ciencias del diseño; además, la propuesta fue probada mediante casos de estudio en tres entidades públicas (dos de Ecuador y una de Perú) aplicando ocho factores de calidad para la evaluación de artefactos en la construcción de catálogos, y comprobando los niveles de exactitud (80.81%), sensibilidad (87.59%), precisión (90.41%) y Puntuación F1 (88.93%), derivados de la matriz de confusión; finalmente, se evaluó la contribución de la propuesta por parte de 46 profesionales de tecnologías de la información que laboran en entidades públicas ecuatorianas y que conocen del catálogo, corroborando que la propuesta contribuye a la identificación y clasificación de servicios, la retroalimentación del catálogo y a la automatización de la gestión de servicios de tecnologías de la información, y por ende a la automatización de la gestión del catálogo de servicios de tecnologías de la información.Item Modelo Basado en Aprendizaje Profundo para Clasificar Células Neoplásicas en Imágenes de Citología de Líquido Pleural(Universidad Nacional Mayor de San Marcos, 2025) López Córdova, Frida Mereyda; Vega Huerta, Hugo FroilánEl Derrame Pleural, es una patología que se manifiesta con la acumulación excesiva o fuera del rango normal de líquido pleural en la zona que rodea los pulmones. La citología es una rama de la medicina que estudia las células en sus diferentes aspectos morfológicos, funcionales y genéticos; desde microscopios simples hasta técnicas modernas, la evolución continúa, permitiendo su uso en oncología y análisis celular. El examen citológico es una técnica diagnóstica muy utilizada y de alta precisión para confirmar enfermedades y determinar su estadio. El proceso consiste en identificar signos atípicos, como células con formas y texturas irregulares. El diagnóstico médico se complica debido a la variabilidad de los estados patológicos en las muestras de líquido pleural, que pueden incluir enfermedades inflamatorias, infecciosas y neoplasias. La detección temprana de malignidad es crucial para un tratamiento oportuno, reduciendo el sufrimiento y potencialmente prolongando la vida del paciente. Además, la escasez de médicos patólogos y la demora en los diagnósticos abren oportunidades para la implementación de técnicas de inteligencia artificial, las cuales han demostrado un impacto significativo en la medicina diagnóstica en los últimos años. La investigación se llevó a cabo utilizando la metodología de Investigación en Ciencias del Diseño (DSR), lo que permitió un diseño estructurado, una implementación efectiva y una validación exhaustiva de la técnica propuesta. Se construyó un conjunto de datos de imágenes citológicas de líquido pleural que contiene 2640 imágenes de muestras de citología de líquido pleural. Para identificar células neoplásicas, se diseñó un modelo basado en Redes Neuronales Convolucionales (CNN), utilizando Transfer Learnig y tres arquitecturas de CNN pre entrenadas ResNet50V2, DesNet121 e InceptionV3. Se evaluó el desempeño al identificar células MAL (malignas) y células NFM (negativas para malignidad - benignas) según la clasificación del sistema internacional (TIS) para informar citología de líquidos serosos: riesgo de malignidad (MAL y NFM). Los tres modelos fueron entrenados, validados y evaluados con el mismo conjunto de datos, se evaluó el desempeño por modelo y se realizaron comparaciones combinadas mediante el Voting Classifier, para determinar qué modelo presenta la mejor precisión en la clasificación de imágenes citológicas. Los algoritmos de aprendizaje profundo propuestos para clasificar imágenes citológicas de líquido pleural lograron un rendimiento superior al 90% en pruebas. Las combinaciones más efectivas fueron ResNet+Inception y ResNet+DesNet, la primera combinación obtuvo mayor precisión (0.94) pero fue menos generalizable con un conjunto de datos externo, a diferencia la segunda combinación, aunque obtuvo una menor precisión (0.92) fue más generalizable cuando se probó en un conjunto de datos externo. Los resultados confirman el potencial del método propuesto para ayudar a los patólogos a lograr un diagnóstico más preciso.
- «
- 1 (current)
- 2
- 3
- »