Dra. en C. Leticia Dávila Nicanor


PROFESOR-INVESTIGADOR ADSCRITO A LA LIC. EN INFORMÁTICA ADMINISTRATIVA



Coordinador de Ing. En Sistemas y Comunicaciones  ISC


DATOS PERSONALES

LETICIA DÁVILA NICANOR
Dra. en Ciencias de la Ingeniería Eléctrica, especialidad Computación
letidn@yahoo.com.mx, Ext. 1201.


ESPECIALIDADES

La Doctora Dávila tiene el reconocimiento Perfil Deseable PRODEP, esto es en base de sus publicaciones de artículos en revistas indizadas nacionales e internacionales. Tuvo el apoyo de organismos externos para realizar proyectos de investigación (ahora ya finiquitados). Ha pertenecido a comisiones de arbitraje en CONACyT (2017) y a comisiones de revisión de proyectos en UAEM (2017), además de Coloquios y Congresos Internacionales (2016, 2014). 

En la actualidad es Profesora de Tiempo Completo en el Centro Universitario UAEM Valle de México y tiene a cargo la Coordinación de la Licenciatura en Informática Administrativa.

RESEÑA

Leticia Dávila Nicanor, obtuvo su grado de Doctorado en Ciencias, en el Centro de Investigación y de Estudios Avanzados del IPN (CINVESTAV-IPN), en el Departamento de Ingeniería Eléctrica Sección Computación. En este lugar también realizó sus estudios de Maestría, en la línea de investigación de Ingeniería de Software en el tema de Calidad de Software. La Dra. Dávila es de base Ingeniero en Comunicaciones y Electrónica, egresada del Instituto Politécnico Nacional. Su experiencia laboral radica como líder de proyecto en Grupo Financiero HSBC y Grupo Iusacell S.A. de C.V.

PUBLICACIONES INDEXADAS.

O. Marín-Guerrero, L. Dávila-Nicanor (2017). Automatización de Pruebas de Regresión Funcional en Aplicaciones Web: FTR v.2, Journal CIM, ISSN: 2007-8102, Vol. 4

O. Marín-Guerrero, L. Dávila-Nicanor, “Sistema para Automatizar Sistema para Automatizar la Planificación de Pruebas de Regresión Funcional en Aplicaciones Web”, Journal CIM. Vol.4, Núm. 1, ISSN 2007-8102.

Leticia Dávila-Nicanor, Aldo Benhumea-Peña, Carlos Omar González-Morán, Pedro Mejía-Álvarez, Functional Tester Runner Tool, Research in Computing Science. ISSN 1870-4069 Vol. 109, 69-79.

L. Dávila-Nicanor, O, Marín-Guerrero, I. Aguilar Juárez, J. Ayala de la Vega, Pruebas de regresión funcional mediante el uso de patrones de diseño, Journal CIM, ISSN: 2007-8102

L. Dávila-Nicanor, Héctor Rafael Orozco Aguirre. Modelo de análisis para evaluar la respuesta del servicio en el diseño de las Arquitecturas de las Tecnologías de la Información. Journal CIM, ISSN: 2007-8102

L. Dávila-Nicanor, U. Juárez-Martínez, A. Romero-Herrera, Herramienta de Evaluación para Automatizar Pruebas de Sistemas Orientados a Objetos, Journal CIM, ISSN: 2007-8102.

Rafael Fernández Domínguez, Giner Alor Hernández, Leticia Dávila Nicanor, Análisis y evaluación de marcos de trabajo para el desarrollo de aplicaciones y servicios en la nube PAAS, Research in Computing Science. ISSN 1870-4069

Leticia Dávila-Nicanor, Pedro Mejía-Alvarez.Reliability improvement with PSP of Web-Based Software Applications. Computer Science & Engineering:An International Journal (CSEIJ) Vol 2. No 4. August 2012, DOI:10.5121/cseij.2012.2402

RESÚMENES DE PARTICIPACIÓN EN CONGRESOS NACIONALES E INTERNACIONALES.
Aldo Benhumea-Peña, Leticia Davila-Nicanor, Carlos González-Morán and Giner Alor, Predictive model to determine quality of service on cloud computing: Service Dependence Graph SDG, 13th IEEE International Conference on Networking, Sensing and Control (ICNSC´2016), México City, México, DOI:10.1109/ICNSC.2016.7478997. 

Abraham Banda Madrid, Leticia Dávila-Nicanor, Predicción de fallos en un sistema de software orientado a objetos mediante su arquitectura, IEEE XI Congreso Internacional sobre Innovación y Desarrollo Tecnológico CIINDET-2015, ISBN:978-607-95255-6-9, Cuernavaca Morelos, México


DIVULGACIÓN NACIONAL E INTERNACIONAL
Carlos Omar González Morán, Leticia Dávila Nicanor, Karen Bermúdez Rodríguez, Ventajas de la tecnología Open Source en el hogar, Revista Perfiles HT, Edit. DGCU Universidad Autónoma del Estado de México. Año 4. No. 38 abril 2017 pp. 18.

CONFERENCIAS IMPARTIDAS Y TALLERES:
L. Davila-Nicanor, Patrones de Diseño con Lenguaje Java, 13º. Festival Latinoamericano de Instalación de Software Libre (FLISOL 2016), CUs UAEM Valle de Chalco, Valle de México, Texcoco. 

L. Davila-Nicanor, Calidad de Software: ¿Mito o Realidad?, 12º. Festival Latinoamericano de Instalación de Software Libre (FLISOL 2016), CU UAEM Valle de Chalco 

L. Davila-Nicanor, Modelo para la evaluación de la confiabilidad utilizando redes bayesiana. 1ª. Semana Internacional de sistemas y Comunicaciones, cartel. 

L. Davila-Nicanor, Herramienta para la evaluación de la confiabilidad en sistemas orientados a objetos, 1ª. Semana Internacional de sistemas y Comunicaciones, cartel.

TALLER:
L. Davila-Nicanor, UML y Patrones de Diseño con Lenguaje Java, Mexican International Congress on Computer Systems MICCS 2015, Estado de México, México.

ARBITRAJES:
Miembro de la Comisión Evaluadora de la Convocatoria 2016 CONACyT, para Desarrollar Repositorios Institucionales de Acceso Abierto a la Información Científica, Tecnológica y de Innovación. 

Miembro de la Comisión Evaluador de la Convocatoria de Investigación Científica, Innovación y Desarrollo UAEM 2017, en abril de 2017. 

Jurado de la Categoría "Innovación Tecnológica en el concurso Universitario Emprendedor Región Metropolitana”, UAEM, 2016. Revisor, Coloquio de Investigación Multidisciplinaria 2010, Instituto Tecnológico de Orizaba.

En el Proceso de desarrollo de Software, la evaluación del sistema normalmente se hace en la fase de pruebas. Esta fase tiene el objetivo de localizar y corregir la mayoría de fallos en el sistema evaluado. Sin embargo a pesar de que esta fase es la más extensa y costosa (ocupa entre el 40% y 60% de todo el proceso), no hay garantías de que el sistema quede libre de fallos potenciales. En la actualidad este proceso de evaluación se hace mediante el uso de métricas de software. En este caso, dicho enfoque es la base para desarrolla modelos predictivos de Confiabilidad del Software. Este enfoque es muy costoso porque se necesitan de miles o millones de pruebas para establecer modelos fiables. Los instrumentos de evaluación van desde simples hojas de validación y verificación hasta sofisticados instrumentos basados en técnicas matemáticas que permiten ejecutar miles de pruebas en menor tiempo. Desafortunadamente existen muchos modelos y herramientas propuestos, cuyas entradas son costosas y difíciles de obtener. En otros casos la predecibilidad de los modelos y herramientas se aleja de la realidad. Estas situaciones afectan negativamente el uso de estos enfoques en contextos reales. Nuestras propuestas tiene el objetivo de desarrollar herramientas de evaluación y modelos de confiabilidad de software, que nos permitan detectar fallos potenciales, considerando factores y condiciones que intervienen en los contextos operativos reales. Finalmente los resultados que hemos obtenido en nuestras diversas investigaciones, nos reportan una reducción significativa en los costos de operación del proceso de evaluación.

LÍNEAS DE INVESTIGACIÓN:· Diseño y desarrollo de procesos de evaluación utilizando técnicas de modelación y simulación estadísticas para aplicaciones Web

. Calidad del software mediante el uso de métricas de software.

· Diseño y desarrollo de herramienta de evaluación para las pruebas de software.

· Desarrollo en modelos de mejora continua como CMM y PSP.

· Desarrollo de sistemas sobre plataformas UNIX (Solaris, HP-UX, Linux) con lenguajes Java.

. Desarrollo y evolución de sistemas de software en un marco de estándares internacionales de calidad