Dra. Inmaculada Rodríguez Santiago
Universitat de Barcelona. España.
No disponible.
La Dra. Inmaculada Rodríguez Santiago es profesora asociada y miembro de CLIC, grupo de investigación reconocido por la Generalitat de Catalunya (España), y grupo de investigación WAI (http://www.ub.edu/wai/) en la Facultat de Matemàtiques i Informàtica de la Universitat de Barcelona (UB). Su área de investigación se centra en la interacción persona-computador, particularmente en entornos virtuales 3D, agentes virtuales, gamificación y aprendizaje basado en juegos. Durante su carrera científica, ha publicado más de 50 publicaciones en actas de congresos, 15 artículos en revistas, 10 capítulos de libros, tesis doctorales supervisadas, tesis de maestría y proyectos de fin de grado. Ha formado parte del equipo de investigación de diferentes proyectos como ‘Agreement technologies’, ‘Engineering self- * virtually embeded Systems’, ‘Serious games for surgery training cardiac’, ‘Robust virtual collaborations ‘and’ Collectiware. La Dra. Rodríguez forma parte del comité científico de diferentes congresos y revistas de su área de investigación. Ha reconocido por el gobierno español dos periodos (‘sexenios’) de investigación, siendo el último activo. En relación a su trayectoria docente, comenzó como conferencista en 1995 y, hasta la fecha, ha impartido asignaturas como programación, introducción a las computadoras, sistemas operativos e interacción humano-computador.
Dr. Carlos Becker Westphall
Universidade Federal de Santa Catarina. Brasil.
Traducción: La autenticación de dispositivos de memoria restringida presenta problemas importantes, ya que el consumo de memoria es elevado en la autenticación mutua mediante protocolos criptográficos en entornos de IoT. El desarrollo de un método de autenticación mutua con multifactor que pueda utilizarse en la computación en la niebla y en la nube sigue siendo un reto, según estudios anteriores. El presente trabajo tiene como objetivo mejorar un método de autenticación mutua con multifactor utilizando un tiempo de respuesta variable ajustable, una función desafío-respuesta y un nonce. Así, con estos factores, se puede regular el mismo método tanto para los contextos de Fog como de Cloud Computing. En los sistemas de la Internet de las Cosas (IoT), la información de diversos tipos es capturada, procesada y transmitida continuamente por sistemas generalmente interconectados por Internet y soluciones distribuidas. Los ataques para capturar información y sobrecargar los servicios son habituales. Este hecho hace que las técnicas de seguridad sean indispensables en los entornos de IoT. La detección de intrusiones es uno de los puntos vitales de la seguridad, cuyo objetivo es identificar los intentos de ataque. Presentamos una arquitectura de detección de intrusiones que opera en la capa de fog computing. Tiene dos pasos y pretende clasificar los eventos en tipos específicos de ataques o no ataques, para la ejecución de contramedidas. Nuestro trabajo presenta una contribución relevante al estado del arte en este aspecto. Proponemos un método híbrido de clasificación binaria denominado DNN-kNN. El enfoque se basa en redes neuronales profundas (DNN) y en el algoritmo k-Nearest Neighbor (kNN).
Carlos Becker Westphall es Profesor Titular (desde 1993) en el Departamento de Informática y Estadística de la Universidad Federal de Santa Catarina – Brasil, donde actúa como líder del Laboratorio de Redes y Gestión y también coordina algunos proyectos financiados por el Consejo Nacional de Investigación de Brasil (CNPq). Se licenció en Ingeniería Eléctrica en 1985 y obtuvo un máster en Informática en 1988, ambos en la Universidad Federal de Rio Grande do Sul (Brasil). Obtuvo un doctorado en Ciencias de la Computación (Gestión de Redes) en la Universidad Paul Sabatier, Francia, en 1991. Es autor y/o coautor de más de 500 publicaciones. Es (y ha sido) miembro del Consejo Editorial de más de una docena de revistas. Es (y ha sido) miembro del comité organizador y/o del programa de cientos de conferencias. Tiene experiencia en Informática y Telecomunicaciones, con énfasis en la Administración y Gestión de Redes y Servicios, actuando principalmente en los siguientes temas: seguridad, computación autónoma, computación en la nube e Internet de las Cosas. Fundó la conferencia LANOMS (Latin American Network Operations and Management Sym- posium). También prestó servicios: para el IEEE actuando en el CNOM (Committee on Network Operation and Management); para el IFIP actuando en el «WG6.6 – Management of Networks and Distributed Systems»; para Elsevier como editor de COMNET (Computer Networks Journal); y para Springer como editor senior en JNSM (Journal of Network and Systems Management).
Dr. Xavier Ferré
Universidad Politécnica de Madrid. España.
La Organización Mundial de la Salud (OMS), define como envejecimiento saludable el proceso de desarrollar y mantener la capacidad funcional que permite el bienestar en la vejez. Esta definición pone en relieve que envejecer saludablemente es más que no padecer enfermedades. También tienen que ver con mantener la capacidad funcional que permite a las personas mayores mantener su autonomía y realizar las actividades que les permiten satisfacer sus necesidades básicas: aprender, crecer y tomar decisiones; tener movilidad; establecer y mantener relaciones; y contribuir a la sociedad. La tecnología puede contribuir de forma relevante a alcanzar estos objetivos, aunque para ello debe estar diseñada de forma que las personas mayores puedan utilizarlo y que su experiencia de uso (UX en sus siglas en inglés) sea positiva.
Así, el diseño de la UX, entendido como el diseño de todo lo que contribuye a la experiencia de uso de una solución tecnológica, es especialmente relevante para este tipo de usuarios.
Un número cada vez más amplio de personas mayores acceden a la tecnología, en especial a través de sus dispositivos móviles, como teléfonos móviles y tabletas. Las tecnologías móviles pueden ser clave para dar soporte a un envejecimiento saludable, de forma que las personas puedan mantener un capacidad funcional y cognitiva que les permita tener una vida independiente y plena hasta una edad más avanzada.
En esta conferencia se presentará cómo la tecnología puede contribuir a un envejecimiento saludable. Se tratará cuál es el uso que hacen las personas mayores de la tecnología, para desterrar ideas preconcebidas de que este tipo de usuarios no pueden o no quieren utilizar dispositivos móviles. Se identificarán las características que deben tener las aplicaciones móviles dirigidas a estos usuarios, y se presentarán las soluciones desarrolladas por el Laboratorio de Envejecimiento (Ageing Lab) del Centro de Tecnología Biomédica de la Universidad Politécnica de Madrid, para monitorizar la fragilidad con tecnologías de Internet de las Cosas y aplicaciones móviles.
Xavier Ferré es Licenciado en Informática por la UPM (1996) y Doctor por la UPM (2005). Ejerce su actividad docente como Profesor Contratado Doctor en el Departamento de Lenguajes y Sistemas Informáticos e Ingeniería del Software, Escuela Técnica Superior de Ingenieros Informáticos (UPM) de la que ha sido Vicedecano de Alumnos (2004-2012) y Subdirector de Internacionalización (2016-2021). Ha ejercido de Director del «Master Universitario en Ingeniería del Software – European Master in Software Engineering», de la UPM (2011-2012); de Coordinador del Grupo de Innovación Educativa «Captación, Orientación y Acogida de Estudiantes» desde su creación en 2010; y de Director de la Cátedra UPM-El Mundo de Comunicación Digital (2013-2017). Desde 2021 es Director para Asia de la UPM.
Es investigador en el Active Ageing Lab del Centro de Tecnología Biomédica (CTB) de la UPM desde 2015. Ha impartido tutoriales en las dos principales conferencias de su ámbito de investigación (Interacción Persona-Ordenador e Ingeniería del Software): ACM Intl. Conference on Human Factors in Computing Systems (CHI 2011) y la Intl. Conference on Software Engineering (ICSE 2006). Ha participado como conferenciante invitado en las VI Jornadas Iberoamericanas de Ing. del Software e Ing. del Conocimiento (JIISIC’07), en la International Conference on Information, Business and Education Technology (ICIBET 2013) y en la Jornada de Investigación Sanitaria de la Comunidad de Madrid 2017.
Ha sido contratado por el gobierno de la República Popular de China como High-End Foreign Expert para llevar a cabo una colaboración investigadora con la Univ. de Tongji en el periodo 2015-2017. Sus principales líneas de investigación son la automatización de la evaluación de usabilidad, en particular el análisis de la Usabilidad y Experiencia de Usuario (UX) en aplicaciones móviles; y el diseño de aplicaciones móviles para usuarios mayores, especialmente en el campo de la salud.
Dr. Martín Solari
Universidad ORT Uruguay. Uruguay.
La tecnología no es un concepto independiente o secundario en ingeniería. Por el contrario, la tecnología es fundamental en la producción de soluciones eficaces a problemas complejos. En ingeniería de software equipos interdisciplinarios se apoyan en la tecnología y un proceso gestionado para producir aplicaciones de calidad.
La tecnología no es un concepto estático: evoluciona con el tiempo, depende de un contexto técnico y social concreto. De poco sirve un teoría o práctica de ingeniería si no cuenta con la tecnología que permite aplicarla. Tampoco es útil una tecnología por si misma, si no tiene una comunidad de ingenieros profesionales que puede aplicarla.
Como en otras ramas de la ingeniería, puede existir un gap entre lo que la industria aplica en sus proyectos y lo que enseñamos en los cursos de ingeniería de software. Esta es una disciplina que cambia a un ritmo elevado y en la cual la tecnología proviene en su mayor parte de la industria y la comunidad profesional.
En este escenario, uno de los principales desafíos para la enseñanza de la ingeniería de software es utilizar un contexto tecnológico actualizado. Por otro lado, las tecnologías deben seleccionarse de acuerdo a los conceptos fundamentales de ingeniería de software que se quieren enseñar y en el marco pedagógico adecuado.
Martín Solari es Catedrático Asociado de Ingeniería de Software y Coordinador del Centro de Investigación e Innovación en Ingeniería de Software (CI3S) en la Facultad de Ingeniería de la Universidad ORT Uruguay. Es Doctor en Software y Sistemas por la Universidad Politécnica de Madrid e Ingeniero de Sistemas por la Universidad ORT Uruguay. Ha recibido becas de Fundación Carolina, PDT, ANII y del programa Erasmus Mundus de la Unión Europea.
Se ha desempeñado como desarrollador de sistemas y consultor en el área de procesos de software. Como docente ha dictado materias en las áreas: programación, diseño de aplicaciones, ingeniería de software, prueba de software, usabilidad y gestión de proyectos. Sus áreas de investigación son: testing de software, usabilidad, agilidad en startups de software e ingeniería de software experimental.
Es investigador nivel I en el Sistema Nacional de Investigadores (SNI) e investigador grado 3 del Programa de Desarrollo de las Ciencias Básicas (PEDECIBA) Área Informática. Coordinador alterno del programa IS.uy, que tiene como objetivo impulsar la Ingeniería de Software en Uruguay mediante investigaciones de campo y actividades de fortalecimiento de vínculos entre industria, estado y academia. Es miembro del comité ejecutivo del centro Information and Communication Technology for Verticals (ICT4V) y representante por las universidades privadas en el Consejo Nacional de Innovación, Ciencia y Tecnología (CONICYT) de Uruguay.
Dr. Efraín Fonseca
Universidad de las Fuerzas Armadas—ESPE, Ecuador.
Los bosques albergan el 80% de la vida terrestre; sin embargo, se han visto seriamente amenazados al perderse millones de sus hectáreas cada año debido a los incendios forestales. El objetivo de esta investigación es obtener los requerimientos, métodos, técnicas, elementos tecnológicos, situaciones y especificaciones para estructurar un modelo tecnológico actual, compacto, genérico y de bajo costo que permita la alerta o detección temprana de incendios forestales y brinde apoyo oportuno en la toma de decisiones. Realizamos un Estudio bibliográfico del estado del arte de los incendios forestales (FF) ecuatorianos a través de tres estudios y encontramos que el factor humano es crucial en la generación, prevención, control y mitigación del impacto de los FF, las tecnologías emergentes están manejando adecuadamente la problemática de los incendios forestales y una disminución del 16,13% de las hectáreas quemadas del 2018 al 2020; sin embargo, hubo un incremento del 17% del 2019 al 2020. Como conclusiones, encontramos que los incendios forestales representan un peligro sin precedentes para la vida, por lo que existe un amplio abanico de posibilidades para su detección temprana desde hace tiempo. Las tecnologías emergentes dan a la ciencia nuevas alternativas para desarrollar propuestas compactas, económicas, accesibles y funcionales de alerta temprana sobre este fenómeno.
Efraín R. Fonseca C. recibió el grado de Ph.D., en 2014. Tiene diez años de experiencia en la industria de TI como Consultor. Actualmente es Profesor Titular de la Universidad de las Fuerzas Armadas-ESPE, Ecuador. Entre sus intereses de investigación se encuentran el proceso de investigación en ingeniería de software empírica, los métodos de investigación en ingeniería de software empírica, el análisis orientado a objetos, el diseño y desarrollo de representaciones ontológicas en ingeniería de software, la seguridad de la información y las nuevas tecnologías emergentes, como el Internet de las Cosas (IoT).
Mg. Ing. Abraham Dávila Ramón
Pontificia Universidad Católica del Perú (PUCP), Perú.
El 2011 se inicia la publicación de la serie de estándares ISO/IEC 29110 que propone un conjunto de perfiles de proceso que las pequeñas organizaciones (de hasta 25 personas) pueden adoptar para mejorar su competitividad. En el Perú, como parte del Proyecto ProCal-ProSer entre 2013 y 2016, se realizó un Programa de Proyectos de Mejora de Proceso de Software que involucró a 10 micro empresas desarrolladoras de software, donde estudiantes de último año, del programa de ingeniería de informática; apoyaron la implementación del perfil Básico de la ingeniería de software (ISO/IEC 29110-5-1-2). El Proyecto ha permitido varios resultados en la colaboración Universidad-Empresa y ha permitido concretar varias externalidades positivas y lecciones aprendidas a nivel de la implementación del modelo y del programa del proyecto.
Abraham Dávila es Profesor principal del programa de Ingeniería Informática en la Pontificia Universidad Católica del Perú y es Doctorando en Ingeniería de Software, en el tema de mejora de procesos.
Participa como Secretario del Comité Técnico de Normalización en Ingeniería de Software y Sistemas de Información ante INACAL, el organismo peruano de normalización y es miembro del JTC1/SC7 WG24 Comité Técnico de TI, subcomité de ingeniería de software y grupo de trabajo 24 encargado del desarrollo de estándares sobre perfiles (procesos del ciclo de vida del software y sistemas) para las pequeñas organizaciones (de hasta 25 personas) que desarrollan software y sistemas.
Ha realizado proyectos de investigación en la industria de software con fondos de distintas fuentes en Perú. Los proyectos, de manera sucesiva, han permitido la realización de Programas de Proyectos de Mejora de Procesos Software (PPMPS) entre el 2006 y 2020; donde se han implementado modelos de proceso software MoProSoft en el proyecto COMPETISOFT, la ISO/IEC 29110 en el Proyecto ProCal-ProSer y un modelo de Servicios para pequeñas organizaciones en ProCal-ProSer. En los PPMPS se ha trabajado con estudiantes de pregrado y postgrado y profesores de las universidades participantes. Se han realizado publicaciones de artículos en conferencias y revistas. Se ha orientado a los estudiantes para obtener sus grados de maestría y título profesional de ingenieros.
PhD. Danilo Martínez Espinoza
Universidad de las Fuerzas Armadas ESPE, Ecuador.
El desarrollo de aplicaciones móviles durante la última década ha tenido un aumento significativo en su participación en el mercado de software. Si bien existen características específicas que lo separan del desarrollo de software tradicional, existe una falta de orientación sobre los problemas encontrados durante el proceso de desarrollo de software móvil. Con el objetivo de definir un marco de desarrollo de aplicaciones móviles que considere las características específicas del desarrollo de aplicaciones móviles, realizamos tres estudios empíricos que nos permitieron identificar las principales tendencias en el proceso de software para aplicaciones móviles y descubrir los principales desafíos para el desarrollo de aplicaciones. Hemos organizado los hallazgos en un marco que integra los desafíos específicos del desarrollo móvil a los que hemos llamado Mobile Ilities, con actividades de desarrollo de software que se vinculan a través de un proceso ágil. Los resultados de las primeras pruebas realizadas con estudiantes del grado de informática son alentadores. Nuestra propuesta ha servido de guía para los desarrolladores novatos durante todo el proceso de creación de un producto final, combinando el conocimiento existente de los desarrolladores sobre Scrum y XP con las características específicas del desarrollo móvil, y proporcionando mecanismos para vincular estas características con los elementos del proceso de desarrollo.
Danilo Martínez Espinoza es Ingeniero en Sistemas (2001) por la Escuela Superior Politécnica de Chimborazo (Riobamba – Ecuador), Máster en Software & Sistemas (2013) y Doctor en Software, Sistemas y Computación (2020) por la Universidad Politécnica de Madrid (España). Es profesor investigador del Departamento de Ciencias de la Computación de la Universidad de las Fuerzas Armadas ESPE en Quito-Ecuador. Ha desempeñado varios cargos directivos en la universidad, como Director de la Carrera de Ingeniería en Sistemas e Informática (2009-2011), miembro del Honorable Consejo Académico de la ESPE (2009-2011) y Coordinador de Investigación del Departamento de Ciencias de la Computación (2013-2015) de la ESPE.
Ha participado como revisor en varios congresos científicos internacionales y revistas científicas. Es miembro del Comité Editorial de la revista electrónica RECIBE de la Universidad de Guajadalara (México). Actualmente, es editor de la revista científica GEEKS DECC Report del Departamento de Ciencias de la Computación del la Universidad de las Fuerzas Armadas ESPE y Coordinador del Club de Desarrollo de Software de la ESPE.
Sus áreas de interés son la ingeniería de software, proceso de desarrollo de apps, multimedia, interacción hombre-máquina, experiencia de usuario, usabilidad, diseño gráfico y TICS en la educación. Ha dirigido varias tesis de grado y posgrado. Es autor de 12 papers en Congresos Internacionales y una revista JCR Q1 en el área de ingeniería de software.
Gabriel García Mireles
Universidad de Sonora, México.
El desarrollo sostenible es un tema de interés para todas las disciplinas científicas, incluida las ciencias de la computación. El propósito de esta charla es presentar los principales avances del estudio de la sostenibilidad medioambiental en el área de ingeniería de software. En particular, se abordará el concepto de sostenibilidad medioambiental y su relación con la calidad del software de aplicación considerando dos perspectivas: calidad del producto y calidad del proceso. Desde la perspectiva de calidad del producto, se describen algunas relaciones entre metas de sostenibilidad y las características de calidad del producto descritas en el estándar ISO/IEC 25010. Considerando la perspectiva del proceso, se describen los principales métodos propuestos para abordar aspectos de la sostenibilidad en diversas etapas del ciclo de vida del software. Además, tomando como base el estándar ISO/IEC 29110, se presenta un conjunto de tareas que están relacionadas con la sostenibilidad medioambiental.
Gabriel Alberto García Mireles actualmente es profesor titular de la Universidad de Sonora y está adscrito al Departamento de Matemáticas en donde imparte asignaturas del área de ingeniería de software que conforman el programa de licenciatura en Ciencias de la Computación. Obtuvo el grado de Doctor en Tecnologías Informáticas Avanzadas por la Universidad de Castilla – La Mancha. Su trabajo de investigación se enfoca en estudiar la calidad del software considerando el impacto de las iniciativas de mejora de proceso de software en la calidad del producto de software. En la última década, ha estudiado las áreas de oportunidad que ofrecen los estándares de procesos del ciclo de vida del software para abordar las características de calidad del producto descritas en el ISO/IEC 25010. Ha centrado su atención en la identificación de características de calidad que son relevantes para los productos de software que desarrollan empresas muy pequeñas. Además, ha investigado la relación que existe entre las prácticas de desarrollo sostenible y la calidad del software. Otros temas que ha explorado están relacionados con la accesibilidad y la gamificación. Tiene publicaciones de artículos en revistas y actas de conferencias del área de ingeniería de software, ambas de alcance internacional.
Dr. Marco Mora Cofré
U. Católica del Maule, Talca, Chile.
La huella dactilar se utiliza ampliamente en la identificación biométricos, debido a que permiten distinguir personas en forma robusta y por el bajo costo de la tecnología asociada a su captura. Es bien sabido que las huellas dactilares pueden clasificarse en cinco categorías principales: Arco, Arco de carpa, Lazo izquierdo, Lazo derecho, y Verticilo. El reconocimiento automático de las personas basado en las huellas dactilares requiere la comparación de una huella dactilar de entrada con un gran número de huellas dactilares en una base de datos. El agrupamiento de huellas según su clase permite reducir el tiempo de búsqueda en la base de datos, pues se realiza dicha búsqueda en grupos de huellas con menos muestras. Sin embargo, cuando se está en presencia de una base de datos enorme (por ejemplo, la base de datos del FBI contiene más de 70 millones de huellas dactilares), la clasificación de huellas es muy costosa en términos de memoria y tiempo. Por otro lado, las Redes Neuronales de Aprendizaje Extremo (ELM) están siendo ampliamente estudiadas debido a que tienen niveles de performance similares a los clasificadores tradicionales tales como las Redes de Retropropagación (MLP) y a las Máquinas de Soporte Vectorial (SVM), pero presentan un algoritmo de entrenamiento mucho más rápido. La presente charla muestra los primeros resultados científicos del proyecto Fondecyt Regular 2020 Very Large Finger Classification based on a Fast and Distributed Extreme Learning Machine Neural Network, el cual tiene como objetivo principal desarrollar un método de clasificación de huellas dactilares basado en una red ELM entrenada con millones de muestras. El método desarrollado permite entrenar un clasificador ELM con 18 millones de huellas en tiempos razonables y elevados niveles de performance.
El Dr. Marco Mora recibió el grado de Ingeniero en Electrónica y el grado de Magíster en Ingeniería Eléctrica en la Universidad de Concepción, Chile, en 1998 y 2004, respectivamente; y el grado de Doctor en Ciencias de la Computación del Instituto Nacional Politécnico de Toulouse (INPT), Universidad de Toulouse, Francia, en 2008. Actualmente es profesor del Departamento de las Ciencias de la Computación e Industria, Director del Laboratorio de Investigaciones Tecnológicas en Reconocimiento de Patrones LITRP, de la Universidad Católica del Maule, Chile, y Presidente de la Asociación Chilena de Reconocimiento de Patrones ACHIRP para el período 2021-2024. Sus intereses de investigación son el Procesamiento de Imágenes Digitales, Redes Neuronales, Biometría y aplicaciones del Reconocimiento de Patrones.
Dr. Eduardo Aguilar Torres
U. Católica del Norte, Antofagasta, Chile.
Notables mejoras han sido evidenciadas en la última década con la aparición de modelos de aprendizaje profundo sobre una amplia diversidad de problemas. Como contraparte, el buen desempeño observado con este tipo de algoritmo no siempre se refleja al usarlos en entornos reales. Particularmente para problemas críticos, es obligatorio ser consciente de la confiabilidad dada a las predicciones generadas para evitar resultados catastróficos. En esta charla discutiremos la importancia de modelar la incertidumbre para entender qué aprendió o no aprendió nuestro modelo y también para poder asignar un grado de certeza a nuestras predicciones. Para ello, describiremos una de las técnicas más populares utilizadas en el marco de aprendizaje profundo, MC-Dropout, y mostraremos en la práctica su implementación en un problema bien definido.
Eduardo Aguilar Torres es Doctor en Matemáticas e Informática de la Universidad de Barcelona bajo la tutela de la Dra. Petia Radeva. Es Ingeniero Civil en Computación e Informática y Magister en Ingeniería Informática de la Universidad Católica del Norte. Actualmente es académico del Departamento de Ingeniería de Sistemas y Computación de la Universidad Católica del Norte. Su principal interés está en la investigación y aplicación de algoritmos de Deep Learning para el análisis visual de alimentos. Tiene como objetivo contribuir a mejorar la calidad de vida de las personas a través de la generación de soluciones tecnológicas basadas en Machine Learning y Computer Vision.
Dr. Chris North
Virginia Tech in Blacksburg, VA, USA.
Traducción: La IA explicable pretende desenmascarar los detalles subyacentes de los algoritmos de aprendizaje de caja negra, permitiendo que estos algoritmos expliquen su estado y resultados a los analistas humanos. Sin embargo, para permitir realmente la interacción entre el ser humano y la IA, argumentaremos que existe una segunda caja negra que representa el proceso cognitivo del usuario y que contiene información que debe ser comunicada al algoritmo. Utilizando este problema de las «dos cajas negras» como motivación, proponemos una filosofía de diseño para la interacción entre humanos e IA. Discutimos los retos asociados a cada fase de la comunicación entre el par de entidades que aprenden de forma cooperativa y los beneficios que surgen de la combinación de las capacidades del ser humano y la IA.
El Dr. Chris North es profesor de Ciencias de la Computación en Virginia Tech, en Blacksburg, VA, Estados Unidos. Es Director Asociado del Centro Sanghani de Inteligencia Artificial y Análisis de Datos (https://sanghani.cs.vt.edu), y dirige el grupo de investigación de Análisis Visual (http://infovis.cs.vt.edu). Fue el principal arquitecto del GigaPixel Display Laboratory, una de las instalaciones de visualización e interacción más avanzadas del mundo. Ha sido co-presidente general del IEEE VIS y co-presidente de las conferencias IEEE Information Visualization (InfoVis) y IEEE Visual Analytics Science and Technology (VAST). Ha formado parte de los consejos editoriales de IEEE Transactions on Visualization and Computer Graphics (TVCG) y de la revista Information Visualization. Ha recibido más de 15 millones de dólares en subvenciones y ha sido coautor de más de 125 publicaciones revisadas por pares. Como líder en la educación de la ciencia de los datos en VT, fundó el Certificado de Posgrado en Análisis de Datos, y coorganizó la especialización en Modelado Computacional y Análisis de Datos (CMDA). Su agenda de investigación y educación busca posibilitar la interacción entre el ser humano y la inteligencia artificial para el análisis de grandes datos. Citas en Google Scholar: https://scholar.google.com/citations?user=yBZ7vtkAAAAJ