Julian Müller – Empirically Relevant Roles in Multivariate Networks

Under the assumption that actors with the same social role develop and get influenced by their relations in similar ways, we can infer the roles of actors from those relations. We therefore define that two actors have the same role in a network if the patterns in their relations are similar enough.
In this talk, we propose a framework for the emergence of role relations in social networks. It generalizes known role concepts such as structural, regular and exact equivalence, but also allows for other more nuanced notions of roles. Furthermore, it is applicable to networks involving multiple actor and tie attributes and provides a micro-foundation for the evolution of roles. We apply this approach to a multivariate data set of friendship and social knowledge relations among recruits in a police academy. Non-trivial and hitherto undiscovered roles are found using comparisons in which network structure and actor attributes are combined.

Victor Leiva – A new approach to modeling of data with skew distributions

Data modeling based on skew distributions has received considerable attention in recent years. In this article, we introduce a new approach for the case of Birnbaum–Saunders regression models, which allows us to analyze data in their original scale and to model non-constant variance. In addition, we propose different types of residuals for these models and conduct a simulation study to establish which of them has a better performance. Furthermore, we develop diagnostic methods of influence under different perturbation schemes. Finally, we perform real data analytics by using the approach proposed in the article. This analysis shows its potential applications.

Felipe Feijoo – Mixed complementarity problems (MCP) for natural gas markets: Infrastructure development under domestic and international socio-economic conditions.

Changes in the United States (U.S.) natural gas market have spawned the need for inter-state pipeline infrastructure planning. Previous studies have analyzed natural gas infrastructure development largely independent of the interactions of the natural gas sector with the broader economy. However, natural gas infrastructure development is primarily driven by broader domestic and international socioeconomic conditions. We couple a global human-Earth system model with state-level detail in the U.S. (GCAM-USA) that provides the broader socioeconomic context for natural gas supply and demand with a natural gas infrastructure investment model (NANGAM) to examine inter-state natural gas pipeline infrastructure development in the U.S. under a range of socioeconomic scenarios. The study shows that existing pipeline infrastructure in the U.S. is insufficient to satisfy the increasing demand for natural gas and investments in pipeline capacity will be required. However, the geographic distribution of investments within the U.S. is heterogeneous and depends on the capacity of existing infrastructure as well as the magnitude of increase in demand.

Sebastián Cea – Essential equilibria in large square economies

Exchange economies are defined by a mapping between an atomless space of agents and a space of characteristics where the commodity space is a separable Banach space. We characterize equilibrium stability of economies relaying on the continuity of the equilibrium correspondence without differentiability assumptions.

Óscar Romero – On the salmon production and transport planning in a freshwater stage with mobile cages allocation

Fish consumption faces a significant and persistent increment worldwide, where the salmon production is essential to cover the projected demands. The salmon production cycle mainly comprises three stages: freshwater (fish cultivation and handling), seawater (weight gain) and plant processing. Each stage has its own characteristics related to the geographical location, service and raw material providers, and regulations, among other issues. This research focuses on the freshwater stage, which is compounded by a number of serial productive sub-stages. This work proposes new Mixed Integer Programming models for salmon production and transport planning between the freshwater sub-stages in a multi-period scenario. The main contribution relies on integrating cages mobility between the farming centers located at each fresh water sub-stage. The model allows to determine the required cages as well as their allocation to the farming centers for each period within the planning horizon. In addition, a Lagrangian Relaxation-based algorithm is proposed in order to efficiently solve the proposed model.

Eusebio Vargas – Positional-based selective strategy of key players: controlling complex networks

Gaining control on complex networks is expected to make a huge impact in our world as we live in an interconnected society where a large amount of important aspects in our daily life  relies on complex systems which can be naturally modeled by the network paradigm. For the goal to be achieved, the problem of finding the best set of key players is crucial for designing an efficient selective strategy of pinning control. Different approaches are based on the idea that ranking players or actors by the use of well know (or newly developed) graph-based centrality indices would lead to the best set of important actors, but this assumption presents serious drawbacks.

Timothy Matis – High Reliability Organizational Theory in Healthcare

High Reliability Organizational theory has been championed by the Joint Commission on Accreditation of Hospitals (JCAHO) as a means to reduce major medical error. The theory was developed through the empirical observation of organizations in industries whose system failure has a low probability of occurrence but would result in catastrophic consequences. This presentation explores the applicability of HRO theory in Healthcare, and proposes alternative interventive measures.

Felipe Feijoo – Climate and carbon budget implication of linked future changes CO2 and non-CO2 forcing

The approximate proportional relationship between cumulative carbon emissions and instantaneous global temperature rise (the carbon budget approximation) has proven to be a useful concept to translate policy-relevant temperature objectives into CO2 emissions pathways. However, when non-CO2 forcing is changing along with CO2 forcing, error in the approximation increases. Using the GCAM model to produce an ensemble of~ 3,000 scenarios,  I show that linked changes in CO2 forcing, aerosol forcing, and non-CO2 greenhouse gas forcing lead to an increase in total non-CO2 forcing over the 21st century across mitigation scenarios. This increase causes the relationship between instantaneous temperature and cumulative CO2 emissions to become more complex than the proportional approximation often assumed, particularly for low temperature objectives such as 1.5 C.

Armin Lüer – A multiple-allocation profit maximizing p-hub location problem considering hub congestion, time-sensitive demands and 1-stop paths – Diapositivas Presentación

Hub location models are used to design communication and transportation networks in different industries. Fundamental hub location models have been extended to consider profit maximization, hub congestion, price-sensitive demands and multiple stops in every origin-destination (OD) path, etc. We formulate and solve a problem where a profit-maximizing company wants to design a p-hub and spoke network. The transportation demands react to total travel time, which is the arc travel time plus hub processing time; hubs are congested by inbound flows; and every OD path includes at most one hub. This challenging model is solved using an ad-hoc solution method that integrates Lagrangian relaxation and column generation. Ongoing research includes extensive computational experiments to show properties and stability of our novel approach. Future lines of work are the extension of our model to include capacity selection at the hubs, and two or more hubs in OD paths and more sophisticated cost structures.

Pía Amigo – Financial markets for reaching energy targets: cap-and-trade strategies in the Chilean electric sector

In the Paris Agreement, Chile pledged to reduce Greenhouse Gases (GHG) in 30% and to phase out coal as energy generator. However, it is unclear how we will achieve that goal. So far, the only green policy implemented in Chile is an emission tax, first of its kind in Latin America. However, it has proven to be insufficient. In our work, we present an alternative approach for pricing carbon emissions: the cap and trade paradigm. We modelled the Chilean electric market as a two-stage capacity expansion equilibrium problem, where we allow future investment and trading of emission permits among agents. This presentation will show the applicability of our model and the current state of the project.

Germán Paredes – El problema de recolección de leche con mezclas graduales

En este artículo estudiamos un problema de recolección de leche considerando varios tipos o calidades de leche. Una planta procesadora recolecta leche desde un conjunto de predios utilizando una flota de camiones homogénea. Cada predio produce uno de tres posibles tipos de leche. Cada camión tiene un compartimiento, y se permite la mezcla de diferentes tipos de leche cuando esto maximiza el beneficio. La leche que llega a la planta en cada camión se clasifica en uno de los tres tipos. Los tipos de leche son definidos en función del conteo de células somáticas (CS) por mililitro de leche. Asimismo, el máximo contenido de CS por mililitro de leche para cada tipo es regulado por la ley vigente o por la compañía. El objetivo es maximizar el beneficio considerando el ingreso por la leche recibida en la planta y los costos de transporte. Presentamos resultados computacionales para un caso real en el sur de Chile.

María Fernanda González – Business Process Architecture Design Based on Domain Models

El foco de la presente tesis es el diseño de Arquitecturas de Procesos de Negocio (APN). Una APN consiste en una vista general organizada de los procesos de negocio y sus relaciones. Una vez diseñado, un modelo de APN responde algunas interrogantes claves dentro de una organización: qué procesos de negocio existen en ella, y cómo se relacionan dichos procesos entre sí. Una revisión sistemática de la literatura reveló tres problemáticas vinculadas a los métodos para el diseño de APN: falta de insumos estructurados, consideración limitada de las relaciones entre procesos de negocio, y uso restringido de lenguajes estándares de la industria. La principal consecuencia de los mencionados aspectos, es que amenazan las métricas de calidad más relevantes de los métodos para el diseño de APN, es decir, facilidad de uso y utilidad. Dichas métricas son, a su vez, predictores del uso de los respectivos métodos.

De cara a esta problemática, la tesis propone un nuevo método para el diseño de APN, el cual fue desarrollado conforme al paradigma de Design Science (ciencia del diseño). El método propuesto se ha bautizado domain-based (dPBA) BPA method (método de APN basado en dominio) y está acompañado por una teoría que incluye un marco conceptual, algunas generalizaciones respecto al uso del artefacto en su contexto, y un alcance dentro del cual dichas generalizaciones son aplicables.

Otros productos de la tesis son la especificación de un framework para la descripción de métodos para el diseño de BPA, y un diseño experimental para la evaluación empírica de la propuesta y su comparación con métodos alternativos. Ambas herramientas contribuyen a la expansión del conjunto de herramientas para el análisis y comparación de métodos para el diseño de BPA, en general.

El dBPA method es una propuesta que se puede catalogar dentro del paradigma para el modelado de procesos de negocio centrado en entidades. Mediante el uso de modelos de dominio como punto de partida, el método constituye una herramienta para elaborar modelos de APN a nivel conceptual, en los cuales se consideran relaciones del tipo composición, especialización, gatillamiento, y flujo de recursos. Además, la propuesta incluye la definición de un punto de vista de ArchiMate. Esto último apunta a mejorar la efectividad cognitiva de los modelos resultantes de APN. En definitiva, los modelos de APN obtenidos usando el dBPA method proveen de información holística y entendible para gestionar los procesos de negocio de la organización. Dichos modelos pueden ser usados o como punto de partida para el desarrollo de la APN de una organización, o como una herramienta para el diagnóstico de modelos de APN previamente diseñados.

El dBPA method fue evaluado conceptual y empíricamente. Esto último permitió corroborar que el método se percibió como útil lo cual, en definitiva, resulta ser un predictor del potencial uso en la práctica del mismo. Adicionalmente, se recopiló evidencia preliminar a favor de que el método propuesto es una mejora respecto a las alternativas actualmente disponibles para el diseño de APN.

Lo anterior en términos de facilidad de uso, utilidad, e intención de uso. Estos resultados son consistentes con las principales decisiones de diseño embebidas en el dBPA method: reuso de entradas estructuradas, cobertura de una variedad de tipos de relaciones entre procesos, y el uso de un lenguaje estándar de la industria.

Daniel Goya – Distance from core competences and new export survival: Evidence from multi-product exporters

An important part of aggregate export growth is the result of firms adding new varieties to their export baskets. This paper contributes to the literature by proposing a measure of ‘distance’ between a new export and a firm’s current export basket–that can be related to the concept of ‘distance from the core’ used in some models of multi-product firms–and showing that it is a significant determinant of the survival of new exports. It does this using discrete-time survival models, linear models with fixed effects, and matching estimators that suggest a causal interpretation of our findings.

To distinguish whether this ‘distance’ measure is capturing demand or technological complementarities, two alternative ‘distance’ measures are built: one based on the similarity of the inputs required by two products, and another based on the similarity in the set of buyers. Only the measure of similarity in inputs determines survival, suggesting that technological rather that demand complementarities explain the paper’s findings.

Daniel Espinoza – Mixed Integer Programming: The State of the Art, … and why you should care

In this talk we start with a crash introduction to mixed integer optimization, its history, uses, and scope. We show that NP-completeness is not the (algorithmic) end for a problem… Rather a starting point. And that if we are willing to sacrifice a small degree of optimality, and we know good polyhedral descriptions for a problem, we can actually solve them, even for seemingly impossible sizes, in surprisingly small running times. We then move into ex- plain the main aspects of the technology behind modern solvers. Gloss over the most common technique to deal with really huge models, and finally, we conclude with an overview of two areas where deep advances have been made both in the theoretical and also in the computational side, namely: Stochastic Optimization and Risk.

Andrés Mejía – Evaluación del pensamiento crítico en ingeniería industrial: una propuesta y un ejemplo

En esta charla presentaré una propuesta sobre cómo producir evaluaciones de desempeño de pensamiento crítico, aplicada a la ingeniería industrial, la cual desarrollé junto con colegas del Centro de Evaluación de la Universidad de los Andes. El punto de partida es el esquema de evaluaciones de desempeño del proyecto iPAL (International Performance Assessments of Learning, el cual propone un constructo de pensamiento crítico constituido por cuatro facetas básicas: 1. evaluación y uso de información, 2. evaluación y construcción de argumentos, 3. evaluación de consecuencias de decisiones, y 4. comunicación y entrega de resultados. Sin embargo, añadimos una nueva faceta que argumentamos es central para el pensamiento crítico: 5. análisis de perspectivas. En la charla describiré qué son las evaluaciones de desempeño, cómo se entiende el pensamiento crítico y de qué maneras algunos elementos de éste son específicos a los campos disciplinares o profesionales, en este caso la ingeniería industrial. Luego mostraré, con un ejemplo, cómo se pueden producir instrumentos de evaluación de desempeño para ello.

Francisco Tapia – Diseño de redes de cadenas de suministro de repuestos

Los repuestos son esenciales para asegurar la continuidad de los procesos productivos. Consecuentemente, la disponibilidad de los repuestos es crucial y se soportan en todas las operaciones de la red de la cadena de suministro subyacente. Sin embargo, la literatura tradicional de la gestión de repuestos ha excluido mayormente el diseño y gestión de la red de la cadena de suministro. Por otro lado, las decisiones típicamente se toman bajo un esquema jerárquico y secuencial en donde las decisiones son tomadas muchas veces sin considerar el real impacto que tienen en los otros niveles de decisión. Enfoques de decisión integrados permiten encontrar soluciones óptimas globales. Ahora bien, la integración de decisiones genera modelos con mayor complejidad y por ende requieren de enfoques de solución efectivos y eficientes para soportar el proceso de toma de decisiones, especialmente en contextos industriales reales. Esta presentación se enfoca en presentar distintos modelos matemáticos y enfoques que permiten soportar el proceso de toma de decisiones de diseño y control de la red de la cadena de suministro de repuestos. Los modelos presentados se basan en la estructura de los modelos de localización con inventario, perteneciendo a la clase de modelos no-lineales, no-convexos enteros mixtos. Considerando la complejidad matemática de los modelos propuestos, se proponen esquemas de solución basados en la descomposición generalizada de Benders. Se muestran adicionalmente resultados previos, las conclusiones obtenidas y las perspectivas que guían la investigación actual y futura.

Óscar Cornejo Zúñiga – Algoritmo del Tipo Gradiente Monótono para Problemas No Lineales

En este seminario presentamos un nuevo algoritmo de tipo máximo descenso. En el marco del método de Barzilai-Borwein estudiaremos una técnica para el cálculo de la longitud del paso con una estrategia monótona. En contraste con el enfoque de Barzilai-Borwein, en el que el paso se calcula mediante una simple aproximación de la matriz Hessiana, en forma de un múltiplo escalar de la matriz identidad y una interpretación de la ecuación secante, el nuevo algoritmo considera otra aproximación de la matriz Hessiana basada en la ecuación secante débil. Al incorporar una estrategia monótona simple, el algoritmo resultante pertenece a la clase de métodos de gradiente monótono con convergencia lineal.

Carlos Obreque Níñez – Modelos de PLE utilizados en la búsqueda de rutas óptimas para el traslado de estudiantes, recolección de basura y servicio domiciliario

En este trabajo se presentan tres modelos de programación lineal entera para abordar tres problemas de ruteo de vehículos en una ciudad. El primer modelo determina una ruta óptima para un furgón escolar que tiene que iniciar el recorrido en el domicilio del conductor, recoger a los estudiantes desde las puertas de sus casas y dejarlos en su correspondiente colegio. Esta formulación considera n usuarios, m colegios, todos dispersos geográficamente en la comuna de Chiguayante, y un único furgón escolar con capacidad limitada. El segundo modelo determina las rutas que tiene que seguir un camión para recolectar los residuos sólidos que se encuentran en once puntos dispersos geográficamente en la comuna de Talcahuano. En cada punto, denominado Eco-sitio, hay tres contenedores de distintos colores para almacenar los residuos reciclables, el azul para el papel y cartón, el verde para el vidrio y el amarillo para el plástico. Dado que los residuos no se pueden mezclar, el camión, de capacidad limitada, tiene que realizar a lo menos tres viajes durante el día. En este caso, se propone una formulación para resolver el problema del vendedor viajero con múltiples viajes. Por último, el tercer modelo determina la ruta que tiene que seguir el operador para prestar servicio de limpieza e inspección, de ductos de estufas de combustión lenta, en el domicilio de sus clientes que se encuentran dispersos geográficamente en la ciudad de Concepción. En este caso se considera una formulación basada en Miller–Tucker–Zemlin para resolver el TSP con restricciones de ventanas de tiempo, cuyo objetivo es minimizar los costos de operación y mejorar la calidad del servicio.

Franco Basso – Real-time crash prediction in an urban expressway using disaggregated data

We develop accident prediction models for a stretch of the urban expressway Autopista Central in Santiago, Chile, using disaggregate data captured by free-flow toll gates with Automatic Vehicle Identification (AVI) which, besides their low failure rate, have the advantage of providing disaggregated data per type of vehicle. The process includes a random forest procedure to identify the strongest precursors of accidents, and the calibration/estimation of two classification models, namely, Support Vector Machine and Logistic regression. We find that, for this stretch of the highway, vehicle composition does not play a first-order role. Our best model accurately predicts 67.89% of the accidents with a low false positive rate of 20.94%. These results are among the best in the literature even though, and as opposed to previous efforts, (i) we do not use only one partition of the data set for calibration and validation but conduct 300 repetitions of randomly selected partitions; (ii) our models are validated on the original unbalanced data set (where accidents are quite rare events), rather than on artificially balanced data.

Felipe Feijoo – A two-stage cap and trade model with allowance re-trading for capacity investment

In this work, we study an alternative approach for capping and pricing carbon emissions in electric markets; the cap and trade paradigm with re-trade of allowances. We model the market (generators and emissions auctioneer) as a two-stage capacity expansion equilibrium problem, where we allow future investment and trading of emission permits among generator agents. The model studies generation and future investments in the electric sector in two regimes of demand: deterministic and stochastic. Our approach allows to assess the country’s NDC targets and determine the impact of the pledges and the possibility of reaching such goals. As a case study, we use the proposed model to analyze the Chilean electric sector under a cap-and-trade paradigm as an alternative to the current carbon tax in place.  We show that to encourage a shift to greener technologies, a more stringent carbon budget must be considered, resulting in a carbon price approximately ten times higher than the present one. We also show that achieving the emissions reduction goal does not necessarily result in further reductions of carbon generation, or phasing out coal in the longer term.

Gabriel Gutiérrez – Network Design Problems with Traffic Capture

This presentation is focused on the design of networks where the flow that exists between different points in a geographic area has a large impact in the design of the entire  structure. We will present three researches. First, the rapid transit network design with modal competition and predefined structures (corridors) is presented considering three objectives: minimize structure cost, maximize traffic capture and maximize the time savings of the captured flows. Second, we will  show a methodology to define  corridors where some metro lines could be located in the future. Finally,  we explained a preliminary research network design that includes two transportation modes: Bikes and funiculars.