Charlas
Opinion Dynamics of Elections in Twitter

Felipe Bravo
Alumno de Magíster en Ciencias, Mención Computación - Departamento de Ciencias de la Computación, Universidad de Chile.

Noviembre 13, 2012. Sala A001 - Horario: bloque 7-8 (14:00 - 15:15)

Abstract
In this work we conduct an empirical study of opinion time series created from Twitter data regarding the 2008 U.S. elections. The focus of our proposal is to stablish whether a time series is appropriate or not for generating a reliable predictive model. We analyze time series obtained from Twitter messages related to the 2008 U.S. elections using ARMA/ARIMA and GARCH models. The first models are used in order to assess the conditional mean of the process and the second ones to assess the conditional variance or volatility.
The main argument we discuss is that opinion time series that exhibit volatility should not be used for long-term forecasting purposes. We present an in-depth analysis of the statistical properties of these time series. Our experiments show that these time series are not fit for predicting future opinion trends. Due to the fact that researchers have not provided enough evidence to support the alleged predictive power of opinion time series, we discuss how more rigorous validation of predictive models generated from time series could benefit the opinion mining field.

Nota: la charla será dictada en español

[Historial]

Towards Market-aware Requirements: Mitigating Obsolescence of Requirements

Romina Torres
Estudiante de Doctorado del Departamento de Informática, UTFSM.

Octubre 16, 2012. Sala A001 - Horario: bloque 7-8 (14:00 - 15:15)

Abstract
Uncertainty and the unpredictable behaviour of the service market pose the need of requirement specifications for service-based systems based upon a open-world assumption.
The service market is constantly changing, services are deployed or undeployed at anytime and may present an unpredictable variation in quality. Furthermore, these services may remain the same while other services evolve creating mismatching.
Quality specifications of services are built from the assesments of markets that exist and are valid at design time. Due to changes in the market, these assessments may change while specifications do not. Assesments may become relatively obsolete with respect to the current reality ignoring the need of adaptations.
We argue that instead of using static quality specifications based on numbers for example, we can use specifications described using quality labels. During execution, such labels and their corresponding quality specifications, are updated according to changes monitored in the market.
We have evaluated our work comparing the decisions made with and without our approach (i.e. where the requirements specifications would inevitable be broken). In both cases, the system is able to report the quality of the satisfaction of the requirements during execution. Using our approach new adaptations were triggered in such a way that the system was able to comply dynamically to its requirements.

Nota: la charla será dictada en español

An Exact Method with Variable Fixing for solving the Generalized Assignment Problem

Philippe Michelon
Université d'Avignon et des Pays de Vaucluse

Octubre 9, 2012. Sala A001 - Horario: bloque 7-8 (14:00 - 15:15)

Abstract
We propose a simple and very effective algorithm for solving the generalized assignment problem exactly. Our contribution is twofold: we reformulate the optimization problem into a sequence of decision problems, and solve these effectively using variable-fixing rules.
The decision problems are solved by a simple depth-first lagrangian branch-and-bound method, improved by the variable-fixing rules which help prune the search tree. These rules rely on lagrangian relative costs which we compute using an existing but little-known dynamic programming algorithm.

Nota: la charla será dictada, mayoritariamente, en español

Tagging Tagged Images: On the impact of Existing Annotations on Image Tagging

César Moltedo
Departamento de Informática - Universidad Técnica Federico Santa María

Octubre 2, 2012. Sala A001 - Horario: bloque 7-8 (14:00 - 15:15)

Resumen
El crowdsourcing es una técnica novedosa y eficiente para generar metadata de recursos multimedia. Al presentar un recurso parcialmente descritos a los anotadores humanos, las etiquetas resultantes describen mejor al recurso. Aunque se han presentado mejoras significantes en la calidad de los metadatos, aún no se entiende cómo los etiquetadores se ven influenciados por las etiquetas ya entregadas. Esperamos que el número de anotaciones existentes, o grado de completitud, influencie a los anotadores: si bien las descripciones vacías (estado inicial) provoca la creación de más etiquetas, las descripciones completas producen mejores etiquetas (estado avanzado).
Se exploró empíricamente la relación entre la calidad y cantidad de etiquetas bajo los efectos de distintos grados de completitud. Nuestros resultados experimentales revelan una relación significativa entre completitud y el etiquetado de im´genes. No hemos encontrado, en la literatura, estudios que exploren el impacto de anotaciones existentes en el etiquetado de imágenes.

Discrteización de Tejidos Blandos y Duros para
Simulación mediante Elementos Finitos

Claudio Lobos
Departamento de Informática - Universidad Técnica Federico Santa María

Septiembre 25, 2012. Sala A001 - Horario: bloque 7-8 (14:00 - 15:15)

Abstract
En esta presentación hablaré de diferentes técnicas de mallado para modelar estructuras anatómicas (muchas veces de gran complejidad) mediante el Método de Elementos Finitos (MEF). En particular, me referiré a dos temas relevantes:
  • Generación de mallas de superficie de gran calidad a partir de una nube de puntos, es decir, la información que uno obtiene luego de haber realizado segmentación de imágenes médicas.
  • Generación de mallas de volumen de elementos mixtos (hexaedros, prismas, pirámides y tetraedros) para simulación mediante el MEF.
Habrá solución a diferentes problemas y se presentarán los nuevos problemas encontrados.

Modelamiento geométrico y aplicaciones

Nancy Hitschfeld
Departamento de Ciencias de la Computación - Facultad de Ciencias Físicas y Matemáticas - Universidad de Chile

Diciembre 20, 2011. Sala A-009. Horario: bloque 7-8 (14:00 - 15:15)

Abstract
La computación gráfica incluye la creación, almacenamiento, manipulación y visualización de modelos de objetos, tanto reales como abstractos. Estos modelos vienen de distintas áreas tales como la física, las matemáticas, la ingeniería y la arquitectura, entre otras. El término modelamiento geométrico se refiere al conjunto de métodos usados para definir la forma y otras características geométricas del objeto a modelar y visualizar. Uno de estos métodos consiste en modelar un objeto a través de una malla. Una malla es un conjunto de celdas contiguas que permite representar en forma discreta el dominio de un problema ya sea para visualizarlo o para simular algún proceso.
En esta charla se hablará sobre mallas en dos y tres dimensiones, algoritmos para generarlas, aspectos que se pueden paralelilizar y de su uso en distintas áreas de la ingeniería y ciencia. En particular, las aplicaciones que se mostrarán son aplicaciones en donde la expositora ha realizado o realiza su investigación.

Profiler Zoo

Alexandre Bergel
Departamento de Ciencias de la Computación - Universidad de Chile

Diciembre 6, 2011. Sala A006. Horario: bloque 7-8 (14:00 - 15:15)

Abstract
Most of the tools that we use to develop software are based on a fixed and static representation of source code. As a consequence, applications are profiled along their static structure, in terms of methods and classes, instead of the real elements that made up a computation, objects and messages. Code execution profiling is a weak point of most programming languages and environment. In this presentation, we will review state-of-the-Art profilers, which output sexy graphical representation of code execution, test coverage, memory profiling and execution differentiation. These profilers have been successfully used in numerous large projects.

Bio
Alexandre Bergel is Assistant Professor at the University of Chile. He obtained his PhD in 2005 from the University of Berne, Switzerland. After his PhD, A. Bergel made a first postdoc at Trinity College Dublin, Ireland, and a second one at the Hasso-Plattner Institute, Germany. A. Bergel is the author of over 60 articles, published in international and peer review scientific forums, including the most competitive conferences and journals in the field of software engineering. A. Bergel and his collaborators carry out research in diverse aspects of software engineering and software quality.

Computación Reversible

Claudio Moraga
European Center of Soft Computing

Diciembre 2, 2011. Sala A007. Horario: bloque 7-8 (13:45 - 15:15)

Abstract
Los computadores han ido aumentando constantemente su velocidad de funcionamiento desde que aparecieron los primeros microprocesadores integrados, a comienzos de la década 1970. El aumento de velocidad ha ido acompañado con un aumento de disipación de calor, lo cual hace que estemos alcanzando los límites del proceso.
La Computación Reversible está basada en circuitos con mínima disipación de calor. El diseño de tales circuitos debe satisfacer restricciones especiales, para lo cual hay que desarrollar nuevos métodos de diseño. Cabe destacar que, además, la Computación Reversible prepara el camino para la Computación Cuántica.
La charla destacará avances en el diseño de circuitos para la Computación Reversible.

An Application of Combinatorial Optimisation in RailWay Industry

Philippe Michelon
Laboratoire Informatique d'Avignon - Université d'Avignon - France

Noviembre 29, 2011. Sala A001. Horario: bloque 7-8 (14:00 - 15:15)

Abstract
We present a new approach to solve the railway rescheduling problem. This problem deals with the reparation of a disturbed railway timetable after incidents in such a way to minimize the difference between the original plan and the new provisional plan. We designed a mixed integer linear programming (MIP) formulation that models this problem correctly. However, the large number of variables and constraints denies the possibility to solve this problem efficiently using a standard MIP solver. A new approach called SAPI (Statistical Analysis of Propagation of Incidents) has been developed to tackle the problem. The key point of SAPI is to estimate the probability that an event (one step of the itinerary of a train) is affected by a set of incidents. Using these probabilities, we reduce the search space, obtaining very good solutions in a short time. Our method has been tested with two different networks.