Opinion Dynamics of Elections in Twitter
Felipe Bravo
Alumno de Magíster en Ciencias, Mención Computación - Departamento
de Ciencias de la Computación, Universidad de Chile.
Noviembre 13, 2012. Sala A001 - Horario: bloque 7-8 (14:00 - 15:15)
Abstract
In this work we conduct an empirical study of opinion time series
created from Twitter data regarding the 2008 U.S. elections. The
focus of our proposal is to stablish whether a time series is
appropriate or not for generating a reliable predictive model.
We analyze time series obtained from Twitter messages related to
the 2008 U.S. elections using ARMA/ARIMA and GARCH models. The
first models are used in order to assess the conditional mean of
the process and the second ones to assess the conditional
variance or volatility.
The main argument we discuss is that opinion time series that
exhibit volatility should not be used for long-term forecasting
purposes. We present an in-depth analysis of the statistical
properties of these time series. Our experiments show that these
time series are not fit for predicting future opinion trends.
Due to the fact that researchers have not provided enough
evidence to support the alleged predictive power of opinion time
series, we discuss how more rigorous validation of predictive
models generated from time series could benefit the opinion
mining field.
Nota: la charla será dictada en español
]
Towards Market-aware Requirements: Mitigating
Obsolescence of Requirements
Romina Torres
Estudiante de Doctorado del Departamento de Informática, UTFSM.
Octubre 16, 2012. Sala A001 - Horario: bloque 7-8 (14:00 - 15:15)
Abstract
Uncertainty and the unpredictable behaviour of the service market pose
the need of requirement specifications
for service-based systems based upon a open-world assumption.
The service market is constantly changing, services are deployed or
undeployed at anytime and may present an
unpredictable variation in quality. Furthermore, these services may
remain the same while other services evolve
creating mismatching.
Quality specifications of services are built from the assesments of
markets that exist and are valid at design
time. Due to changes in the market, these assessments may change while
specifications do not. Assesments may
become relatively obsolete with respect to the current reality ignoring
the need of adaptations.
We argue that instead of using static quality specifications based on
numbers for example, we can use
specifications described using quality labels. During execution, such
labels and their corresponding quality
specifications, are updated according to changes monitored in the market.
We have evaluated our work comparing the decisions made with and without
our approach (i.e. where the
requirements specifications would inevitable be broken). In both cases,
the system is able to report the
quality of the satisfaction of the requirements during execution. Using
our approach new adaptations were
triggered in such a way that the system was able to comply dynamically to
its requirements.
Nota: la charla será dictada en español
An Exact Method with Variable Fixing for solving
the Generalized Assignment Problem
Philippe Michelon
Université d'Avignon et des Pays de Vaucluse
Octubre 9, 2012. Sala A001 - Horario: bloque 7-8 (14:00 - 15:15)
Abstract
We propose a simple and very effective algorithm for solving the
generalized assignment problem exactly.
Our contribution is twofold: we reformulate the optimization problem
into a sequence of decision problems,
and solve these effectively using variable-fixing rules.
The decision problems are solved by a simple depth-first lagrangian
branch-and-bound method, improved by
the variable-fixing rules which help prune the search tree. These rules
rely on lagrangian relative costs
which we compute using an existing but little-known dynamic programming
algorithm.
Nota: la charla será dictada, mayoritariamente, en español
Tagging Tagged Images: On the impact of Existing
Annotations on Image Tagging
César Moltedo
Departamento de Informática - Universidad Técnica Federico Santa María
Octubre 2, 2012. Sala A001 - Horario: bloque 7-8 (14:00 - 15:15)
Resumen
El crowdsourcing es una técnica novedosa y eficiente para generar metadata de recursos multimedia.
Al presentar un recurso parcialmente descritos a los anotadores humanos, las etiquetas resultantes describen
mejor al recurso. Aunque se han presentado mejoras significantes en la calidad de los metadatos, aún
no se entiende cómo los etiquetadores se ven influenciados por las etiquetas ya entregadas.
Esperamos que el número de anotaciones existentes, o grado de completitud, influencie a los anotadores:
si bien las descripciones vacías (estado inicial) provoca la creación de más etiquetas,
las descripciones completas producen mejores etiquetas (estado avanzado).
Se exploró empíricamente la relación entre la calidad y cantidad de etiquetas bajo los
efectos de distintos grados de completitud. Nuestros resultados experimentales revelan una relación
significativa entre completitud y el etiquetado de im´genes. No hemos encontrado, en la literatura,
estudios que exploren el impacto de anotaciones existentes en el etiquetado de imágenes.
Discrteización de Tejidos Blandos y Duros
para
Simulación mediante Elementos Finitos
Claudio Lobos
Departamento de Informática - Universidad Técnica Federico Santa María
Septiembre 25, 2012. Sala A001 - Horario: bloque 7-8 (14:00 - 15:15)
Abstract
En esta presentación hablaré de diferentes técnicas de mallado para modelar
estructuras anatómicas (muchas veces de gran complejidad) mediante el Método de
Elementos Finitos (MEF). En particular, me referiré a dos temas relevantes:
- Generación de mallas de superficie de gran calidad a partir de una nube de puntos, es
decir, la información que uno obtiene luego de haber realizado segmentación de
imágenes médicas.
- Generación de mallas de volumen de elementos mixtos (hexaedros, prismas, pirámides
y tetraedros) para simulación mediante el MEF.
Habrá solución a diferentes problemas y se presentarán los nuevos problemas encontrados.
Modelamiento geométrico y aplicaciones
Nancy Hitschfeld
Departamento de Ciencias de la Computación -
Facultad de Ciencias Físicas y Matemáticas -
Universidad de Chile
Diciembre 20, 2011. Sala A-009. Horario: bloque 7-8 (14:00 - 15:15)
Abstract
La computación gráfica incluye la creación, almacenamiento,
manipulación y visualización de modelos de objetos, tanto reales
como abstractos. Estos modelos vienen de distintas áreas tales como la
física, las matemáticas, la ingeniería y la arquitectura,
entre otras. El término modelamiento geométrico se refiere al conjunto
de métodos usados para definir la forma y otras características
geométricas del objeto a modelar y visualizar. Uno de estos métodos
consiste en modelar un objeto a través de una malla. Una malla es un conjunto
de celdas contiguas que permite representar en forma discreta el dominio de un problema
ya sea para visualizarlo o para simular algún proceso.
En esta charla se hablará sobre mallas en dos y tres dimensiones, algoritmos
para generarlas, aspectos que se pueden paralelilizar y de su uso en distintas
áreas de la ingeniería y ciencia. En particular, las aplicaciones
que se mostrarán son aplicaciones en donde la expositora ha realizado o
realiza su investigación.
Profiler Zoo
Alexandre Bergel
Departamento de Ciencias de la Computación - Universidad de Chile
Diciembre 6, 2011. Sala A006. Horario: bloque 7-8 (14:00 - 15:15)
Abstract
Most of the tools that we use to develop software are based on a fixed and
static representation of source code. As a consequence, applications are profiled
along their static structure, in terms of methods and classes, instead of the real
elements that made up a computation, objects and messages. Code execution profiling
is a weak point of most programming languages and environment. In this presentation,
we will review state-of-the-Art profilers, which output sexy graphical representation
of code execution, test coverage, memory profiling and execution differentiation.
These profilers have been successfully used in numerous large projects.
Bio
Alexandre Bergel is Assistant Professor at the University of Chile. He obtained his
PhD in 2005 from the University of Berne, Switzerland. After his PhD, A. Bergel made
a first postdoc at Trinity College Dublin, Ireland, and a second one at the
Hasso-Plattner Institute, Germany. A. Bergel is the author of over 60 articles,
published in international and peer review scientific forums, including the most
competitive conferences and journals in the field of software engineering. A. Bergel
and his collaborators carry out research in diverse aspects of software engineering
and software quality.
Computación Reversible
Claudio Moraga
European Center of Soft Computing
Diciembre 2, 2011. Sala A007. Horario: bloque 7-8 (13:45 - 15:15)
Abstract
Los computadores han ido aumentando constantemente su velocidad de funcionamiento desde que
aparecieron los primeros microprocesadores integrados, a comienzos de la década 1970.
El aumento de velocidad ha ido acompañado con un aumento de disipación de calor,
lo cual hace que estemos alcanzando los límites del proceso.
La Computación Reversible está basada en circuitos con mínima disipación
de calor. El diseño de tales circuitos debe satisfacer restricciones especiales, para lo cual
hay que desarrollar nuevos métodos de diseño. Cabe destacar que, además, la
Computación Reversible prepara el camino para la Computación Cuántica.
La charla destacará avances en el diseño de circuitos para la Computación Reversible.
An Application of Combinatorial Optimisation in RailWay Industry
Philippe Michelon
Laboratoire Informatique d'Avignon -
Université d'Avignon - France
Noviembre 29, 2011. Sala A001. Horario: bloque 7-8 (14:00 - 15:15)
Abstract
We present a new approach to solve the railway rescheduling problem.
This problem deals with the reparation of a disturbed railway timetable
after incidents in such a way to minimize the difference between the
original plan and the new provisional plan. We designed a mixed integer
linear programming (MIP) formulation that models this problem correctly.
However, the large number of variables and constraints denies the
possibility to solve this problem efficiently using a standard MIP solver.
A new approach called SAPI (Statistical Analysis of Propagation
of Incidents) has been developed to tackle the problem. The key point of
SAPI is to estimate the probability that an event (one step of the
itinerary of a train) is affected by a set of incidents. Using these
probabilities, we reduce the search space, obtaining very good solutions
in a short time. Our method has been tested with two different networks.