Conferencias


Conferencia 1.  Ciencia de los Datos: ¿Frankestein o Colcha de Retazos?

Recientemente, las grandes empresas vienen mostrando un creciente gran afán por atraer "científicos de datos". Difíciles de definir, es con estos personajes que las organizaciones están creando sus ventajas competitivas.

Estos personajes son expertos en obtener de los datos revelaciones fascinantes, en darle una nueva mirada a lo que parecía obvio y en sembrar las semillas de la innovación empresarial. Sin embargo, si consideramos que sus herramientas de trabajo incluyen el análisis descriptivo tradicional y que en la mayoría de sus desarrollos los modelos lineales siguen jugando un papel preponderante, podemos cuestionar si en realidad estos científicos de datos son algo realmente nuevo.

En esta charla se exploran algunos cambios culturales en las organizaciones, tendencias como el aprendizaje de máquina y el big data y su relación con las leyes de los grandes números para tratar de entender si esta ciencia de los datos es un nuevo Frankeistein o más bien una colcha de retazos.

Conferencia 2.  Pruebas de Normalidad. Algunas Consideraciones y Propuestas

En el contexto de las pruebas estadísticas, las de normalidad presentan algunas peculiaridades, como que hay muchas y que su número sigue creciendo, o que –a diferencia del planteamiento general de los contrastes de hipótesis– se supone cierto lo que interesa y la carga de la prueba la tiene el que afirma otra cosa. En la conferencia se comentarán estos aspectos en el marco de las pruebas estadísticas en general y de la forma de enseñarlas. También se presentará un procedimiento para comparar la potencia de las pruebas normalidad y se propondrá un nuevo planteamiento (que no un nuevo test) para realizar estas pruebas.

Conferencia 3. Statistical  Demonstration  Tests  of  Survival  with Censored Data

(Se dictará en español)

It is often necessary to specify the procedure, the sample size, and test length for a test with censored data that is to be used to demonstrate , with some level of confidence, that survival times exceed a given standard. For example, a customer purchasing a product may require demonstration, by the vendor, that the reliability of a component for five years is 0.99. Generally this is done by testing a sample of units simultaneously for a specified amount of time. If the number of failure in the test is small enough, the demonstration is successful. Up to recently, this type of tests have used binary data and required zero failures, in sample of size n, during a specified length of time. We propose the generalization of the methodology relaxing the request of zero failures and the type of data to be used. We also advance the use of Bayesian methods with meaningful informative priors to decrease the large sample sizes and the long demonstration tests

Conferencia 4. Statistical modeling of spatial big data: an approach from a functional data analysis perspective (Modelación estadística de datos espaciales masivos: una aproximación desde la perspectiva del análisis de datos funcionales)

Today statistical techniques for the analysis of large and complex data with a spatial underlying structure are required. For example, it is the case in neurological studies when curves of the electrical activity are recorded in voxels of the brain. Generally, some multivariate techniques of dimension reduction are used to solve the problem of high dimensionality that arises in these cases. FDA may be an alternative in this scenario. High dimensional data become functional data which are posteriorly analyzed by using FDA methods. Basically, it is considered that the data observed for several dependent spatial units correspond to realizations of stochastic processes, usually assumed to be in a metric, semi-metric, Hilbert or Banach space. In fact, in the setting of functional spatial data analysis, complex high dimensional data is typically a set of curves or surfaces, spatially distributed, regarded as points in a functional space (space of squared integrable functions). Here, we give a review about the common basis of these approaches making an emphasis in the spatial prediction of functional data.

The last decade saw a dynamic literature on parametric or non-parametric FDA approaches for high dimensional spatially dependent data and applications to various domains, such as principal component analysis, , clustering, regression and prediction of stationary or non-stationary processes with kriging or non-parametric, testing, among others. In the lecture, we propose to illustrate spatial prediction involving complex high dimension datum by a modern functional prediction technique, namely, functional kriging.

Conferencia 5. Spherical Factor Analysis for Binary Data: A Look at the Conservative Revolt in the US House of Representatives

(Se dictará en español)

Factors models for binary data are extremely common in many social science disciplines. For example, in political science binary factor models are often used to explain voting patterns in deliberative bodies such as the US Congress, leading to an “ideological” ranking of legislators. Binary factor models can be motivated through so-call “spatial” voting models, which posit that legislators have a most preferred policy – their ideal point –, which can be represented as a point in some Euclidean “policy space”. Legislators then vote for/against motions in accordance with the distance between their (latent) preferences and the position of the bill in the same policy space.

In this talk we introduce a novel class of binary factor models derived from spatial voting models in which the policy space corresponds to a non-Euclidean manifold. In particular, we consider embedding legislator’s preferences in the surface of a n-dimensional sphere. The resulting model contains the standard binary Euclidean factor model as a limiting case, and provides a mechanism to operationalize (and extend) the so-called “horseshoe theory” in political science, which postulates that the far-left and far-right are more similar to each other in essentials than either are to the political center. The performance of the model is illustrated using voting data from recent US Congresses. In particular, we show that voting patterns for the 113th US House of Representatives are better explained by a circular factor model than by either a one- or a two-dimensional Euclidean model, and that the circular model yields a ranking of legislators more in accord with expert’s expectations.

Conferencia 6. El Valor de los Datos Masivos

Los datos abiertos son aquellos que se originan, en su mayoría, de las actividades financiadas con recursos públicos aunque también provienen de otras fuentes pero que son publicados en portales del gobierno. Esta información se encuentra abierta y disponible a cualquier persona sin importar grupo o condición social. Los datos ofrecidos se llaman abiertos porque pueden ser usados libremente, modificados y compartidos por cualquier grupo de personas u organización, incluido el mismo gobierno.

El propósito de la charla es dar a conocer los principios que subyacen sobre los datos abiertos para que puedan generar valor por la creación de nuevos servicios o productos, por la determinación del impacto de las políticas públicas, entre otras cosas. Para mostrar la importancia de los datos abiertos, se presentarán variados ejemplos del uso de los mismos, tanto por el ciudadano común, como por estadísticos y científicos de datos. Adicionalmente, se dará a conocer cuál es el posicionamiento de nuestro país en el ámbito mundial, de acuerdo con varios índices propuestos para determinar el grado de madurez de los países con respecto a los datos abiertos. Por último, se presentarán los retos que se deben enfrentar para aprovechar al máximo este recurso.

Conferencia 7. La Estadística en Economía

Hoy en día la Estadística es considerada como una de las ciencias más influyentes en muchas de las áreas del conocimiento, y dado su veloz desarrollo, a la par con el vertiginoso crecimiento de la capacidad computacional, ofrece grandes posibilidades de aplicación.Cada vez más disciplinas encuentran en los méto¬dos estadísticos una opción para el adecuado planteamiento y solución de sus problemas específicos. Una de las áreas en las que la Estadística ha encontrado un amplio espacio de desarrollo y de aplicabilidad, es sin duda, la delaEconomía y el Desarrollo Social.El objetivo de esta charla es presentar algunos aportes de la Estadística a la solución de algunos problemas de cuantificación, modelación y construcción de indicadoressociales de alguna importancia para el país.

Conferencia 8. DEVELOPING STATISTICAL PRODUCTS FOR INDUSTRY, MEDICINE AND BUSINESS

Abstract Statistics has been consolidated with activity to promote scientific and technological progress in Brazil, contributing to the productive sector to increase its added value through the development of specific methodologies and products. In this context, we have observed a great insertion of methodologies and statistical products in innovation processes, promoting interaction with professionals from the public and productive sectors, as well as with the population in general, which efficiently directs the interlocution between academia and industry. This conference presents the main actions and activities of statistical innovation that we have developed in the sense of approximating academia, the productive sector and the population in general. The importance and the social, cultural and financial impacts of the use of new statistical-based technologies in real successful applications in industry, medicine and business are presented. Several successful real examples are presented. Challenges and future trends for innovation and technology transfer in Statistics are also addressed.

Conferencia 9. STATISTICS ON INCOME AND LIVING CONDITIONS IN THE EUROPEAN COUNTRIES

European Union Statistics on Income and Living Conditions (EU-SILC) is a program of annual national surveys in the countries of the European Union and some affiliated countries. The surveys have similar (harmonised) designs that enable inter-country and longitudinal comparisons, and for some (more populous) countries also inferences about the countries' subdivisions, such as provinces and regions.

The presentation will discuss the main statistical issues in the analysis of these surveys, and their motivation by and linkage to the social and political agenda in the participating countries.

The technical statistical context will focus on the definitions of the basic quantities used in this discourse and will highlight the need for understanding the multiple sources of uncertainty, which include the arbitrariness of some of the definitions. Apart from formal computational methods the value of graphical displays will also be discussed.

Based on the monograph N. T. Longford, `Statistical Studies of Income, Poverty and Inequality in Europe. Computing and Graphics in R using EU-SILC. Chapman and Hall, 2015.

Conferencia 10. De la regresión al deep learning

Hoy en día podemos ver como los modelos de redes artificiales neuronales profundas (aprendizaje profundo o Deep Learning – DL) permiten realizar tareas complejas, imposibles hasta hace menos de una década. Desde el reconocimiento de objetos en imágenes hasta la generación automática de lenguaje y los vehículos inteligentes, el DL es la base de los nuevos avances en Inteligencia Artificial.

En esta presentación vamos a hacer un recorrido desde la regresión lineal hasta los modelos de redes convolucionales y los modelos de redes recurrentes que constituyen una herramienta muy importante en el arsenal de la ciencia de datos.

Conferencia 11. LOS CURSOS BÁSICOS DE ESTADÍSTICA: UNA OPORTUNIDAD PARA LA ALFABETIZACIÓN ESTADÍSTICA Y FORTALECIMIENTO DE LA DEMOCRACIA Y LA CIUDADANÍA

En la actualidad, los datos estadísticos, las cifras y gráficos, son parte integral del lenguaje y de la comunicación, no solo científica, sino en la vida cotidiana. En particular, en los noticieros y los medios de comunicación en general, la información que contiene estadísticas, es cada vez mayor. La carta constitucional de 1991, dio las bases para la participación comunitaria, en los procesos de gestión de los gobiernos y sobre todo en los procesos de control. Las juntas de Acción Local, (JAL) son un instrumento operativo para el empoderamiento de la comunidad local, para la evaluación crítica de proyectos y para su evaluación. pero, esto no será posible, si los representantes de una comunidad, por ejemplo, los miembros de las JAL, no tienen los criterios y la formación básica, para materializar la crítica, a través de la lectura de porcentajes, razones, gráficos, ideas sobre representatividad, comparabilidad, lectura de series, ideas sobre asociación, etc.

De las mejorables cifras existentes, puede colegirse que a pesar de que, en las estadísticas del gobierno, el porcentaje de analfabetismo ha disminuido considerablemente, no ha sido así con el analfabetismo funcional y menos con el analfabetismo estadístico, al cual nos hemos referido. Buena parte de la formación requerida, podría proporcionarse en la formación básica y media y en los cursos del nivel superior si fuera el caso. La charla se refiere a este tema y a abordar un diagnóstico de la situación actual e ideas para avanzar en la dirección correcta.

Conferencia 12. BIG DATA Y COMPUTACIÓN DE ALTO DESEMPEÑO: UNA INTRODUCCIÓN PARA EL ESTADÍSTICO.

La popularización de Analytics y Big Data en las organizaciones ha llevado a que los profesionales e investigadores tengan que re-aprender y re-entrenarse en estas nuevas tecnologías y paradigmas. El profesional e investigador en el área de la estadística no es lejano a este cambio de paradigma y se hace necesario que también se adapte. En esta charla tiene como fin introducir los conceptos fundamentales de Big Data y Computación de Alto Desempeño para luego discutir sobre qué aspectos se hace necesario que el Estadístico profundice para poder abordar los nuevos retos en las organizaciones.

Conferencia 13. Pendiente de definir

Conferencia 14. Pendiente de definir

Organiza


Con el apoyo de