Conferencias


La conferencia "Developing Statistical Products for Industry, Medicine and Business" fue cancelada

Conferencia 1.  Ciencia de los Datos: ¿Frankestein o Colcha de Retazos?

Recientemente, las grandes empresas vienen mostrando un creciente gran afán por atraer "científicos de datos". Difíciles de definir, es con estos personajes que las organizaciones están creando sus ventajas competitivas.

Estos personajes son expertos en obtener de los datos revelaciones fascinantes, en darle una nueva mirada a lo que parecía obvio y en sembrar las semillas de la innovación empresarial. Sin embargo, si consideramos que sus herramientas de trabajo incluyen el análisis descriptivo tradicional y que en la mayoría de sus desarrollos los modelos lineales siguen jugando un papel preponderante, podemos cuestionar si en realidad estos científicos de datos son algo realmente nuevo.

En esta charla se exploran algunos cambios culturales en las organizaciones, tendencias como el aprendizaje de máquina y el big data y su relación con las leyes de los grandes números para tratar de entender si esta ciencia de los datos es un nuevo Frankeistein o más bien una colcha de retazos.

Conferencia 2.  Pruebas de Normalidad. Algunas Consideraciones y Propuestas

En el contexto de las pruebas estadísticas, las de normalidad presentan algunas peculiaridades, como que hay muchas y que su número sigue creciendo, o que –a diferencia del planteamiento general de los contrastes de hipótesis– se supone cierto lo que interesa y la carga de la prueba la tiene el que afirma otra cosa. En la conferencia se comentarán estos aspectos en el marco de las pruebas estadísticas en general y de la forma de enseñarlas. También se presentará un procedimiento para comparar la potencia de las pruebas normalidad y se propondrá un nuevo planteamiento (que no un nuevo test) para realizar estas pruebas.

Conferencia 3. Statistical  Demonstration  Tests  of  Survival  with Censored Data

(Se dictará en español)

It is often necessary to specify the procedure, the sample size, and test length for a test with censored data that is to be used to demonstrate , with some level of confidence, that survival times exceed a given standard. For example, a customer purchasing a product may require demonstration, by the vendor, that the reliability of a component for five years is 0.99. Generally this is done by testing a sample of units simultaneously for a specified amount of time. If the number of failure in the test is small enough, the demonstration is successful. Up to recently, this type of tests have used binary data and required zero failures, in sample of size n, during a specified length of time. We propose the generalization of the methodology relaxing the request of zero failures and the type of data to be used. We also advance the use of Bayesian methods with meaningful informative priors to decrease the large sample sizes and the long demonstration tests

Conferencia 4. Statistical modeling of spatial big data: an approach from a functional data analysis perspective (Modelación estadística de datos espaciales masivos: una aproximación desde la perspectiva del análisis de datos funcionales)

Today statistical techniques for the analysis of large and complex data with a spatial underlying structure are required. For example, it is the case in neurological studies when curves of the electrical activity are recorded in voxels of the brain. Generally, some multivariate techniques of dimension reduction are used to solve the problem of high dimensionality that arises in these cases. FDA may be an alternative in this scenario. High dimensional data become functional data which are posteriorly analyzed by using FDA methods. Basically, it is considered that the data observed for several dependent spatial units correspond to realizations of stochastic processes, usually assumed to be in a metric, semi-metric, Hilbert or Banach space. In fact, in the setting of functional spatial data analysis, complex high dimensional data is typically a set of curves or surfaces, spatially distributed, regarded as points in a functional space (space of squared integrable functions). Here, we give a review about the common basis of these approaches making an emphasis in the spatial prediction of functional data.

The last decade saw a dynamic literature on parametric or non-parametric FDA approaches for high dimensional spatially dependent data and applications to various domains, such as principal component analysis, , clustering, regression and prediction of stationary or non-stationary processes with kriging or non-parametric, testing, among others. In the lecture, we propose to illustrate spatial prediction involving complex high dimension datum by a modern functional prediction technique, namely, functional kriging.

Conferencia 5. Spherical Factor Analysis for Binary Data: A Look at the Conservative Revolt in the US House of Representatives

(Se dictará en español)

Factors models for binary data are extremely common in many social science disciplines. For example, in political science binary factor models are often used to explain voting patterns in deliberative bodies such as the US Congress, leading to an “ideological” ranking of legislators. Binary factor models can be motivated through so-call “spatial” voting models, which posit that legislators have a most preferred policy – their ideal point –, which can be represented as a point in some Euclidean “policy space”. Legislators then vote for/against motions in accordance with the distance between their (latent) preferences and the position of the bill in the same policy space.

In this talk we introduce a novel class of binary factor models derived from spatial voting models in which the policy space corresponds to a non-Euclidean manifold. In particular, we consider embedding legislator’s preferences in the surface of a n-dimensional sphere. The resulting model contains the standard binary Euclidean factor model as a limiting case, and provides a mechanism to operationalize (and extend) the so-called “horseshoe theory” in political science, which postulates that the far-left and far-right are more similar to each other in essentials than either are to the political center. The performance of the model is illustrated using voting data from recent US Congresses. In particular, we show that voting patterns for the 113th US House of Representatives are better explained by a circular factor model than by either a one- or a two-dimensional Euclidean model, and that the circular model yields a ranking of legislators more in accord with expert’s expectations.

Conferencia 6. El Valor de los Datos Abiertos

Los datos abiertos son aquellos que se originan, en su mayoría, de las actividades financiadas con recursos públicos aunque también provienen de otras fuentes pero que son publicados en portales del gobierno. Esta información se encuentra abierta y disponible a cualquier persona sin importar grupo o condición social. Los datos ofrecidos se llaman abiertos porque pueden ser usados libremente, modificados y compartidos por cualquier grupo de personas u organización, incluido el mismo gobierno.

El propósito de la charla es dar a conocer los principios que subyacen sobre los datos abiertos para que puedan generar valor por la creación de nuevos servicios o productos, por la determinación del impacto de las políticas públicas, entre otras cosas. Para mostrar la importancia de los datos abiertos, se presentarán variados ejemplos del uso de los mismos, tanto por el ciudadano común, como por estadísticos y científicos de datos. Adicionalmente, se dará a conocer cuál es el posicionamiento de nuestro país en el ámbito mundial, de acuerdo con varios índices propuestos para determinar el grado de madurez de los países con respecto a los datos abiertos. Por último, se presentarán los retos que se deben enfrentar para aprovechar al máximo este recurso.

Conferencia 7. La Estadística en Economía

Hoy en día la Estadística es considerada como una de las ciencias más influyentes en muchas de las áreas del conocimiento, y dado su veloz desarrollo, a la par con el vertiginoso crecimiento de la capacidad computacional, ofrece grandes posibilidades de aplicación.Cada vez más disciplinas encuentran en los méto¬dos estadísticos una opción para el adecuado planteamiento y solución de sus problemas específicos. Una de las áreas en las que la Estadística ha encontrado un amplio espacio de desarrollo y de aplicabilidad, es sin duda, la delaEconomía y el Desarrollo Social.El objetivo de esta charla es presentar algunos aportes de la Estadística a la solución de algunos problemas de cuantificación, modelación y construcción de indicadoressociales de alguna importancia para el país.

Conferencia 8. MODELANDO FENÓMENOS ACUMULATIVOS EN EL TIEMPO: GÉNESIS, AVANCES Y APLICACIONES

Fenómenos acumulativos en el tiempo ocurren en diversas áreas, por ejemplo en ciencias ambientales, biológicas y de la tierra, así como en ingeniería, medicina y sociología. Estos fenómenos puede describirse adecuadamente mediante modelos que consideren en su génesis sistemas dinámicos a través del tiempo, por ejemplo, la ley de efectos proporcionales. En esta charla se menciona cómo describir fenómenos acumulativos en el tiempo basados en la distribución Birnbaum-Saunders, un modelo asimétrico que compite con distribuciones bien conocidas como los modelos exponencial, gamma, gaussiana inversa, log-normal y Weibull. La distribución Birnbaum-Saunders está recibiendo considerable atención con respecto a su teoría, metodología y aplicaciones. Además, se introducen su génesis basada en la ley de efectos proporcionales, sus avances en el último tiempo, sus problemas abiertos y un conjunto de nuevas aplicaciones de esta distribución, así como su entorno computacional.

Conferencia 9. STATISTICS ON INCOME AND LIVING CONDITIONS IN THE EUROPEAN COUNTRIES

European Union Statistics on Income and Living Conditions (EU-SILC) is a program of annual national surveys in the countries of the European Union and some affiliated countries. The surveys have similar (harmonised) designs that enable inter-country and longitudinal comparisons, and for some (more populous) countries also inferences about the countries' subdivisions, such as provinces and regions.

The presentation will discuss the main statistical issues in the analysis of these surveys, and their motivation by and linkage to the social and political agenda in the participating countries.

The technical statistical context will focus on the definitions of the basic quantities used in this discourse and will highlight the need for understanding the multiple sources of uncertainty, which include the arbitrariness of some of the definitions. Apart from formal computational methods the value of graphical displays will also be discussed.

Based on the monograph N. T. Longford, `Statistical Studies of Income, Poverty and Inequality in Europe. Computing and Graphics in R using EU-SILC. Chapman and Hall, 2015.

Conferencia 10. De la regresión al deep learning

Hoy en día podemos ver como los modelos de redes artificiales neuronales profundas (aprendizaje profundo o Deep Learning – DL) permiten realizar tareas complejas, imposibles hasta hace menos de una década. Desde el reconocimiento de objetos en imágenes hasta la generación automática de lenguaje y los vehículos inteligentes, el DL es la base de los nuevos avances en Inteligencia Artificial.

En esta presentación vamos a hacer un recorrido desde la regresión lineal hasta los modelos de redes convolucionales y los modelos de redes recurrentes que constituyen una herramienta muy importante en el arsenal de la ciencia de datos.

Conferencia 11. LOS CURSOS BÁSICOS DE ESTADÍSTICA: UNA OPORTUNIDAD PARA LA ALFABETIZACIÓN ESTADÍSTICA Y FORTALECIMIENTO DE LA DEMOCRACIA Y LA CIUDADANÍA

En la actualidad, los datos estadísticos, las cifras y gráficos, son parte integral del lenguaje y de la comunicación, no solo científica, sino en la vida cotidiana. En particular, en los noticieros y los medios de comunicación en general, la información que contiene estadísticas, es cada vez mayor. La carta constitucional de 1991, dio las bases para la participación comunitaria, en los procesos de gestión de los gobiernos y sobre todo en los procesos de control. Las juntas de Acción Local, (JAL) son un instrumento operativo para el empoderamiento de la comunidad local, para la evaluación crítica de proyectos y para su evaluación. pero, esto no será posible, si los representantes de una comunidad, por ejemplo, los miembros de las JAL, no tienen los criterios y la formación básica, para materializar la crítica, a través de la lectura de porcentajes, razones, gráficos, ideas sobre representatividad, comparabilidad, lectura de series, ideas sobre asociación, etc.

De las mejorables cifras existentes, puede colegirse que a pesar de que, en las estadísticas del gobierno, el porcentaje de analfabetismo ha disminuido considerablemente, no ha sido así con el analfabetismo funcional y menos con el analfabetismo estadístico, al cual nos hemos referido. Buena parte de la formación requerida, podría proporcionarse en la formación básica y media y en los cursos del nivel superior si fuera el caso. La charla se refiere a este tema y a abordar un diagnóstico de la situación actual e ideas para avanzar en la dirección correcta.

Conferencia 12. BIG DATA Y COMPUTACIÓN DE ALTO DESEMPEÑO: UNA INTRODUCCIÓN PARA EL ESTADÍSTICO.

La popularización de Analytics y Big Data en las organizaciones ha llevado a que los profesionales e investigadores tengan que re-aprender y re-entrenarse en estas nuevas tecnologías y paradigmas. El profesional e investigador en el área de la estadística no es lejano a este cambio de paradigma y se hace necesario que también se adapte. En esta charla tiene como fin introducir los conceptos fundamentales de Big Data y Computación de Alto Desempeño para luego discutir sobre qué aspectos se hace necesario que el Estadístico profundice para poder abordar los nuevos retos en las organizaciones.

Conferencia 13. PROGRAMAS CURRICULARES EN ESTADÍSTICA EN COLOMBIA: DISCUSIÓN CRÍTICA

  • Mercedes Andrade Bejarano, PhD., Universidad del Valle, Cali, Colombia, Presidenta Sociedad Colombiana de Estadística (SCE)
  • Sergio Yáñez Canal, PhD., Universidad Nacional de Colombia, Medellín, Colombia, Vicepresidente Sociedad Colombiana de Estadística (SCE)

Uno de los objetivos de la Sociedad Colombiana de Estadística (SCE) desde su fundación en el año 2014, ha sido el realizar cada año el Foro "Currículos de Estadística en Colombia a nivel de pregrado y posgrado", que tiene como fin reunir a los directores curriculares de las universidades con programas académicos de Estadística a nivel de pregrado1 y posgrado, para debatir aspectos de los currículos que conforman dichos programas: su estado actual, perspectivas futuras de acuerdo a los avances de la disciplina y su contribución al desarrollo de la Estadística a nivel nacional. En el I Foro se presentaron los programas académicos de pregrado y maestría en Estadística, mostrando las estructuras curriculares, las cuales en general, a nivel de pregrado están conformadas por siete componentes: 1) Matemático 2) Computación 3) Teoría y Métodos Estadísticos 4) Electivas Profesionales 5) Estadística Aplicada 6) Complementario 7) Proyecto de Grado y otra opciones que lo sustituyan; y a nivel de posgrado por las componentes de 1) Fundamentación 2) Profundización y 3) Investigación. El II Foro tuvo como objetivo la definición del core (núcleo) de cursos que deben ser comunes en los programas de Estadística en Colombia, esto es, las asignaturas que se consideran fundamentales para la formación de un Estadístico.

La Ciencia de Datos reúne elementos de ciencias de la computación, estadística y matemáticas; el tema de la Ciencia de Datos está en el orden mundial, su gran impacto ha conducido a que se rebauticen metodologías estadísticas con nombres más atrayentes y que departamentos de Estadística de universidades de punta cambien sus nombres, para adaptarse a las nuevas exigencias del mercado. La Sociedad Colombiana de Estadística (SCE) ha identificado la Ciencia de Datos por su actualidad e importancia para el país y para el desarrollo de la Estadística a nivel nacional, como uno de los temas centrales del II Congreso Colombiano de Estadística. La SCE previo al Congreso organizó El III Foro "Currículos de Estadística en Colombia a nivel de pregrado y posgrado: Ciencia de Datos en los currículos de Estadística" para debatir esta temática y determinar cuáles serían los nuevos elementos y cursos a incluir en los currículos de pregrado y posgrado para actualizarlos de acuerdo a este nuevo orden mundial.

En esta conferencia se presentan los resultados y conclusiones de los Foros realizados por la Sociedad Colombiana de Estadística (SCE), se identifica el core (núcleo) de cursos fundamentales en la formación de un Estadístico y se definen los cursos asociados a la temática de la Ciencia de Datos, que se sugiere incluir en los currículos de Estadística.

Conferencia 14. CONDICIONAMIENTO E INDEPENDENCIA COMO IDEAS ESTOCÁSTICAS FUNDAMENTALES

El condicionamiento y la independencia son ideas fundamentales en probabilidad y estadística, al ser base de la definición e implementación de muchos otros conceptos y métodos y por su uso contante en la toma de decisiones en la vida cotidiana y profesional. Aparentemente sencillas, la investigación educativa ha descrito, sin embargo, un número importante de errores en la interpretación y aplicación de estos conceptos, incluso en personas con formación estadística. En esta presentación desarrollamos estas ideas y sugerimos algunos recursos didácticos para mejorar la comprensión de dichas ideas.

Organiza


Con el apoyo de