Actualidad
ACTUALIDAD
Joe Rospars (1981)
Fuente: Flickr
Big Data (2005)
A raíz del Huracán Katrina surge el Big Data, primera ocasión donde se aplica. Consigue el boom mundial a partir de 2008 cuando Joe Rospar, jefe de campaña de Barack Obama en la reelección a la Presidencia de los EEUU, lo aplica a partir de los datos obtenidos en Facebook.
SOCIAL ELECTIONEERING: How the US created the "social election"
Bradley Efron (1938)
Fuente: Wikipedia
Empirical Bayes (2015)
Figura clave en la aplicación de métodos bayesianos empíricos (Empirical Bayes) para la Inferencia a Gran Escala (Large-Scale Inference), especialmente en el análisis de Big Data como datos genómicos, usando técnicas como la Tasa de Falsos Descubrimientos (FDR) y el FDR local para estima qué hipótesis son nulas, mejorar pruebas estadísticas y predicciones en escenarios con muchísimas pruebas simultáneas, modelando la distribución de p-valores como mezclas para descubrir patrones ocultos en cantidades masivas de información.
Computer age statistical inference: algorithms, evidence, and data science
Mark J. van der Laan (1967)
Fuente: Youtube
TMLE (Targeted Maximum Likelihood Estimation) (2006)
Introdujo la Estimación de Máxima Verosimilitud Dirigida (TMLE) (también conocida con mayor precisión como Estimación Basada en Pérdida Mínima Dirigida ) como un método que produce estimadores de complemento asintóticamente eficientes, a la vez que permite el uso de algoritmos flexibles y adaptables a los datos, como el aprendizaje automático por conjuntos, para la estimación de parámetros molestos.
El TMLE se utiliza en epidemiología, bioestadística y ciencias sociales para estimar efectos causales en estudios observacionales y experimentales.
Targeted learning : causal inference for observational and experimental data
Rina Foygel Barber (1982)
Fuente: Facebook
Miembro del Instituto de Estadística Matemática (2023)
Fue elegida miembro del Instituto de Estadística Matemática en 2023 por sus contribuciones pioneras a la inferencia selectiva, incluyendo el desarrollo del filtro knockoff, sus contribuciones pioneras a la inferencia predictiva sin modelo, incluyendo el jackknife y la adaptación de la inferencia conforme a los cambios de covariables.
Piotr Fryzlewicz
Fuente: LSE
Metodología de transformación y suavizado de Haar-Fisz (2003-2004)
Entre otros, Piotr es el creador de la metodología de transformación y suavizado de Haar-Fisz para datos no gaussianos y del método de segmentación binaria salvaje para la detección de múltiples puntos de cambio. Además, es coautor de trabajos sobre la segmentación binaria esparcida para la segmentación de series temporales de alta dimensión y la correlación inclinada para la selección de variables en modelos de regresión de alta dimensión. La metodología de transformación y suavizado de Haar-Fisz (Fryzlewicz & Nason, 2003–2004) es una técnica diseñada para analizar, suavizar y estimar señales cuando los datos no son gaussianos, especialmente cuando presentan varianza dependiente de la media (heterocedasticidad), como ocurre con datos Poisson, binomiales o, en general, conteos.
Netflix (2006)
Fuente: Wikimedia Commons
Algoritmo de Netflix (2006)
El algoritmo de Netflix es un sistema de recomendación basado en Machine Learning (Aprendizaje Automático) que se perfecciona constantemente desde sus inicios, destacando el famoso "Netflix Prize" de 2006 que impulsó su mejora, y desde 2017 se ha enfocado en la personalización de interfaces y portadas (miniaturas) usando IA para captar tu atención, analizando tu historial y el de otros usuarios para sugerirte contenido y adaptarte la experiencia visual, no solo para recomendarte películas, sino también para mostrarte las portadas que más te atraigan.
Paradigma Netflix: el entretenimiento de algoritmo
Modelización predictiva de géneros cinematográficos en Netflix
Emmanuel Candès (1970)
Fuente: Wikipedia
Matrix Completion (2009)
Revolucionó la estadística moderna al demostrar que una matriz de bajo rango (Matrix Completion) puede recuperarse casi completamente a partir de muy pocas observaciones. Junto con Benjamin Recht (2009), probó que este problema —aparentemente intratable— se puede resolver mediante minimización de la norma nuclear, un método convexo eficiente. Esta idea permitió reconstruir datos masivos incompletos, como los sistemas de recomendación tipo Netflix. El marco teórico mostró que la estructura latente de muchos datos reales es baja dimensional. Sus aplicaciones abarcan desde imagen médica y astronomía hasta machine learning y análisis de grandes bases incompletas.
Calyampudi Radhakrishna Rao (1920-2023)
Fuente: Wikimedia Commons
Premio Internacional de Estadística (2023)
Estadístico indio-estadounidense, conocido por el Límite de Cramér-Rao y el Teorema de Rao-Blackwell, que mejoran la calidad de los estimadores, y por pioneras contribuciones a la geometría de la información, ganando el prestigioso Premio Internacional de Estadística en 2023 por su vasto legado en teoría y aplicación, que ha moldeado la disciplina globalmente.