
Università Politecnica delle Marche - Center for Philosophy, Science, and Policy
Máster en Estadística, Inteligencia de Datos y Fundamentos de las CienciasAncona, Italia
DURACIÓN
1 Years
IDIOMAS
Inglés
PASO
Tiempo completo
PLAZO DE SOLICITUD
24 Jun 2025
FECHA DE INICIO MÁS TEMPRANA
Sep 2025
TASAS DE MATRÍCULA
Solicitar tasas de matrícula
FORMATO DE ESTUDIO
En el campus
Introducción
El Máster en Estadística, Inteligencia de Datos y Fundamentos de las Ciencias ofrece una oportunidad única para obtener no solo competencia técnica en técnicas de análisis y procesamiento de datos a través de tutoriales prácticos en algunas de las plataformas más populares (Python, STATA, R, Matlab), sino también para comprender sus fundamentos epistémicos. El Máster mezcla cursos STEM (estadística, econometría, teoría de juegos, aprendizaje automático, aprendizaje profundo, IA y programación lógica) con cursos dedicados a los fundamentos del método científico, la epistemología y la filosofía de la ciencia, centrados en los fundamentos teóricos que subyacen a técnicas inferenciales tan diversas y que, posiblemente, las justifican.
Esta elección pretende poner en perspectiva las metodologías inferenciales y examinarlas/formalizarlas también dentro del ecosistema científico en el que están insertas: esto implica una mirada exhaustiva al "proceso de generación de datos" como una red de dinámicas complejas que sustentan el muestreo, la curación, la interpretación y la divulgación de datos.
Los cursos STEM muestran un rico panorama de técnicas inferenciales y abordan objetivos de investigación específicos (previsión, análisis de series temporales, bioestadística y epidemiología, aprendizaje profundo, modelización causal, selección de modelos, análisis de riesgos y análisis de sensibilidad) adoptando los desarrollos metodológicos más recientes. Esto fomenta una comprensión profunda de sus fundamentos, poderes y límites, permitiendo a los estudiantes comparar problemas y conjuntos de herramientas en diferentes contextos de investigación o análisis de datos.
Los cursos fundacionales se centran en la teoría de la probabilidad, las probabilidades imprecisas, la teoría de la elección racional, las teorías de la causalidad, los fundamentos de la estadística, la lógica de los métodos científicos, la epistemología bayesiana y formal, y abordan metaproblemas como el de la demarcación (qué es ciencia y según qué criterios), el desacuerdo entre iguales, la agregación de juicios, la polarización de creencias, los tipos de inferencia (por ejemplo, abducción, inferencia analógica), la metaciencia, el cabildeo científico, la integridad de la investigación, la política basada en pruebas, la regulación de la ciencia y la economía de la ciencia.
Al final del Máster, los estudiantes serán capaces de evaluar la mejor metodología científica a utilizar para su investigación; analizar datos y estudios de otros en su sector específico de investigación, y ofrecer servicios de consultoría a los responsables políticos. Los periodistas y los responsables políticos habrán adquirido las herramientas críticas para orientarse en la oferta de información producida por los distintos sectores científicos.
Estudiantes ideales
Requisitos de entrada
Se admiten graduados con cualquiera de las siguientes titulaciones:
• título de acuerdo con el Decreto Ministerial 270/2004 (nivel 6 del MEC),
• título de acuerdo con el Decreto Ministerial 509/1999,
• título de acuerdo con la reglamentación anterior al Decreto Ministerial 509/1999 o
Decreto Ministerial 270/2004.
También serán admitidos los titulados con un título obtenido en el extranjero reconocido por el Comité Organizador como comparable, en cuanto a duración y contenidos.
Los candidatos deberán contar ya con estos requisitos en la fecha límite para presentar su solicitud al MÁSTER.
Los estudiantes que solo necesiten aprobar el examen final para obtener la titulación requerida para acceder al curso pueden solicitarla con carácter condicional. No obstante, la titulación debe obtenerse antes del inicio de las actividades docentes.
También es posible matricularse como oyente. Para ello, se requiere un diploma de secundaria.
Admisiones
Plan de estudios
Primer semestre, parte A
Tutorial: Introducción a STATA para análisis de datos por Riccardo Cappelli
STATA es un software estadístico ampliamente utilizado en análisis de datos e investigación estadística. Este curso tiene como objetivo ayudar a los estudiantes a familiarizarse con los fundamentos de STATA. Se proporcionará una descripción general de las principales técnicas STATA, así como la aplicación de estas técnicas a datos del mundo real.
Riesgo y toma de decisiones para la ciencia de datos y la inteligencia artificial por Norman Fenton
Este módulo proporciona una descripción general completa de los desafíos de evaluación de riesgos, predicción y toma de decisiones que abarcan la salud pública y la medicina, la ley, la estrategia gubernamental, la seguridad del transporte y la protección del consumidor. Los estudiantes aprenderán a ver a través de gran parte de la confusión sobre el riesgo en el discurso público y se les proporcionarán métodos y herramientas para mejorar la evaluación de riesgos que pueden aplicarse directamente a la toma de decisiones personales, grupales y estratégicas.
El módulo también aborda directamente las limitaciones del big data y el aprendizaje automático para resolver problemas de decisiones y riesgos. Si bien se introducen técnicas estadísticas clásicas para la evaluación de riesgos (incluidas las pruebas de hipótesis, los valores p y la regresión), el módulo expone las graves limitaciones de estos métodos. En particular, se centra en la necesidad de un modelado causal de los problemas y un enfoque bayesiano del razonamiento de probabilidad. Las redes bayesianas se utilizan como tema unificador en todo momento.
Causación y probabilidades por Alexander Gebharter
Este curso ofrece un curso intensivo sobre los fundamentos de la teoría de la probabilidad, seguido de una visión general de las explicaciones de la causalidad relacionadas con las probabilidades. La idea general es que la estructura causal explica diversos tipos de dependencia probabilística. Si bien el conocimiento de la correlación es una herramienta útil para la predicción, solo la información causal proporciona una guía fiable para controlar el entorno.
Epistemología II de Alexander Gebharter
¿Qué es el conocimiento? ¿Cómo se relaciona con la verdad y la racionalidad? ¿Cómo podemos justificar nuestras creencias y cómo deberíamos revisarlas a la luz de la nueva evidencia? Estas son algunas de las principales preguntas que se plantean en la epistemología. «Epistemología I» y «Epistemología II» exploran preguntas como estas y cómo las respuestas que ofrecen las teorías actuales sobre el mercado, así como los nuevos problemas que estas respuestas plantean.
Tutorial: R y Matlab por Federico Giri
Este curso tiene como objetivo proporcionar una introducción a las técnicas de programación de Matlab (R).
Tutorial: PYTHON de Adriano Mancini
El curso está estructurado para guiar a los estudiantes a través de la programación en Python, desde conceptos fundamentales hasta técnicas avanzadas de ciencia de datos. Comienza con una introducción a Python para comprender los principios básicos de la programación, incluidas las estructuras de datos. La última parte del curso presenta potentes bibliotecas para la ciencia de datos: NumPy, SciPy y sci-kit-learn.
Epistemología I de Michał Sikorski
¿Qué es el conocimiento? ¿Cómo se relaciona con la verdad y la racionalidad? ¿Cómo podemos justificar nuestras creencias y cómo deberíamos revisarlas a la luz de la nueva evidencia? Estas son algunas de las principales preguntas que se plantean en la epistemología. «Epistemología I» y «Epistemología II» exploran preguntas como estas y cómo las respuestas que ofrecen las teorías actuales sobre el mercado, así como los nuevos problemas que estas respuestas plantean.
La filosofía de la teoría evolutiva de Elliot Sober
Este curso se basa en el nuevo libro de Elliot Sober “La filosofía de la teoría evolutiva”.
Cubre temas como unidades de selección y ascendencia común, todos ellos profundamente relacionados con el razonamiento probabilístico.
Primer semestre, parte B
Inteligencia artificial y programación lógica I de Aldo Dragoni
Contenido:
- Inteligencia Artificial: historia y diferencia entre el enfoque lógico-simbólico y el enfoque neuronal.
- Lógica de primer orden: Sintaxis, Semántica, Sistema formal.
- Método de resolución: Teorema de Herbrand. Conversión a la forma clausular de una fórmula cerrada. Principio de resolución para cláusulas base. Unificación.
- El principio de resolución. Resolución lineal.
- Programas definidos: Semántica. Corrección de la resolución SLD. El problema de Occur-Check. Integridad de la resolución SLD. Independencia
- De la regla de cálculo. Procedimiento de refutación SLD. Adecuación computacional de Programas Definidos.
- Programación lógica: PROLOG. Programación declarativa.
Principios de epidemiología y bioestadística para la investigación en salud pública por Rosaria Gesuita, Edlira Skrami, Andrea Faragalli, Marica Iommi
Temas principales:
- Introducción a la Epidemiología, Prof. Rosaria Gesuita (2 horas)
- Estudios observacionales, frecuencia y medidas de asociación, Prof. Rosaria Gesuita (6 horas) & Dra. Marica Iommi (4 horas)
- Diseño de estudios descriptivos, Enfoques analíticos, Diseños de estudios experimentales, Prof. Edlira Skrami (8 horas)
- Protocolo de estudio, Dr. Andrea Faragalli (4 horas)
- Principios de estimación del tamaño de la muestra, Dr. Andrea Faragalli (4 horas)
- Principios de revisión sistemática y metanálisis, Dra. Marica Iommi (4 horas)
Fundamentos de las ciencias de Barbara Osimani
Contenido: ¿Qué es la ciencia? ¿Quién dice qué es la ciencia, con qué autoridad y según qué criterios? ¿Qué justifica el conocimiento científico? ¿Son sus fundamentos, si los hay, de naturaleza lógica, metafísica o práctica? ¿Cuáles son los motivos para actuar sobre esta base? ¿Cuáles son las principales herramientas que nos permiten profundizar en nuestro conocimiento de la realidad? ¿Cómo evaluamos su adecuación y fiabilidad? ¿Qué distingue un método científico de otras fuentes de conocimiento? ¿Qué distingue los diferentes enfoques de la inferencia estadística (por ejemplo, enfoque frecuentista versus escuela bayesiana versus enfoque de probabilidades imprecisas y sus respectivas subdivisiones)?
¿Cuáles son las implicaciones metodológicas y prácticas? ¿Cómo abordan los diversos paradigmas la relación entre teoría/hipótesis y evidencia? Estas son algunas de las cuestiones que aborda el curso recurriendo a una amplia literatura filosófica y metodológica dedicada a los fundamentos de la ciencia, la inferencia científica y las dimensiones pragmáticas de la práctica científica.
En particular, el curso se centrará en los siguientes temas:
- Epistemología y ontología de la ciencia: el problema de la demarcación;
- Incertidumbre científica: probabilidad y fundamentos de la estadística;
- Métodos (formales) en la ciencia.
Fundamentos de Econometría I por Claudia Pigini
"Fundamentos de Econometría I y II" proporciona un marco esencial para comprender y aplicar métodos econométricos. Al abarcar la exploración de datos, el análisis de regresión, el modelado predictivo y la inferencia causal, los estudiantes adquieren habilidades prácticas con RStudio. Las lecturas sugeridas complementan los conceptos teóricos. Ideal para quienes buscan dominar la toma de decisiones basada en datos en los ámbitos de los negocios, la economía y la política.
Inferencia bayesiana por Eric-Jan Wagenmakers
Este curso abordará la teoría y la práctica del "sentido común expresado en números", es decir, la inferencia bayesiana. En la primera parte, utilizaré el modelo binomial para abordar los fundamentos teóricos (p. ej., distribuciones a priori y a posteriori, coherencia, estimación de parámetros y pruebas de hipótesis factoriales de Bayes, distribuciones a priori vagas e informadas, promediación del modelo, especificación errónea del modelo, etc.). En la segunda parte, mostraré la inferencia bayesiana en la práctica y presentaré las pruebas t bayesianas, la regresión, el ANOVA y otros modelos.
Fundamentos del aprendizaje automático por Marco Piangerelli
El curso tiene como objetivo presentar de forma compacta los principales paradigmas del aprendizaje automático (supervisado, no supervisado y aprendizaje por refuerzo) mientras
También se presentará su base estadística (teoría del aprendizaje estadístico). Se presentarán los avances más recientes en cuanto a la explicabilidad e interpretación de los modelos de aprendizaje automático.
Escuelas de estadística: conceptos de probabilidad, inferencia estadística y análisis de datos por Christian Hennig
El curso ofrecerá una visión comparativa de diversos conceptos de probabilidad, inferencia estadística y análisis de datos. Se centrará en la conexión entre los modelos estadísticos y los datos del mundo real, el papel de los supuestos del modelo para el análisis de datos, las limitaciones de la objetividad y la necesidad de juicio y decisión subjetiva.
Segundo semestre, parte A
Previsión de series temporales con aprendizaje profundo por Alessandro Galdelli
Contenido:
- Introducción al análisis de series de tiempo
- Fundamentos del aprendizaje profundo para series temporales
- Trabajar con datos de series temporales
- Modelos de aprendizaje profundo para pronósticos de series temporales
- Técnicas avanzadas de pronóstico
- Métricas de evaluación y optimización del modelo
- Estudios de casos y aplicaciones
- Tendencias futuras y desafíos en el pronóstico de series temporales
Inferencia causal por Alexander Gebharter
Este curso se basa en los conocimientos básicos del curso "Causalidad y Probabilidades" y algunas de las herramientas formales presentadas en el curso "Epistemología Formal". Amplía los temas de estos cursos y ofrece una introducción a los modelos causales y a las redes bayesianas con interpretación causal. Estas herramientas permiten formular hipótesis causales complejas con mayor precisión, generar predicciones probabilísticas basadas en la observación y la intervención hipotética, y descubrir estructuras causales a partir de datos observacionales y experimentales. El curso combina contenido y permite a los estudiantes familiarizarse con estas herramientas aplicándolas a diferentes tareas y ejemplos prácticos.
Epistemología formal II por Alexander Gebharter
«Epistemología Formal I» y «Epistemología Formal II» se basan en los fundamentos del curso «Epistemología» y, en secciones posteriores, en los conceptos básicos introducidos al inicio del curso «Inferencia Causal». Exploran los fundamentos y la dinámica del conocimiento y el razonamiento mediante el uso de herramientas formales, en particular la teoría de la probabilidad y modelos gráficos simples.
Filosofía bayesiana de la ciencia de Stephan Hartmann
Este curso tiene como objetivo mostrar cómo se pueden utilizar los métodos bayesianos para responder preguntas centrales en la filosofía de la ciencia. Para ello, en la primera parte del curso, los estudiantes aprenderán a construir modelos bayesianos (en particular utilizando la teoría de redes bayesianas) y aplicarlos a problemas seleccionados. Para ello, se realizarán dos sesiones tutoriales en las que los estudiantes podrán entrenar sus habilidades de resolución de problemas matemáticos. En la segunda parte, primero hablaremos brevemente sobre diferentes teorías epistémicas de justificación epistémica y luego nos centraremos en el debate sobre las medidas probabilísticas de coherencia discutidas en la epistemología formal.
Luego examinaremos las posibilidades de desarrollar una filosofía bayesiana coherentista de la ciencia, centrándonos en particular en hasta qué punto este enfoque puede arrojar luz sobre los debates actuales sobre la explicación científica y las relaciones interteóricas. Finalmente, discutiremos los (posibles) límites del bayesianismo y el coherentismo.
La racionalidad en las ciencias de Barbara Osimani
¿Qué es la racionalidad científica? ¿Están en juego diferentes tipos de racionalidad en la práctica científica? Si es así, ¿cómo se entrelazan e impactan en la producción científica? En particular, ¿qué papel juega la racionalidad estratégica en entornos científicos, especialmente aquellos caracterizados por fuertes conflictos de intereses?
¿Cómo abordamos la disidencia científica (en estos casos)? ¿Cuáles son las fuerzas que configuran la recopilación, selección, producción y divulgación/comunicación de la evidencia científica en diversos ecosistemas científicos (pasados y presentes)? Este módulo investigará estos temas mediante un enfoque de doble vía: el enfoque «abductivo» de los estudios de metaciencia, cuyo objetivo es desarrollar herramientas para la detección de sesgos y fraudes, y el enfoque teórico de la literatura reciente sobre juegos de persuasión (bayesianos).
Fundamentos de Econometría II por Claudia Pigini
''Fundamentos de Econometría I y II" proporciona un marco esencial para comprender y aplicar métodos econométricos. Al abarcar la exploración de datos, el análisis de regresión, el modelado de predicción y la inferencia causal, los estudiantes obtienen habilidades prácticas utilizando RStudio. Las lecturas sugeridas complementan los conceptos teóricos. Ideal para aquellos buscando competencia en la toma de decisiones basada en datos en negocios, economía y políticas.
Epistemología formal I de Michał Sikorski
«Epistemología Formal I» y «Epistemología Formal II» se basan en los fundamentos del curso «Epistemología» y, en secciones posteriores, en los conceptos básicos introducidos al inicio del curso «Inferencia Causal». Exploran los fundamentos y la dinámica del conocimiento y el razonamiento mediante el uso de herramientas formales, en particular la teoría de la probabilidad y modelos gráficos simples.
Más allá de la estadística inferencial: abducción y metodología Q por Raffaele Zanoli
Temas principales:
- Introducción Diferencias estadísticas y metodológicas entre estadística inferencial y no inferencial
- Inducción, Deducción y Abducción
- Objetividad versus subjetividad: consideraciones epistemológicas y estadísticas
- Metodología Q y el estudio científico de la subjetividad
- Ejemplos y practicas
Segundo semestre, parte B
Inteligencia artificial y programación lógica II de Aldo Dragoni
Contenido:
- Inteligencia Artificial: historia y diferencia entre el enfoque lógico-simbólico y el enfoque neuronal.
- Lógica de primer orden: Sintaxis, Semántica, Sistema formal.
- Método de resolución: Teorema de Herbrand. Conversión a la forma clausular de una fórmula cerrada. Principio de resolución para cláusulas base. Unificación.
- El principio de resolución. Resolución lineal.
- Programas definidos: Semántica. Corrección de la resolución SLD. El problema de Occur-Check. Integridad de la resolución SLD. Independencia
- De la regla de cálculo. Procedimiento de refutación SLD. Adecuación computacional de Programas Definidos.
- Programación lógica: PROLOG. Programación declarativa.
Economía de la ciencia y la tecnología por Nicola Matteucci
El curso presenta temas normativos y positivos (del latín positum) de la economía de la regulación y las políticas públicas, con énfasis en sectores económicos de base científica (alta tecnología) y en grandes desafíos sociales cuya solución se basa en el conocimiento científico. La formulación de políticas se entiende en su definición más amplia, abarcando desde normas y políticas sectoriales detalladas (p. ej., políticas sanitarias y regulatorias) hasta políticas más amplias (p. ej., políticas de desarrollo o ambientales). El curso gira en torno a dos categorías fundamentales: "fallas de mercado" y "fallas gubernamentales", para presentar una revisión razonada (no sistemática) de trabajos influyentes que analizan las causas, los mecanismos y las consecuencias de las fallas y/o la captura de políticas. El principal punto de partida del curso es el cabildeo científico.
Economía de la regulación en ámbitos científicos por Nicola Matteucci
El curso presenta temas normativos y positivos (del latín positum) de la economía de la regulación y las políticas públicas, con un enfoque en sectores económicos basados en la ciencia (alta tecnología) y en grandes desafíos sociales cuya solución depende del conocimiento científico. La formulación de políticas se entiende en su definición más amplia, que abarca desde normas y políticas sectoriales detalladas (por ejemplo, políticas y regulaciones de salud) hasta una formulación de políticas más amplia (por ejemplo, políticas de desarrollo o ambientales).
El curso gira en torno a dos categorías fundamentales: «fallas de mercado» y «fallas gubernamentales», para presentar una revisión razonada (no sistemática) de trabajos influyentes que analizan las causas, los mecanismos y las consecuencias de las fallas y/o la captura de políticas. El principal eje del curso es el cabildeo científico.
Desarrollo de cuestionarios: cómo recopilar datos de encuestas. Lo que se debe y no se debe hacer por Simona Naspetti
Este curso ofrece una visión general del desarrollo de cuestionarios y estrategias para la recopilación de datos mediante encuestas. Los participantes aprenderán a diseñar e implementar encuestas para recopilar datos precisos y significativos. Mediante conferencias, casos prácticos y actividades interactivas, adquirirán habilidades prácticas y comprenderán los consejos prácticos para el desarrollo de cuestionarios.
Econometría de series temporales de Giulio Palomba
Temas principales:
- Datos de series temporales y procesos estocásticos.
- Modelos dinámicos
- Modelos ARMA
- raíces unitarias
- Modelos var
- Cointegración
- Modelos GARCH
La integridad de la investigación por Andrea Saltelli
Las diversas dimensiones de la integridad de la investigación están organizadas en términos de normas, funciones y unidad. Las normas se refieren a cómo la ciencia se ajusta o se desvía de los estándares normativos. Las funciones se relacionan con cómo la ciencia y la investigación están dotadas de un mecanismo funcional y no dañado. El tercer significado se refiere a la noción de ciencia como una entidad ininterrumpida e indivisa. El curso también sirve como una introducción a los elementos históricos, filosóficos y sociológicos de la ciencia, principalmente del campo de los Estudios de Ciencia y Tecnología (CTS), y tiene una sección sobre ciencia y lobby.
Ética de la cuantificación por Andrea Saltelli
El curso presenta una mezcla de elementos estadísticos y sociológicos vinculados a diversas formas de cuantificación estadística y matemática y su calidad técnica y normativa. Se presentarán el análisis de sensibilidad y la auditoría de sensibilidad como metodologías relevantes para el análisis de la calidad, con una discusión de las propiedades de los métodos disponibles. Otros temas cubiertos son la política de modelización, la modelización participativa y la sociología de la cuantificación.
Probabilidades imprecisas de Serena Doria
A diferencia de la teoría de probabilidad clásica, que se ocupa de probabilidades claras, la probabilidad imprecisa reconoce las limitaciones del conocimiento perfecto. Proporciona un enfoque sólido y versátil para situaciones en las que la información es escasa, incompleta o poco fiable. Comenzaremos examinando las motivaciones detrás de las predicciones y probabilidades imprecisas y contrastándolas con la teoría de probabilidad clásica. Exploraremos las herramientas matemáticas necesarias para representar probabilidades imprecisas y exploraremos cómo se puede utilizar este marco en inteligencia artificial y teoría de la decisión.
Teoría de la elección racional de Giacomo Sillari
Este curso profundiza en la Teoría de la Elección Racional, explorando la toma de decisiones en condiciones de riesgo, ignorancia e incertidumbre. Comienza examinando cómo se toman las decisiones cuando se desconocen los resultados, con especial atención en aplicaciones filosóficas como maximin en el principio de diferencia de Rawls y el debate con Harsanyi.
A partir de esto, el curso pasa a diferentes interpretaciones de la probabilidad, con especial atención a la probabilidad subjetiva y al teorema del libro holandés. Luego, el curso cubre la Teoría de la Utilidad Esperada desde un punto de vista fundamental, revisando la maquinaria relacionada con el teorema de representación y concluye con la Racionalidad Estratégica, enfocándose en cómo los individuos toman decisiones en entornos estratégicos donde los resultados dependen de las acciones de otros, particularmente en lo que respecta a la coordinación. y cooperación.
Resultado del programa
El Máster está dirigido a estudiantes y académicos tanto de las ciencias humanas como de las disciplinas STEM, pero también a profesionales que quieran enriquecer sus habilidades en el campo del análisis de datos, la epistemología científica y las políticas basadas en evidencia. La figura que emerge es esencialmente la de un analista de datos, con una rica formación metodológica y fundacional, pero el Máster también puede contribuir a enriquecer el perfil educativo de periodistas, políticos y profesionales de cualquier sector (desde el económico hasta el sanitario y el jurídico). .
Al finalizar el Máster, los estudiantes serán capaces de evaluar la mejor metodología científica para su investigación; analizar datos y estudios de otros en su sector de investigación específico; y ofrecer servicios de consultoría a responsables políticos. Periodistas y responsables políticos habrán adquirido las herramientas esenciales para orientarse en el suministro de información producida en los diversos sectores científicos.
Requisitos de lengua inglesa
¡Certifica tu dominio del inglés con el Duolingo English Test! El DET es un examen de inglés en línea conveniente, rápido y asequible aceptado por más de 4000 universidades (como esta) en todo el mundo.