University of California, Irvine - Division of Continuing Education
Programa de certificado acelerado: ciencia de datos
Irvine, Estados Unidos de América
Certificado
DURACIÓN
3 meses
IDIOMAS
Inglés
PASO
Tiempo completo
PLAZO DE SOLICITUD
FECHA DE INICIO MÁS TEMPRANA
30 Mar 2026
TASAS DE MATRÍCULA
USD 7900 *
FORMATO DE ESTUDIO
En el campus
* costo total aproximado: $ 14,100 USD, no incluye pasaje aéreo; matrícula de la pasantía: $ 2,900
Visión de conjunto
La ciencia de datos se clasifica continuamente como una de las profesiones más demandadas. La necesidad de profesionales que puedan administrar y aprovechar los conocimientos de los datos es más clara que nunca. El plan de estudios que se enseña en este programa está diseñado para satisfacer las crecientes necesidades multidisciplinarias de los profesionales de datos. Al cubrir una amplia gama de temas, el programa aborda la amplia variedad de habilidades necesarias para trabajar en proyectos exitosos basados en datos. Los temas cubiertos incluyen descubrimiento y predicción basados en datos, ingeniería de datos a escala (inspección, limpieza, transformación y modelado de datos), datos estructurados y no estructurados, estadísticas computacionales, reconocimiento de patrones, minería de datos, visualización de datos, bases de datos, SQL, programación Python, y aprendizaje automático.
El Programa de Certificado Acelerado (ACP) de posgrado de UC Irvine en ciencia de datos de 3 meses cubre una amplia gama de temas en ciencia de datos, incluido el descubrimiento y la predicción basados en datos, ingeniería de datos a escala (inspección, limpieza, transformación y modelado de datos) , datos estructurados y no estructurados, estadísticas computacionales, reconocimiento de patrones, minería de datos, visualización de datos, bases de datos, SQL, Python y aprendizaje automático.
Beneficios
- Utilice técnicas técnicas para ofrecer conocimientos e inteligencia empresarial.
- Aplicar conceptos matemáticos que incluyen probabilidad, inferencia y modelado a la aplicación práctica del proyecto de datos.
- Describir y utilizar herramientas y tecnologías estándar de la industria necesarias para modelar y analizar grandes conjuntos de datos.
- Utilice el enfoque de modelado de datos para tomar una decisión empresarial óptima.
- Implementar algoritmos de aprendizaje automático.
- Aplique herramientas de análisis de texto a conjuntos de datos estructurados y no estructurados.
- Desarrollar e implementar un plan de almacenamiento de datos.
- Obtenga una ventaja competitiva en el mercado laboral global a través de una pasantía en una empresa estadounidense.
Requisitos de certificado
Para obtener un certificado en la División de Educación Continua de la UC Irvine, los estudiantes deben completar todos los cursos requeridos con una calificación de "C" o superior.
Pasantías
Como último curso opcional y por una tarifa adicional de $ 2,900, tiene la oportunidad de aplicar la teoría académica y obtener experiencia práctica en una variedad de empresas e industrias durante 10 semanas. Un proyecto de investigación proporciona formación adicional. También se incluyen en la pasantía los talleres de desarrollo de currículum vitae y habilidades para entrevistas.
Programar
Los estudiantes serán asignados a un horario de mañana (9: 00-12: 00) o de tarde (13: 00-16: 00). Los cursos del programa se toman consecutivamente, completando uno antes de pasar al siguiente. Los horarios no están garantizados y están sujetos a cambios. Se proporcionará un horario final el primer día del programa.
Plan de estudios
Matemáticas y estadísticas prácticas para la ciencia de datos
Las matemáticas prácticas y la estadística son la base de los campos de ciencia de datos y análisis predictivo. Las estadísticas se utilizan en cada parte del procesamiento de datos comerciales, científicos e institucionales. Este curso cubre las habilidades estadísticas fundamentales necesarias para la ciencia de datos y el análisis predictivo. Este es un curso orientado a la aplicación y el enfoque es práctico. Los estudiantes observarán varias técnicas estadísticas y discutirán situaciones en las que se usaría cada técnica, las suposiciones hechas por cada método, cómo configurar el análisis y cómo interpretar los resultados. Este curso comienza con una introducción al análisis de datos. Luego, el curso cubre los conceptos fundamentales de estadística descriptiva, probabilidad y estadística inferencial, que incluyen el teorema del límite central y la prueba de hipótesis. A partir de ahí, el curso se centrará en varias pruebas estadísticas, incluida la prueba de independencia Chi-Square, pruebas t, correlación, ANOVA, regresión lineal, series de tiempo y la aplicación de técnicas aprendidas previamente en situaciones nuevas.
Introducción a la programación en Python
Introducción a Python es una introducción para principiantes a la programación usando Python. Este curso está diseñado para aquellos que no tienen experiencia en programación y no tienen antecedentes técnicos. Es para aquellos que quieren una introducción amable. Después de este curso, los estudiantes pueden querer tomar un curso de Python más intermedio o avanzado. O bien, pueden sentirse lo suficientemente seguros como para comenzar a aprender por su cuenta. Si no tiene experiencia en Python, pero sí tiene una buena experiencia en Java, C u otro lenguaje, este curso puede resultarle lento. Los estudiantes aprenderán lo siguiente: cómo usar tipos de variables, control de flujo y funciones, cómo interactuar con el sistema a través de Python, cómo escribir scripts simples para procesar texto y cómo usar Jupyter, una popular herramienta de desarrollo para Python.
Fundamentos de la ciencia de datos
El objetivo de este curso es desmitificar la ciencia de datos y familiarizar a los estudiantes con las habilidades, técnicas y conceptos clave de los científicos de datos. Comenzando con conceptos fundamentales como la taxonomía analítica, el proceso estándar entre industrias para la minería de datos y el diagnóstico de datos, el curso luego pasará a comparar la ciencia de datos con las técnicas estadísticas clásicas. Una descripción general de las técnicas más comunes utilizadas en la ciencia de datos, incluido el análisis de datos, el modelado estadístico, la ingeniería de datos, las bases de datos relacionales, SQL y NoSQL, la manipulación de datos a escala (big data), los algoritmos para la minería de datos, la calidad de los datos, la remediación y Se cubrirán las operaciones de consistencia.
Ingeniería de datos
Este curso está diseñado para mejorar la competencia de los estudiantes en el diseño de datos, la gestión de datos, el almacenamiento de datos, el modelado de datos y las habilidades de manipulación de consultas. Los temas incluyen técnicas y métodos para la identificación, extracción y preparación de datos para su procesamiento con software de base de datos. Obtenga una descripción general de las técnicas básicas de ingeniería de datos, incluida la normalización de datos, ingeniería de datos, bases de datos relacionales y no relacionales, SQL y NoSQL, manipulación de datos a escala (big data), algoritmos para operaciones de datos. Los estudiantes trabajarán en equipos en un proyecto final para explorar, analizar, resumir y presentar hallazgos en un gran conjunto de datos del mundo real.
Visualización Avanzada
La visualización juega un papel fundamental en la comprensión de las propiedades y relaciones de los datos para extraer información y comunicar los resultados. Ya sea que el análisis sea descriptivo, de diagnóstico, prescriptivo o proscriptivo, la visualización es esencial a lo largo de cualquier ciclo de análisis. Este curso se centrará en la aplicación de varios métodos y técnicas a las diferentes etapas del ciclo analítico, como durante la preparación de datos, el modelado y la generación de informes. Los estudiantes aprenderán técnicas para visualizar datos univariados, multivariados, temporales, basados en texto, jerárquicos y basados en redes/gráficos, tanto en análisis ad hoc como en generación automatizada.
Análisis de grandes datos
Las empresas utilizan tecnologías como MapReduce, Hadoop, Yarn y Apache Spark para extraer valor de Big Data. Este curso proporciona una descripción detallada de Hadoop y Spark, las piedras angulares del procesamiento de big data. Para cristalizar los conceptos detrás de Hadoop y Spark, los estudiantes trabajarán a través de una serie de ejercicios cortos y enfocados. Los conceptos cubiertos incluyen la arquitectura Hadoop, Apache Spark Big Data Framework, ingesta de datos, procesamiento distribuido y programación funcional. Además, los estudiantes aprenderán cómo configurar e instalar un clúster de Hadoop, escribir programas básicos de MapReduce, utilizar prácticas de programación avanzadas de MapReduce y utilizar interfaces como Pig y Hive para interactuar con Hadoop.
Quién debe asistir
Este programa está destinado a profesionales en una variedad de industrias y funciones laborales que buscan ayudar a su organización a comprender y aprovechar las cantidades masivas de datos diversos que recopilan. Otros que se beneficiarían de este programa incluyen ingenieros de datos, analistas de datos, informáticos, analistas de negocios, administradores de bases de datos, investigadores y estadísticos.


