Descripción
En Sixe Ingeniería llevamos más de 12 años impartiendo formación oficial de IBM en todo el mundo. Obtenga la mejor capacitación impartida por nuestros especialistas en Europa y América Latina.
Datos del curso
Código IBM: KM423GES / KM423G | Categoría / Subcategoría: IBM Infosphere / DataStage |
Modalidad: Online y presencial | Duración en días: 2 |
Público al que va dirigido
Desarrolladores de DataStage con experiencia que buscan capacitación en técnicas de trabajo de DataStage más avanzadas y que buscan técnicas para trabajar con tipos complejos de recursos de datos.
Requisitos previos deseados:
Curso de DataStage Essentials o equivalente.
Instructores
La gran mayoría de los cursos de IBM que ofrecemos están impartidos directamente por nuestros ingenieros. Solo así podemos garantizar la máxima calidad de los mismos. Complementamos todas las formaciones con materiales y laboratorios de elaboración propia, basados en nuestra experiencia durante los despliegues, migraciones y cursos que hemos realizado durante todos estos años.
Valor añadido
Nuestros cursos están profundamente orientados al rol a desempeñar. No es lo mismo las necesidades de dominio de una tecnología para un equipo de desarrolladores, que para las personas encargadas de desplegar y administrar la infraestructura. Es por ello que más allá de comandos y tareas, nos centramos en la resolución de los problemas que se presentan en el día a día de cada equipo. Proporcionándoles los conocimientos, competencias y habilidades requeridas para cada proyecto. Además nuestra documentación está basada en la última versión de cada producto.
Agenda y temario del curso
Unit 1 –Accessing databases
Topic 1: Connector stage overview
• Use Connector stages to read from and write to relational tables
• Working with the Connector stage properties
Topic 2: Connector stage functionality
• Before / After SQL
• Sparse lookups
• Optimize insert/update performance
Topic 3: Error handling in Connector stages
• Reject links
• Reject conditions
Topic 4: Multiple input links
• Designing jobs using Connector stages with multiple input links
• Ordering records across multiple input links
Topic 5: File Connector stage
• Read and write data to Hadoop file systems
Demonstration 1: Handling database errors
Demonstration 2: Parallel jobs with multiple Connector input links
Demonstration 3: Using the File Connector stage to read and write HDFS files
Unit 2 – Processing unstructured data
Topic 1: Using the Unstructured Data stage in DataStage jobs
• Extract data from an Excel spreadsheet
• Specify a data range for data extraction in an Unstructured Data stage
• Specify document properties for data extraction.
Demonstration 1: Processing unstructured data
Unit 3 – Data masking
Topic 1: Using the Data Masking stage in DataStage jobs
• Data masking techniques
• Data masking policies
• Applying policies for masquerading context-aware data types
• Applying policies for masquerading generic data types
• Repeatable replacement
• Using reference tables
• Creating custom reference tables
Demonstration 1: Data masking
Unit 4 – Using data rules
Topic 1: Introduction to data rules
• Using the Data Rules Editor
• Selecting data rules
• Binding data rule variables
• Output link constraints
• Adding statistics and attributes to the output information
Topic 2: Use the Data Rules stage to valid foreign key references in source data
Topic 3: Create custom data rules
Demonstration 1: Using data rules
Unit 5 – Processing XML data
Topic 1: Introduction to the Hierarchical stage
• Hierarchical stage Assembly editor
• Use the Schema Library Manager to import and manage XML schemas
Topic 2: Composing XML data
• Using the HJoin step to create parent-child relationships between input lists
• Using the Composer step
Topic 3: Writing Hierarchical data to a relational table
Topic 4: Using the Regroup step
Topic 5: Consuming XML data
• Using the XML Parser step
• Propagating columns
Topic 6: Transforming XML data
• Using the Aggregate step
• Using the Sort step
• Using the Switch step
• Using the H-Pivot step
Demonstration 1: Importing XML schemas
Demonstration 2: Compose hierarchical data
Demonstration 3: Consume hierarchical data
Demonstration 4: Transform hierarchical data
Unit 6: Updating a star schema database
Topic 1: Surrogate keys
• Design a job that creates and updates a surrogate key source key file from a dimension table
Topic 2: Slowly Changing Dimensions (SCD) stage
• Star schema databases
• SCD stage Fast Path pages
• Specifying purpose codes
• Dimension update specification
• Design a job that processes a star schema database with Type 1 and Type 2 slowly changing dimensions
Demonstration 1: Build a parallel job that updates a star schema database with two dimensions
¿Necesita adaptar este temario a sus necesidades? ¿Está interesado en otros cursos? Consúltenos sin compromiso.
Ubicaciones para impartición presencial
- España: Madrid, Sevilla, Valencia, Barcelona, Bilbao, Málaga
- Argentina: Buenos Aires, Córdoba
- Bolivia: La Paz
- Chile: Santiago de Chile
- Colombia: Bogotá, Medellín, Cartagena, Cali
- Costa Rica: San José
- Ecuador: Quito
- México: Ciudad de México, Guadalajara, Monterrey
- Paraguay: Asunción
- Perú: Lima
- Portugal: Lisboa, Braga, Porto
- Uruguay: Montevideo