Destaques importantes
- Área e especialização profissional: Informática, TI, Telecomunicações - Administrador de Banco de Dados
- Nível hierárquico: Especialista
- Local de trabalho: São Paulo, SP
- Regime de contratação de tipo Prestador de Serviços (PJ)
- Jornada Período Integral
- Modelo de Trabalho: Home office
- Modelo de Atuação:
- Atuação em projetos estratégicos de dados e analytics;
- Integração com times multidisciplinares;
- Trabalho remoto, com visitas esporádicas aos clientes em São Paulo, de acordo com o cliente/projeto
- Principais Atividades
- Desenvolver e manter pipelines de ingestão, transformação e carga de dados (ETL/ELT) a partir de múltiplas fontes (APIs, bancos relacionais, arquivos, sistemas legados e cloud);
- Atuar na modelagem de dados (Data Lake, Data Warehouse e Data Marts), garantindo performance, escalabilidade e governança;
- Processar grandes volumes de dados utilizando Spark (PySpark ou Scala) e frameworks de Big Data;
- Desenvolver scripts e automações em Python para extração, integração e tratamento de dados;
- Criar e otimizar consultas SQL avançadas (procedures, views, functions, jobs), com foco em performance;
- Atuar em ambientes cloud (GCP, Oracle Cloud, Azure ou similares), participando de projetos de migração e modernização de dados;
- Integrar dados entre diferentes plataformas e sistemas (ex.: CRM, marketing, pesquisas, sistemas corporativos);
- Apoiar a construção de dashboards e relatórios em Power BI, garantindo dados confiáveis para análise e tomada de decisão;
- Trabalhar em conjunto com times de negócio, analytics e tecnologia para entendimento de requisitos e tradução em soluções de dados;
- Documentar processos, modelos e pipelines de dados, seguindo boas práticas de engenharia e governança.
- Requisitos Necessários
- Experiência comprovada como Engenheiro(a) de Dados ou funções similares;
- Domínio de SQL avançado, incluindo otimização de queries e objetos de banco de dados;
- Experiência sólida em ETL/ELT, utilizando ferramentas como PowerCenter, Pentaho, Databricks, SSIS ou equivalentes;
- Conhecimento prático em Python para engenharia de dados e automação;
- Experiência com processamento distribuído (Spark – PySpark ou Scala);
- Vivência em ambientes cloud (Google Cloud, Oracle Cloud, Azure ou similares);
- Experiência com Data Lakes, Data Warehouses e modelagem de dados;
- Conhecimento em integração de dados via APIs, arquivos e transferência segura (SFTP);
- Capacidade de comunicação com áreas técnicas e de negócio.
- Requisitos Desejáveis / Diferenciais
- Experiência com Hadoop, HiveQL e automações em Shell Script;
- Certificações em cloud, engenharia de dados ou plataformas analíticas;
- Experiência com Databricks;
- Conhecimento em governança de dados e qualidade da informação;
- Vivência em projetos de CRM, marketing, mercado ou analytics corporativo;
- Experiência com metodologias ágeis (Scrum, Kanban);
- Conhecimento em ferramentas de visualização além do Power BI.
Valorizado
- Escolaridade Mínima: Ensino Superior
- Formação desejada: Tecnologia da Informação, Ensino Superior
+ 50 Candidatos se inscreveram a esta vaga