logo seesp ap 22

 

BannerAssocie se

Engenheiro de Dados

CAPCO

 
SOBRE A CAPCO 

A Capco é uma consultoria global de tecnologia e negócios, focada no setor de serviços financeiros e energia, possuem 33 escritórios nas Américas, Europa e Ásia-Pacífico.

 

Resumo da Posição: 

 O candidato ideal terá experiência na construção e otimização de pipelines de dados, assim como na implementação e manutenção de arquiteturas robustas de dados. Este papel é crucial para garantir que nossas soluções de dados sejam escaláveis, eficientes e seguras, permitindo que nossa empresa tome decisões baseadas em dados de alta qualidade.

Responsabilidades:

  • Desenvolver, construir, testar e manter arquiteturas de dados, como bases de dados e sistemas de processamento em grande escala.
  • Assegurar que a arquitetura suporta os requisitos de negócios e necessidades dos stakeholders.
  • Criar e manter pipelines de dados eficientes e confiáveis para coleta, transformação, e carregamento (ETL) de grandes volumes de dados.
  • Implementar processos e sistemas para monitorar a integridade dos dados e garantir a sua qualidade e precisão.
  • Colaborar com equipes de ciência de dados e análise para fornecer os dados necessários para projetos de análise avançada e machine learning.
  • Monitorar a performance do sistema de dados e otimizar o desempenho de consultas e a eficiência do armazenamento de dados.
  • Trabalhar com tecnologias de big data e cloud computing, como Hadoop, Spark, AWS, Azure e Google Cloud.
  • Garantir a segurança dos dados, implementando políticas de governança e práticas de compliance.
  • Documentar sistemas de dados e processos de engenharia de dados.

Qualificações:

  • Bacharelado em Ciência da Computação, Engenharia, Matemática ou área relacionada. Mestrado é um diferencial.
  • Experiência comprovada como Engenheiro de Dados ou em funções similares.
  • Proficiência em linguagens de programação como Python, Java, Scala, e SQL.
  • Familiaridade com ferramentas e tecnologias de big data, como Hadoop, Spark, Kafka, e plataformas de data warehousing (Redshift, BigQuery, Snowflake).
  • Experiência com bancos de dados relacionais e não relacionais, como MySQL, PostgreSQL, MongoDB, Cassandra.
  • Conhecimento em arquiteturas de dados em cloud e ferramentas de data lake, como AWS S3, Azure Data Lake.
  • Experiência com ferramentas de ETL e integração de dados, como Apache Nifi, Airflow, Talend.
  • Capacidade de trabalhar em um ambiente ágil e dinâmico, colaborando efetivamente com equipes multifuncionais.
  • Excelentes habilidades de resolução de problemas e atenção aos detalhes.
  • Boas habilidades de comunicação, com a capacidade de explicar conceitos técnicos a stakeholders não técnicos.

 

 

Clique aqui e saiba mais!

Receba o SEESP Notícias *

agenda