Descrição:
Publicada: 17/02/2025
O Data Engineer é responsável por projetar, desenvolver e gerenciar sistemas e arquiteturas de dados, garantindo a coleta, armazenamento, processamento e análise eficiente de grandes volumes de informações para apoiar decisões estratégicas.
Responsabilidades e Atribuições:
- Coleta de Dados: Identificar e coletar dados relevantes de várias fontes, como bancos de dados, logs, streams de dados, APIs, entre outros.
- Armazenamento de Dados: Projetar e implementar sistemas de armazenamento de dados eficientes e escaláveis, que podem incluir bancos de dados relacionais, NoSQL, data warehouses, e sistemas de armazenamento distribuídos.
- Processamento de Dados: Desenvolver pipelines de processamento de dados para limpar, transformar e preparar dados para análise. Isso pode envolver o uso de ferramentas como, Apache Spark, ou outras soluções de processamento distribuído.
- Integração de Dados: Garantir a integridade e a consistência dos dados ao integrar informações de diferentes fontes.
- Segurança e Privacidade: Implementar medidas de segurança e garantir a conformidade com regulamentações de privacidade de dados.
- Análise de Dados: Facilitar o acesso aos dados para análise, seja por meio de ferramentas de visualização, consulta direta ou outras formas de análise de dados.
- Monitoramento e Otimização: Monitorar o desempenho dos sistemas de dados, identificar gargalos e otimizar o desempenho conforme necessário.
- Colaboração com Equipes: Trabalhar em estreita colaboração com cientistas de dados, analistas de negócios e outros profissionais para entender e atender às necessidades de dados da organização.
- Documentação: Manter documentação clara e abrangente sobre arquiteturas de dados, fluxos de trabalho, processos de ETL (Extração, Transformação e Carga), e outros aspectos relacionados aos sistemas de dados.
- Resolução de Problemas: Identificar e resolver problemas relacionados a dados, como inconsistências, falhas no processamento ou questões de desempenho.
- Treinamento e Colaboração: Colaborar com outros membros da equipe, compartilhando conhecimento e oferecendo treinamento quando necessário, especialmente para garantir que os dados sejam utilizados de forma eficaz por toda a organização.
- Governança de Dados: Implementar práticas de governança de dados para garantir a qualidade, consistência e conformidade dos dados, além de estabelecer políticas para o uso adequado e ético das informações.
- Gerenciamento de Projeto: Participar de projetos de dados desde a concepção até a implementação, garantindo que os prazos sejam cumpridos e que os objetivos do projeto sejam alcançados.
- Colaboração com DevOps: Trabalhar em estreita colaboração com equipes de desenvolvimento e operações para integrar práticas de DevOps no ciclo de vida do desenvolvimento de sistemas de dados.
- Análise de Custos: Avaliar e otimizar os custos associados à infraestrutura de dados, garantindo que os recursos sejam usados eficientemente e de maneira econômica.
- Manutenção de Infraestrutura: Gerenciar e manter a infraestrutura de hardware e software necessária para suportar as operações de dados, garantindo a disponibilidade e o desempenho adequados.
- Padrões e Melhores Práticas: Definir e aplicar padrões e melhores práticas para o gerenciamento de dados, garantindo consistência e qualidade em toda a organização.
- Estratégia de Dados: Participar no desenvolvimento e implementação de estratégias de dados alinhadas aos objetivos de negócios da organização.
Habilidades
- Python
- SQLServer
- MySQL
- PostgreSQL
- BigQuery
- GCP
- Kubernetes
- Docker
Requisitos
- Conhecimento e experiência com Python e SQL
- Bancos de Dados: Relacionais (MySQL, PostgreSQL), Colunar (Clickhouse, BigQuery).
- ETL e Modelagem: Airflow, dbt Cloud/dbt CLI.
- Cloud e Infraestrutura: Azure, Google Cloud, Kubernetes, Docker, Helm.
- Controle de Versão: Git.
- Governança de Dados: Qualidade, metadados e linhagem de dados.
- Habilidades Analíticas: Solução de problemas e otimização de processos.
Diferenciais
- Big Data & Streaming: Apache Kafka, Apache Spark, Apache Flink
- Inglês intermediário
Benefícios
- Adiantamento de salário
- Assistência médica
- Auxílio home-office
- Auxílio viagem
- TotalPass
- Creditas
- Vale refeição
- Assistência odontológica
Potencializamos resultados de vendas por meio de incentivos para algumas das maiores empresas do país.
Descrição:
Publicada: 17/02/2025
O Data Engineer é responsável por projetar, desenvolver e gerenciar sistemas e arquiteturas de dados, garantindo a coleta, armazenamento, processamento e análise eficiente de grandes volumes de informações para apoiar decisões estratégicas.
Responsabilidades e Atribuições:
- Coleta de Dados: Identificar e coletar dados relevantes de várias fontes, como bancos de dados, logs, streams de dados, APIs, entre outros.
- Armazenamento de Dados: Projetar e implementar sistemas de armazenamento de dados eficientes e escaláveis, que podem incluir bancos de dados relacionais, NoSQL, data warehouses, e sistemas de armazenamento distribuídos.
- Processamento de Dados: Desenvolver pipelines de processamento de dados para limpar, transformar e preparar dados para análise. Isso pode envolver o uso de ferramentas como, Apache Spark, ou outras soluções de processamento distribuído.
- Integração de Dados: Garantir a integridade e a consistência dos dados ao integrar informações de diferentes fontes.
- Segurança e Privacidade: Implementar medidas de segurança e garantir a conformidade com regulamentações de privacidade de dados.
- Análise de Dados: Facilitar o acesso aos dados para análise, seja por meio de ferramentas de visualização, consulta direta ou outras formas de análise de dados.
- Monitoramento e Otimização: Monitorar o desempenho dos sistemas de dados, identificar gargalos e otimizar o desempenho conforme necessário.
- Colaboração com Equipes: Trabalhar em estreita colaboração com cientistas de dados, analistas de negócios e outros profissionais para entender e atender às necessidades de dados da organização.
- Documentação: Manter documentação clara e abrangente sobre arquiteturas de dados, fluxos de trabalho, processos de ETL (Extração, Transformação e Carga), e outros aspectos relacionados aos sistemas de dados.
- Resolução de Problemas: Identificar e resolver problemas relacionados a dados, como inconsistências, falhas no processamento ou questões de desempenho.
- Treinamento e Colaboração: Colaborar com outros membros da equipe, compartilhando conhecimento e oferecendo treinamento quando necessário, especialmente para garantir que os dados sejam utilizados de forma eficaz por toda a organização.
- Governança de Dados: Implementar práticas de governança de dados para garantir a qualidade, consistência e conformidade dos dados, além de estabelecer políticas para o uso adequado e ético das informações.
- Gerenciamento de Projeto: Participar de projetos de dados desde a concepção até a implementação, garantindo que os prazos sejam cumpridos e que os objetivos do projeto sejam alcançados.
- Colaboração com DevOps: Trabalhar em estreita colaboração com equipes de desenvolvimento e operações para integrar práticas de DevOps no ciclo de vida do desenvolvimento de sistemas de dados.
- Análise de Custos: Avaliar e otimizar os custos associados à infraestrutura de dados, garantindo que os recursos sejam usados eficientemente e de maneira econômica.
- Manutenção de Infraestrutura: Gerenciar e manter a infraestrutura de hardware e software necessária para suportar as operações de dados, garantindo a disponibilidade e o desempenho adequados.
- Padrões e Melhores Práticas: Definir e aplicar padrões e melhores práticas para o gerenciamento de dados, garantindo consistência e qualidade em toda a organização.
- Estratégia de Dados: Participar no desenvolvimento e implementação de estratégias de dados alinhadas aos objetivos de negócios da organização.
Habilidades
- Python
- SQLServer
- MySQL
- PostgreSQL
- BigQuery
- GCP
- Kubernetes
- Docker
Requisitos
- Conhecimento e experiência com Python e SQL
- Bancos de Dados: Relacionais (MySQL, PostgreSQL), Colunar (Clickhouse, BigQuery).
- ETL e Modelagem: Airflow, dbt Cloud/dbt CLI.
- Cloud e Infraestrutura: Azure, Google Cloud, Kubernetes, Docker, Helm.
- Controle de Versão: Git.
- Governança de Dados: Qualidade, metadados e linhagem de dados.
- Habilidades Analíticas: Solução de problemas e otimização de processos.
Diferenciais
- Big Data & Streaming: Apache Kafka, Apache Spark, Apache Flink
- Inglês intermediário
Benefícios
- Adiantamento de salário
- Assistência médica
- Auxílio home-office
- Auxílio viagem
- TotalPass
- Creditas
- Vale refeição
- Assistência odontológica
Potencializamos resultados de vendas por meio de incentivos para algumas das maiores empresas do país.