Senior Data Engineer

Duque de Caxias, Rio de Janeiro Kake

Trabalho visualizado

Toque novamente para fechar

Descrição Do Trabalho

About The Role

We are seeking experienced Data Engineers to develop and deliver robust, cost-efficient data products that power analytics, reporting and decision-making across two distinct brands.


What You’ll Do

- Build highly consumable and cost-efficient data products by synthesizing data from diverse source systems.

- Ingest raw data using Fivetran and Python, staging and enriching it in BigQuery to provide consistent, trusted dimensions and metrics for downstream workflows.

- Design, maintain, and improve workflows that ensure reliable and consistent data creation, proactively addressing data quality issues and optimizing for performance and cost.

- Develop LookML Views and Models to democratize access to data products and enable self-service analytics in Looker.

- Deliver ad hoc SQL reports and support business users with timely insights.

- (Secondary) Implement simple machine learning features into data products using tools like BQML.

- Build and maintain Looker dashboards and reports to surface key metrics and trends.


What We’re Looking For

- Proven experience building and managing data products in modern cloud environments (GCP preferred).

- Strong proficiency in Python for data ingestion and workflow development.

- Hands-on expertise with BigQuery, dbt, Airflow and Looker.

- Solid understanding of data modeling, pipeline design and data quality best practices.

- Excellent communication skills and a track record of effective collaboration across technical and non-technical teams.


Tech stack

SQL, Python, BigQuery, dbt, Fivetran, Airflow, Google Cloud Storage, LookML, Looker.


Why Join Kake?

Kake is a remote-first company with a global community — fully believing that it’s not where your table is, but what you bring to the table. We provide top-tier engineering teams to support some of the world’s most innovative companies, and we’ve built a culture where great people stay, grow, and thrive. We’re proud to be more than just a stop along the way in your career — we’re the destination.


The icing on the Kake:

Competitive Pay in USD – Work globally, get paid globally.

Fully Remote – Simply put, we trust you.

Better Me Fund – We invest in your personal growth and passions.

️ Compassion is Badass – Join a community that invests in social good.

Desculpe, este trabalho não está disponível em sua região

Emprego já não disponível

Esta posição já não está listada no WhatJobs. O empregador pode estar a analisar as candidaturas, preencheu a vaga ou removeu a listagem.

No entanto, temos empregos semelhantes disponíveis para si abaixo.

Senior Data Engineer

Niterói, Rio de Janeiro Avenue Code

Hoje

Trabalho visualizado

Toque novamente para fechar

Descrição Do Trabalho

We are looking for a Senior Data Engineer to design and maintain scalable data pipelines on AWS, ensuring performance, quality, and security. You will collaborate with data scientists and analysts to integrate data from multiple sources and support AI/ML initiatives.


Key Responsibilities:


  • Build and optimize ETL pipelines with AWS Glue.
  • Work with AWS S3, Glue, and SageMaker for data and AI workflows.
  • Develop solutions in Python and SQL .
  • Integrate data from Salesforce and APIs .
  • Ensure data governance, documentation, and best practices.


Tech Stack:


  • AWS (S3, Glue, SageMaker)
  • Python, SQL
  • Salesforce, APIs


Requirements:


  • Proven experience in data engineering with AWS .
  • Strong Python + SQL skills.
  • Experience with ETL, data modeling, and pipeline optimization.
  • Advanced English (international collaboration).


Avenue Code reinforces its commitment to privacy and to all the principles guaranteed by the most accurate global data protection laws, such as GDPR, LGPD, CCPA and CPRA. The Candidate data shared with Avenue Code will be kept confidential and will not be transmitted to disinterested third parties, nor will it be used for purposes other than the application for open positions. As a Consultancy company, Avenue Code may share your information with its clients and other Companies from the CompassUol Group to which Avenue Code’s consultants are allocated to perform its services.

Desculpe, este trabalho não está disponível em sua região

Senior Data Engineer

Duque de Caxias, Rio de Janeiro Avenue Code

Hoje

Trabalho visualizado

Toque novamente para fechar

Descrição Do Trabalho

We are looking for a Senior Data Engineer to design and maintain scalable data pipelines on AWS, ensuring performance, quality, and security. You will collaborate with data scientists and analysts to integrate data from multiple sources and support AI/ML initiatives.


Key Responsibilities:


  • Build and optimize ETL pipelines with AWS Glue.
  • Work with AWS S3, Glue, and SageMaker for data and AI workflows.
  • Develop solutions in Python and SQL .
  • Integrate data from Salesforce and APIs .
  • Ensure data governance, documentation, and best practices.


Tech Stack:


  • AWS (S3, Glue, SageMaker)
  • Python, SQL
  • Salesforce, APIs


Requirements:


  • Proven experience in data engineering with AWS .
  • Strong Python + SQL skills.
  • Experience with ETL, data modeling, and pipeline optimization.
  • Advanced English (international collaboration).


Avenue Code reinforces its commitment to privacy and to all the principles guaranteed by the most accurate global data protection laws, such as GDPR, LGPD, CCPA and CPRA. The Candidate data shared with Avenue Code will be kept confidential and will not be transmitted to disinterested third parties, nor will it be used for purposes other than the application for open positions. As a Consultancy company, Avenue Code may share your information with its clients and other Companies from the CompassUol Group to which Avenue Code’s consultants are allocated to perform its services.

Desculpe, este trabalho não está disponível em sua região

Senior Data Engineer

São Gonçalo, Rio de Janeiro Avenue Code

Hoje

Trabalho visualizado

Toque novamente para fechar

Descrição Do Trabalho

We are looking for a Senior Data Engineer to design and maintain scalable data pipelines on AWS, ensuring performance, quality, and security. You will collaborate with data scientists and analysts to integrate data from multiple sources and support AI/ML initiatives.


Key Responsibilities:


  • Build and optimize ETL pipelines with AWS Glue.
  • Work with AWS S3, Glue, and SageMaker for data and AI workflows.
  • Develop solutions in Python and SQL .
  • Integrate data from Salesforce and APIs .
  • Ensure data governance, documentation, and best practices.


Tech Stack:


  • AWS (S3, Glue, SageMaker)
  • Python, SQL
  • Salesforce, APIs


Requirements:


  • Proven experience in data engineering with AWS .
  • Strong Python + SQL skills.
  • Experience with ETL, data modeling, and pipeline optimization.
  • Advanced English (international collaboration).


Avenue Code reinforces its commitment to privacy and to all the principles guaranteed by the most accurate global data protection laws, such as GDPR, LGPD, CCPA and CPRA. The Candidate data shared with Avenue Code will be kept confidential and will not be transmitted to disinterested third parties, nor will it be used for purposes other than the application for open positions. As a Consultancy company, Avenue Code may share your information with its clients and other Companies from the CompassUol Group to which Avenue Code’s consultants are allocated to perform its services.

Desculpe, este trabalho não está disponível em sua região

Senior Data Engineer

Nova Iguaçu, Rio de Janeiro Avenue Code

Hoje

Trabalho visualizado

Toque novamente para fechar

Descrição Do Trabalho

We are looking for a Senior Data Engineer to design and maintain scalable data pipelines on AWS, ensuring performance, quality, and security. You will collaborate with data scientists and analysts to integrate data from multiple sources and support AI/ML initiatives.


Key Responsibilities:


  • Build and optimize ETL pipelines with AWS Glue.
  • Work with AWS S3, Glue, and SageMaker for data and AI workflows.
  • Develop solutions in Python and SQL .
  • Integrate data from Salesforce and APIs .
  • Ensure data governance, documentation, and best practices.


Tech Stack:


  • AWS (S3, Glue, SageMaker)
  • Python, SQL
  • Salesforce, APIs


Requirements:


  • Proven experience in data engineering with AWS .
  • Strong Python + SQL skills.
  • Experience with ETL, data modeling, and pipeline optimization.
  • Advanced English (international collaboration).


Avenue Code reinforces its commitment to privacy and to all the principles guaranteed by the most accurate global data protection laws, such as GDPR, LGPD, CCPA and CPRA. The Candidate data shared with Avenue Code will be kept confidential and will not be transmitted to disinterested third parties, nor will it be used for purposes other than the application for open positions. As a Consultancy company, Avenue Code may share your information with its clients and other Companies from the CompassUol Group to which Avenue Code’s consultants are allocated to perform its services.

Desculpe, este trabalho não está disponível em sua região

Senior Data Engineer

Niterói, Rio de Janeiro Covalenty

Hoje

Trabalho visualizado

Toque novamente para fechar

Descrição Do Trabalho

Sobre a Covalenty

Somos um SaaS-enabled B2B marketplace que conecta farmácias independentes aos seus fornecedores, ajudando a cadeia de suprimentos farmacêutica a ser mais eficiente, inteligente e integrada. Nosso propósito é garantir que o estoque ideal esteja no lugar certo, na hora certa — da indústria à farmácia.


Senior Data Engineer


Na Covalenty , estamos transformando o jeito que pequenas farmácias compram, crescem e se tornam mais competitivas, por meio de tecnologia, inteligência de dados e soluções reais. Se você busca liderar com propósito, gerar impacto e trabalhar com times talentosos em uma startup em expansão — essa vaga é pra você!


Sobre a vaga

Buscamos uma pessoa Data Engineer Sênior para estruturar, escalar e manter pipelines de dados voltados a projetos de Inteligência Artificial e Machine Learning, dando suporte também às decisões estratégicas da empresa. A pessoa atuará como elo entre os times de Data Science, Engenharia e Produto, construindo arquiteturas robustas e eficientes.


Principais Responsabilidades

  • Projetar, construir e manter pipelines de dados escaláveis e performáticos (ETL/ELT)
  • Trabalhar com arquiteturas modernas em cloud (AWS, GCP ou Azure)
  • Criar e manter data lakes, feature stores e fluxos de dados para modelagem preditiva
  • Desenvolver integrações entre fontes de dados estruturados, semi e não estruturados
  • Apoiar a construção de bases de dados para treinamento e inferência de modelos
  • Garantir boas práticas de engenharia, segurança e governança de dados
  • Monitorar e otimizar pipelines e ambientes de dados em larga escala


Requisitos Desejáveis

  • Experiência sólida com engenharia de dados em ambientes complexos
  • Domínio em Python, SQL e manipulação de grandes volumes de dados
  • Experiência com ferramentas de orquestração (Airflow, Prefect, dbt)
  • Vivência com Big Data (Apache Spark, Kafka, Hadoop)
  • Experiência em ambientes cloud (AWS, GCP ou Azure)
  • Conhecimento em versionamento de dados e MLOps é um diferencial
  • Prática com bancos SQL (PostgreSQL, MySQL) e NoSQL (BigQuery, DynamoDB)
  • Familiaridade com pipelines voltados a Machine Learning


O que esperamos de você

  • Experiência com feature stores para IA
  • Conhecimento em DataOps/MLOps e automação de pipelines
  • Vivência com arquiteturas orientadas a eventos e processamento em tempo real
  • Atuação prévia em projetos de IA ou sistemas de recomendação
  • Pensamento analítico com foco em soluções práticas
  • Boa comunicação e colaboração com times multidisciplinares
  • Autonomia e proatividade em projetos complexos
  • Comprometimento com qualidade, segurança e responsabilidade no uso dos dados


Na Covalenty, você vai encontrar:

  • Desafios técnicos com impacto real no mercado de saúde
  • Um time colaborativo, com espaço para inovação, autonomia e crescimento
  • Cultura de aprendizado contínuo, com rituais leves e foco em resultado
  • Ambiente ágil, dinâmico e em constante evolução


Quer fazer parte dessa jornada?

#VemPraCovalenty


Desculpe, este trabalho não está disponível em sua região

Senior Data Engineer

Duque de Caxias, Rio de Janeiro Covalenty

Hoje

Trabalho visualizado

Toque novamente para fechar

Descrição Do Trabalho

Sobre a Covalenty

Somos um SaaS-enabled B2B marketplace que conecta farmácias independentes aos seus fornecedores, ajudando a cadeia de suprimentos farmacêutica a ser mais eficiente, inteligente e integrada. Nosso propósito é garantir que o estoque ideal esteja no lugar certo, na hora certa — da indústria à farmácia.


Senior Data Engineer


Na Covalenty , estamos transformando o jeito que pequenas farmácias compram, crescem e se tornam mais competitivas, por meio de tecnologia, inteligência de dados e soluções reais. Se você busca liderar com propósito, gerar impacto e trabalhar com times talentosos em uma startup em expansão — essa vaga é pra você!


Sobre a vaga

Buscamos uma pessoa Data Engineer Sênior para estruturar, escalar e manter pipelines de dados voltados a projetos de Inteligência Artificial e Machine Learning, dando suporte também às decisões estratégicas da empresa. A pessoa atuará como elo entre os times de Data Science, Engenharia e Produto, construindo arquiteturas robustas e eficientes.


Principais Responsabilidades

  • Projetar, construir e manter pipelines de dados escaláveis e performáticos (ETL/ELT)
  • Trabalhar com arquiteturas modernas em cloud (AWS, GCP ou Azure)
  • Criar e manter data lakes, feature stores e fluxos de dados para modelagem preditiva
  • Desenvolver integrações entre fontes de dados estruturados, semi e não estruturados
  • Apoiar a construção de bases de dados para treinamento e inferência de modelos
  • Garantir boas práticas de engenharia, segurança e governança de dados
  • Monitorar e otimizar pipelines e ambientes de dados em larga escala


Requisitos Desejáveis

  • Experiência sólida com engenharia de dados em ambientes complexos
  • Domínio em Python, SQL e manipulação de grandes volumes de dados
  • Experiência com ferramentas de orquestração (Airflow, Prefect, dbt)
  • Vivência com Big Data (Apache Spark, Kafka, Hadoop)
  • Experiência em ambientes cloud (AWS, GCP ou Azure)
  • Conhecimento em versionamento de dados e MLOps é um diferencial
  • Prática com bancos SQL (PostgreSQL, MySQL) e NoSQL (BigQuery, DynamoDB)
  • Familiaridade com pipelines voltados a Machine Learning


O que esperamos de você

  • Experiência com feature stores para IA
  • Conhecimento em DataOps/MLOps e automação de pipelines
  • Vivência com arquiteturas orientadas a eventos e processamento em tempo real
  • Atuação prévia em projetos de IA ou sistemas de recomendação
  • Pensamento analítico com foco em soluções práticas
  • Boa comunicação e colaboração com times multidisciplinares
  • Autonomia e proatividade em projetos complexos
  • Comprometimento com qualidade, segurança e responsabilidade no uso dos dados


Na Covalenty, você vai encontrar:

  • Desafios técnicos com impacto real no mercado de saúde
  • Um time colaborativo, com espaço para inovação, autonomia e crescimento
  • Cultura de aprendizado contínuo, com rituais leves e foco em resultado
  • Ambiente ágil, dinâmico e em constante evolução


Quer fazer parte dessa jornada?

#VemPraCovalenty


Desculpe, este trabalho não está disponível em sua região

Senior Data Engineer

São Gonçalo, Rio de Janeiro Covalenty

Hoje

Trabalho visualizado

Toque novamente para fechar

Descrição Do Trabalho

Sobre a Covalenty

Somos um SaaS-enabled B2B marketplace que conecta farmácias independentes aos seus fornecedores, ajudando a cadeia de suprimentos farmacêutica a ser mais eficiente, inteligente e integrada. Nosso propósito é garantir que o estoque ideal esteja no lugar certo, na hora certa — da indústria à farmácia.


Senior Data Engineer


Na Covalenty , estamos transformando o jeito que pequenas farmácias compram, crescem e se tornam mais competitivas, por meio de tecnologia, inteligência de dados e soluções reais. Se você busca liderar com propósito, gerar impacto e trabalhar com times talentosos em uma startup em expansão — essa vaga é pra você!


Sobre a vaga

Buscamos uma pessoa Data Engineer Sênior para estruturar, escalar e manter pipelines de dados voltados a projetos de Inteligência Artificial e Machine Learning, dando suporte também às decisões estratégicas da empresa. A pessoa atuará como elo entre os times de Data Science, Engenharia e Produto, construindo arquiteturas robustas e eficientes.


Principais Responsabilidades

  • Projetar, construir e manter pipelines de dados escaláveis e performáticos (ETL/ELT)
  • Trabalhar com arquiteturas modernas em cloud (AWS, GCP ou Azure)
  • Criar e manter data lakes, feature stores e fluxos de dados para modelagem preditiva
  • Desenvolver integrações entre fontes de dados estruturados, semi e não estruturados
  • Apoiar a construção de bases de dados para treinamento e inferência de modelos
  • Garantir boas práticas de engenharia, segurança e governança de dados
  • Monitorar e otimizar pipelines e ambientes de dados em larga escala


Requisitos Desejáveis

  • Experiência sólida com engenharia de dados em ambientes complexos
  • Domínio em Python, SQL e manipulação de grandes volumes de dados
  • Experiência com ferramentas de orquestração (Airflow, Prefect, dbt)
  • Vivência com Big Data (Apache Spark, Kafka, Hadoop)
  • Experiência em ambientes cloud (AWS, GCP ou Azure)
  • Conhecimento em versionamento de dados e MLOps é um diferencial
  • Prática com bancos SQL (PostgreSQL, MySQL) e NoSQL (BigQuery, DynamoDB)
  • Familiaridade com pipelines voltados a Machine Learning


O que esperamos de você

  • Experiência com feature stores para IA
  • Conhecimento em DataOps/MLOps e automação de pipelines
  • Vivência com arquiteturas orientadas a eventos e processamento em tempo real
  • Atuação prévia em projetos de IA ou sistemas de recomendação
  • Pensamento analítico com foco em soluções práticas
  • Boa comunicação e colaboração com times multidisciplinares
  • Autonomia e proatividade em projetos complexos
  • Comprometimento com qualidade, segurança e responsabilidade no uso dos dados


Na Covalenty, você vai encontrar:

  • Desafios técnicos com impacto real no mercado de saúde
  • Um time colaborativo, com espaço para inovação, autonomia e crescimento
  • Cultura de aprendizado contínuo, com rituais leves e foco em resultado
  • Ambiente ágil, dinâmico e em constante evolução


Quer fazer parte dessa jornada?

#VemPraCovalenty


Desculpe, este trabalho não está disponível em sua região
Seja o primeiro a saber

Sobre o mais recente Senior data engineer Empregos em Duque de caxias !

Senior Data Engineer

Nova Iguaçu, Rio de Janeiro Covalenty

Hoje

Trabalho visualizado

Toque novamente para fechar

Descrição Do Trabalho

Sobre a Covalenty

Somos um SaaS-enabled B2B marketplace que conecta farmácias independentes aos seus fornecedores, ajudando a cadeia de suprimentos farmacêutica a ser mais eficiente, inteligente e integrada. Nosso propósito é garantir que o estoque ideal esteja no lugar certo, na hora certa — da indústria à farmácia.


Senior Data Engineer


Na Covalenty , estamos transformando o jeito que pequenas farmácias compram, crescem e se tornam mais competitivas, por meio de tecnologia, inteligência de dados e soluções reais. Se você busca liderar com propósito, gerar impacto e trabalhar com times talentosos em uma startup em expansão — essa vaga é pra você!


Sobre a vaga

Buscamos uma pessoa Data Engineer Sênior para estruturar, escalar e manter pipelines de dados voltados a projetos de Inteligência Artificial e Machine Learning, dando suporte também às decisões estratégicas da empresa. A pessoa atuará como elo entre os times de Data Science, Engenharia e Produto, construindo arquiteturas robustas e eficientes.


Principais Responsabilidades

  • Projetar, construir e manter pipelines de dados escaláveis e performáticos (ETL/ELT)
  • Trabalhar com arquiteturas modernas em cloud (AWS, GCP ou Azure)
  • Criar e manter data lakes, feature stores e fluxos de dados para modelagem preditiva
  • Desenvolver integrações entre fontes de dados estruturados, semi e não estruturados
  • Apoiar a construção de bases de dados para treinamento e inferência de modelos
  • Garantir boas práticas de engenharia, segurança e governança de dados
  • Monitorar e otimizar pipelines e ambientes de dados em larga escala


Requisitos Desejáveis

  • Experiência sólida com engenharia de dados em ambientes complexos
  • Domínio em Python, SQL e manipulação de grandes volumes de dados
  • Experiência com ferramentas de orquestração (Airflow, Prefect, dbt)
  • Vivência com Big Data (Apache Spark, Kafka, Hadoop)
  • Experiência em ambientes cloud (AWS, GCP ou Azure)
  • Conhecimento em versionamento de dados e MLOps é um diferencial
  • Prática com bancos SQL (PostgreSQL, MySQL) e NoSQL (BigQuery, DynamoDB)
  • Familiaridade com pipelines voltados a Machine Learning


O que esperamos de você

  • Experiência com feature stores para IA
  • Conhecimento em DataOps/MLOps e automação de pipelines
  • Vivência com arquiteturas orientadas a eventos e processamento em tempo real
  • Atuação prévia em projetos de IA ou sistemas de recomendação
  • Pensamento analítico com foco em soluções práticas
  • Boa comunicação e colaboração com times multidisciplinares
  • Autonomia e proatividade em projetos complexos
  • Comprometimento com qualidade, segurança e responsabilidade no uso dos dados


Na Covalenty, você vai encontrar:

  • Desafios técnicos com impacto real no mercado de saúde
  • Um time colaborativo, com espaço para inovação, autonomia e crescimento
  • Cultura de aprendizado contínuo, com rituais leves e foco em resultado
  • Ambiente ágil, dinâmico e em constante evolução


Quer fazer parte dessa jornada?

#VemPraCovalenty


Desculpe, este trabalho não está disponível em sua região

Senior Data Engineer

Duque de Caxias, Rio de Janeiro Zartis

Publicado há 2 dias atrás

Trabalho visualizado

Toque novamente para fechar

Descrição Do Trabalho

The company and our mission:


Zartis is a digital solutions provider working across technology strategy, software engineering and product development.

We partner with firms across financial services, MedTech, media, logistics technology, renewable energy, EdTech, e-commerce, and more. Our engineering hubs in EMEA and LATAM are full of talented professionals delivering business success and digital improvement across application development, software architecture, CI/CD, business intelligence, QA automation, and new technology integrations.


We are looking for a Data Engineer to work on a project in the Technology industry.


The project:


Our teammates are talented people that come from a variety of backgrounds. We’re committed to building an inclusive culture based on trust and innovation.

You will be part of a distributed team developing new technologies to solve real business problems. Our client empowers organizations to make smarter, faster decisions through the seamless integration of strategy, technology, and analytics. They have helped leading brands harness their marketing, advertising, and customer experience data to unlock insights, enhance performance, and drive digital transformation.

We are looking for someone with good communication skills, ideally with experience making decisions, being proactive, used to building software from scratch, and with good attention to detail.


What you will do:


  • Designing performant data pipelines for the ingestion and transformation of complex datasets into usable data products.
  • Building scalable infrastructure to support hourly, daily, and weekly update cycles.
  • Implementing automated QA checks and monitoring systems to catch data anomalies before they reach clients.
  • Re-architecting system components to improve performance or reduce costs.
  • Supporting team members through code reviews and collaborative development.
  • Building enterprise-grade batch and real-time data processing pipelines on AWS, with a focus on serverless architectures.
  • Designing and implementing automated ELT processes to integrate disparate datasets.
  • Collaborating across multiple teams to ingest, extract, and process data using Python, R, Zsh, SQL, REST, and GraphQL APIs.
  • Transforming clickstream and CRM data into meaningful metrics and segments for visualization.
  • Creating automated acceptance, QA, and reliability checks to ensure business logic and data integrity.
  • Designing appropriately normalized schemas and making informed decisions between SQL and NoSQL solutions.
  • Optimizing infrastructure and schema design for performance, scalability, and cost efficiency.
  • Defining and maintaining CI/CD and deployment pipelines for data infrastructure.
  • Containerizing and deploying solutions using Docker and AWS ECS.
  • Proactively identifying and resolving data discrepancies, and implementing safeguards to prevent recurrence.
  • Contributing to documentation, onboarding materials, and cross-team enablement efforts.


What you will bring:


  • Bachelor’s degree in Computer Science, Software Engineering, or a related field; additional training in statistics, mathematics, or machine learning is a strong plus.
  • 5+ years of experience building scalable and reliable data pipelines and data products in a cloud environment (AWS preferred).
  • Deep understanding of ELT processes and data modeling best practices.
  • Strong programming skills in Python or a similar scripting language.
  • Advanced SQL skills, with intermediate to advanced experience in relational database design.
  • Familiarity with joining and analyzing large behavioral datasets, such as Adobe and GA4 clickstream data.
  • Excellent problem-solving abilities and strong attention to data accuracy and detail.
  • Proven ability to manage and prioritize multiple initiatives with minimal supervision.


Nice to have:


  • Experience working with data transformation tools such as Data Build Tool or similar technologies.
  • Familiarity with Docker containerization and orchestration.
  • Experience in API design or integration for data pipelines.
  • Development experience in a Linux or Mac environment.
  • Exposure to data QA frameworks or observability tools (e.g., Great Expectations, Monte Carlo, etc.).


What we offer:


  • 100% Remote Work
  • WFH allowance: Monthly payment as financial support for remote working.
  • Career Growth: We have established a career development program accessible for all employees with a 360º feedback that will help us to guide you in your career progression.
  • Training: For Tech training at Zartis, you have time allocated during the week at your disposal. You can request from a variety of options, such as online courses (from Pluralsight and Educative.io, for example), English classes, books, conferences, and events.
  • Mentoring Program: You can become a mentor in Zartis or you can receive mentorship, or both.
  • Zartis Wellbeing Hub (Kara Connect) : A platform that provides sessions with a range of specialists, including mental health professionals, nutritionists, physiotherapists, fitness coaches, and webinars with such professionals as well.
  • Multicultural working environment: We organize tech events, webinars, parties, and activities to do online team-building games and contests.
Desculpe, este trabalho não está disponível em sua região

Senior Data Engineer

São Gonçalo, Rio de Janeiro Zartis

Publicado há 2 dias atrás

Trabalho visualizado

Toque novamente para fechar

Descrição Do Trabalho

The company and our mission:


Zartis is a digital solutions provider working across technology strategy, software engineering and product development.

We partner with firms across financial services, MedTech, media, logistics technology, renewable energy, EdTech, e-commerce, and more. Our engineering hubs in EMEA and LATAM are full of talented professionals delivering business success and digital improvement across application development, software architecture, CI/CD, business intelligence, QA automation, and new technology integrations.


We are looking for a Data Engineer to work on a project in the Technology industry.


The project:


Our teammates are talented people that come from a variety of backgrounds. We’re committed to building an inclusive culture based on trust and innovation.

You will be part of a distributed team developing new technologies to solve real business problems. Our client empowers organizations to make smarter, faster decisions through the seamless integration of strategy, technology, and analytics. They have helped leading brands harness their marketing, advertising, and customer experience data to unlock insights, enhance performance, and drive digital transformation.

We are looking for someone with good communication skills, ideally with experience making decisions, being proactive, used to building software from scratch, and with good attention to detail.


What you will do:


  • Designing performant data pipelines for the ingestion and transformation of complex datasets into usable data products.
  • Building scalable infrastructure to support hourly, daily, and weekly update cycles.
  • Implementing automated QA checks and monitoring systems to catch data anomalies before they reach clients.
  • Re-architecting system components to improve performance or reduce costs.
  • Supporting team members through code reviews and collaborative development.
  • Building enterprise-grade batch and real-time data processing pipelines on AWS, with a focus on serverless architectures.
  • Designing and implementing automated ELT processes to integrate disparate datasets.
  • Collaborating across multiple teams to ingest, extract, and process data using Python, R, Zsh, SQL, REST, and GraphQL APIs.
  • Transforming clickstream and CRM data into meaningful metrics and segments for visualization.
  • Creating automated acceptance, QA, and reliability checks to ensure business logic and data integrity.
  • Designing appropriately normalized schemas and making informed decisions between SQL and NoSQL solutions.
  • Optimizing infrastructure and schema design for performance, scalability, and cost efficiency.
  • Defining and maintaining CI/CD and deployment pipelines for data infrastructure.
  • Containerizing and deploying solutions using Docker and AWS ECS.
  • Proactively identifying and resolving data discrepancies, and implementing safeguards to prevent recurrence.
  • Contributing to documentation, onboarding materials, and cross-team enablement efforts.


What you will bring:


  • Bachelor’s degree in Computer Science, Software Engineering, or a related field; additional training in statistics, mathematics, or machine learning is a strong plus.
  • 5+ years of experience building scalable and reliable data pipelines and data products in a cloud environment (AWS preferred).
  • Deep understanding of ELT processes and data modeling best practices.
  • Strong programming skills in Python or a similar scripting language.
  • Advanced SQL skills, with intermediate to advanced experience in relational database design.
  • Familiarity with joining and analyzing large behavioral datasets, such as Adobe and GA4 clickstream data.
  • Excellent problem-solving abilities and strong attention to data accuracy and detail.
  • Proven ability to manage and prioritize multiple initiatives with minimal supervision.


Nice to have:


  • Experience working with data transformation tools such as Data Build Tool or similar technologies.
  • Familiarity with Docker containerization and orchestration.
  • Experience in API design or integration for data pipelines.
  • Development experience in a Linux or Mac environment.
  • Exposure to data QA frameworks or observability tools (e.g., Great Expectations, Monte Carlo, etc.).


What we offer:


  • 100% Remote Work
  • WFH allowance: Monthly payment as financial support for remote working.
  • Career Growth: We have established a career development program accessible for all employees with a 360º feedback that will help us to guide you in your career progression.
  • Training: For Tech training at Zartis, you have time allocated during the week at your disposal. You can request from a variety of options, such as online courses (from Pluralsight and Educative.io, for example), English classes, books, conferences, and events.
  • Mentoring Program: You can become a mentor in Zartis or you can receive mentorship, or both.
  • Zartis Wellbeing Hub (Kara Connect) : A platform that provides sessions with a range of specialists, including mental health professionals, nutritionists, physiotherapists, fitness coaches, and webinars with such professionals as well.
  • Multicultural working environment: We organize tech events, webinars, parties, and activities to do online team-building games and contests.
Desculpe, este trabalho não está disponível em sua região

Locais próximos

Outros empregos perto de mim

Indústria

  1. workAdministrativo
  2. ecoAgricultura e Florestas
  3. schoolAprendizagem e Estágios
  4. apartmentArquitetura
  5. paletteArtes e Entretenimento
  6. paletteAssistência Médica
  7. diversity_3Assistência Social
  8. diversity_3Atendimento ao Cliente
  9. flight_takeoffAviação
  10. account_balanceBanca e Finanças
  11. spaBeleza e Bem-Estar
  12. shopping_bagBens de grande consumo (FMCG)
  13. restaurantCatering
  14. point_of_saleComercial e Vendas
  15. shopping_cartCompras
  16. constructionConstrução
  17. supervisor_accountConsultoria de Gestão
  18. person_searchConsultoria de Recrutamento
  19. person_searchContábil
  20. brushCriativo e Digital
  21. currency_bitcoinCriptomoedas e Blockchain
  22. child_friendlyCuidados Infantis
  23. shopping_cartE-commerce e Redes Sociais
  24. schoolEducação e Ensino
  25. boltEnergia
  26. medical_servicesEnfermagem
  27. foundationEngenharia Civil
  28. electrical_servicesEngenharia Eletrotécnica
  29. precision_manufacturingEngenharia Industrial
  30. buildEngenharia Mecânica
  31. scienceEngenharia Química
  32. biotechFarmacêutico
  33. gavelFunção Pública
  34. gavelGerenciamento
  35. gavelGerenciamento de Projetos
  36. gavelHotelaria e Turismo
  37. smart_toyIA e Tecnologias Emergentes
  38. home_workImobiliário
  39. handymanInstalação e Manutenção
  40. gavelJurídico
  41. gavelLazer e Esportes
  42. clean_handsLimpeza e Saneamento
  43. inventory_2Logística e Armazenamento
  44. inventory_2Manufatura e Produção
  45. campaignMarketing
  46. local_hospitalMedicina
  47. local_hospitalMídia e Relações Públicas
  48. constructionMineração
  49. medical_servicesOdontologia
  50. sciencePesquisa e Desenvolvimento
  51. local_gas_stationPetróleo e Gás
  52. emoji_eventsRecém-Formados
  53. groupsRecursos Humanos
  54. securitySegurança da Informação
  55. local_policeSegurança Pública
  56. policySeguros
  57. diversity_3Serviços Sociais
  58. directions_carSetor Automotivo
  59. wifiTelecomunicações
  60. psychologyTerapia
  61. codeTI e Software
  62. local_shippingTransporte
  63. local_shippingVarejo
  64. petsVeterinária
Ver tudo Senior data engineer Empregos Ver todas as vagas em Duque de Caxias