12.547 Empregos para Ciência De Dados - Brasil
Especialista i ciencia de dados rp
Hoje
Trabalho visualizado
Descrição Do Trabalho
RP - VAGA PARA O SISTEMA FIEB (Salvador)
OverviewDetalhamento do perfil: O profissional será responsável por desenvolver, manter e orquestrar pipelines automatizados para extração, transformação, limpeza e carga de dados oriundos de diversas fontes e formatos; criar e estruturar armazenamento de dados em camadas escaláveis e de alta disponibilidade, que sirvam como fonte de dados para treinamento de modelos de IA ou de consultas de informações para grandes modelos de linguagens; interagir com o time de engenheiro de machine learning, cientistas de dados, engenheiros de prompts e desenvolvedores de software; criar arquiteturas para processamento de dados em batch e stream.
Requisitos da Vaga- Escolaridade: Ensino Médio Completo, desejável Ensino Superior Completo em Ciência da Computação, Engenharia da Computação ou Sistema de Informação
- Conhecimentos técnicos e experiência exigida: Conhecimento em Python, C/C++, banco de dados relacionais, SQL, ferramentas de versionamento de código (Git); Conhecimento em ETL e Estruturas de Dados
- Conhecimentos desejáveis: Conhecimento com desenvolvimento backend e integração com API, conceitos de engenharia de software, Machine Learning, Processamento de Linguagem Natural, Engenharia de Prompts, LLMs, DevOps; Conhecimento em inglês
- Etapas do processo seletivo: Avaliação Curricular (candidatos inscritos na vaga)
- Entrevista de Recrutamento (com os candidatos mais alinhados ao processo seletivo)
- Dinâmica de Grupo (com os candidatos que avançaram no processo de recrutamento)
- Avaliação Psicológica (com os candidatos que avançaram na dinâmica de grupo)
- Realização de prova técnica ou prática e/ou redação
- Entrevista Técnica (individual)
- Feedback
- OBS: As etapas serão definidas de acordo com cada processo, com ocorrência mínima de 3 etapas.
- OBS 2: Os candidatos participantes recebem o feedback em todas as etapas do processo seletivo.
Big Data Specialist
Hoje
Trabalho visualizado
Descrição Do Trabalho
**Job Title:** Data Engineer
We are seeking a skilled Data Engineer to join our team.
Project Overview:- The modernization and development of an eCommerce platform for a leading retail company serving millions of customers across the globe.
- Design and implement a solution to support big data processing and integrate it with the current architecture.
- Expertise in Azure Data Factory, Synapse Analytics, and Databricks.
- Knowledge of Microsoft Azure services including Azure Data Lake Storage, Synapse Analytics, Data Factory, and Databricks.
- Ability to integrate data from disparate sources, design data warehousing solutions, and perform complex SQL queries.
- Experience with Elasticsearch, containerization, and orchestration technologies.
- Troubleshooting and performance tuning expertise, strong collaboration and communication skills.
English: B2 Upper Intermediate
Big Data Specialist
Hoje
Trabalho visualizado
Descrição Do Trabalho
Big Data Specialist
We are seeking a seasoned professional to craft and maintain scalable data pipelines.
Key Responsibilities:- Design, optimize, and execute ETL processes with AWS Glue.
- Collaborate on data workflows integrating Salesforce, APIs, and AI/ML initiatives via AWS S3, Glue, and SageMaker.
- Develop Python and SQL-based solutions.
- AWS (S3, Glue, SageMaker)
- Python, SQL
- Salesforce, APIs
- Proven experience in data engineering with AWS.
- Strong proficiency in Python + SQL.
- Experience with ETL, data modeling, pipeline optimization.
Professional English required for international collaboration.
Prodemge - ciencia de dados -belo horizonte - mg 11628
Publicado há 2 dias atrás
Trabalho visualizado
Descrição Do Trabalho
- Estar cursando a partir do 3° ao 5 período
- Pacote Office básico
- Residir em Belo Horizonte - MG.
- CONTRUÇÃO DE MÓDULOS e/ou MODELOS DE ALGORITMOS PARA EXTRAÇÃO DE VALOR E INFORMAÇÕES A PARTIR DE DADOS DE SISTEMAS TRANSACIONAIS DE INFORMAÇÃO EM LINGUAGEM PYTHON e/ou R e seus FRAMEWORKS
- REALIZAR INGESTÃO DE DADOS, TRATAMENTO, LIMPEZA, ANÁLISE DE DADOS. OUTRAS ATIVIDADES REALCIONADAS A DADOS OU OUTRAS ATIVIDADE INERENTES AO PROCESSO DE DESENVOLVIMENTO DE SISTEMA DE INFORMAÇÃO
- CONSTRUÇÃO E MANUTENÇÃO DE MODULOS OU MODELOS DE ALGORITMOS PARA EXTRAÇÃO DE VALOR E INFORMAÇÃO EM BASES DE DADOS ou DATALAKE (CLOUDERA, MYSQL, ORACLE, outros)
- EXTRAÇÃO DE INFORMAÇÃO COM SQL, PRÁTICAS DE EXTRAÇÃO, TRANSFORMAÇÃO E CARGA DE DADOS (ETL, ELT)
- DETALHAMENTO DE REQUISITOS - UML e/ou HISTORIA DE USUÁRIO
- DESENVOLVIMENTO DE ROTINAS, VIEWS OU FUNÇÕES EM BANCO DE DADOS (Ex.: Stored Procedure Oracle ou Mysql, etc)
- TESTES EM SISTEMAS/ROTINAS, TESTES EM MODELOS DE ALGORITMOS
Consultor big data sr
Publicado há 2 dias atrás
Trabalho visualizado
Descrição Do Trabalho
Remoto, se necessário comparecer no cliente.
Imediato
Requisitos:
Conhecimento em databrics.
Hadoop engineer -big data
Publicado há 2 dias atrás
Trabalho visualizado
Descrição Do Trabalho
Resumo da Função:
Na ExxonMobil, nossa visão é liderar em inovações energéticas que promovam a vida moderna e um futuro líquido zero. Como uma das maiores empresas de energia e química de capital aberto do mundo, somos impulsionados por uma força de trabalho única e diversificada, movida pelo orgulho do que fazemos e do que defendemos. O sucesso de nossos negócios Upstream, downstream, midstream, Soluções de Produtos e Soluções de Baixo Carbono é o resultado do talento, curiosidade e motivação de nossos funcionários. Eles trazem soluções todos os dias para otimizar nossa estratégia em energia, produtos químicos, lubrificantes e tecnologias de baixa emissão.
Com isso, junte-se à equipe para resolver alguns dos problemas de energia mais difíceis em termos de enorme escala e complexidade de análises de big data na ExxonMobil.
Desenvolver e dar suporte a pipelines de dados/feeds ETL/aplicativos, como leitura de dados de fontes externas, mesclagem de dados, transformação de dados, execução de enriquecimento de dados e carregamento em destinos de dados alvo, permitindo casos de uso de análise.
Trabalhar com projetos e equipes técnicas para fornecer suporte técnico e experiência em desenvolvimento para pipeline de dados geral, fluxos de trabalho Hadoop Spark, soluções de big data e implementar modelos de dados em um portfólio diversificado.
Principais funções do trabalho:
Projetar, desenvolver e manter pipelines de processamento de dados escaláveis usando Hadoop e Spark.
Implementar integração de dados e processos ETL para ingerir e transformar grandes conjuntos de dados.
Colaborar com cientistas de dados, analistas, parceiros de negócios e outras partes interessadas para entender os requisitos de dados e fornecer soluções.
Otimizar e ajustar trabalhos Hadoop e Spark para desempenho e eficiência.
Gerenciar e manter soluções de armazenamento de dados, garantindo integridade e segurança dos dados.
Utilizar o GitHub para controle de versão e colaboração no desenvolvimento de código.
Trabalhar com CDP (Cloudera Data Platform) para gerenciar e implantar aplicativos de dados.
Integrar e gerenciar soluções de dados no Cloud Azure e Snowflake, garantindo fluxo de dados e acessibilidade contínuos.
Monitorar e solucionar problemas de fluxos de trabalho de processamento de dados, resolvendo problemas prontamente.
Manter-se atualizado com as últimas tendências e tecnologias do setor em big data e computação em nuvem.
Explorar e desenvolver habilidades em tecnologias mais recentes de acordo com o roteiro de tecnologia de big data.
Integrar e gerenciar soluções de dados no Cloud Azure e na infraestrutura local, garantindo fluxo de dados e acessibilidade ininterruptos.
Requisitos da vaga:
Graduação mínima de bacharelado em Ciência da Computação ou equivalente em universidade reconhecida; GPA mínimo - 6,5 (de 10,0).
5 a 8 anos de experiência geral em TI, com pelo menos 3 anos de experiência trabalhando com Hadoop
. Habilidades técnicas:
Tecnologias de Big Data: Experiência comprovada com Apache Spark e o ecossistema Hadoop.
Linguagens de programação: Fortes habilidades de codificação e programação em Scala, Java e/ou Python.
Experiência aplicada com Hive, Iceberg e Hbase.
Experiência aplicada com Solr.
Experiência com Apache Kafka e Spark Streaming ou Apache Flink.
Experiência com Oozie e bom ter airflow.
Familiaridade com Azure DevOps (bom ter, mas não obrigatório).
Familiaridade com SQL (bom ter).
Familiaridade com Git/GitHub.
Experiência em sistemas UNIX ou semelhantes a UNIX.
Experiência com SCRUM ou outra estrutura Agile semelhante.
Inglês avançado
Habilidades secundárias:
Bom ter conhecimento de NIFI.
Bom ter experiência em nuvem como Azure e AWS.
Familiaridade com GitHub e GitHub Action.
Experiência com SCRUM ou outra estrutura Agile semelhante
Autodidata e colaborador individual.
Fortes habilidades de resolução de problemas.
Capaz de criar documentação técnica para os casos de uso.
Bom ter habilidades de modelagem de dados.
Bom ter conhecimento do domínio de energia (petróleo e gás).
Habilidades interpessoais
Boas habilidades de comunicação verbal e escrita.
Autoiniciador e trabalhador independente.
Fortes habilidades analíticas e de resolução de problemas.
Capacidade de trabalhar com parceiros de negócios e partes interessadas e desenvolver fluxos de trabalho contínuos.
Capacidade de interagir com clientes, parceiros de tecnologia, grupos de teste, arquitetura e análise
Desenvolvedor de Big Data
Hoje
Trabalho visualizado
Descrição Do Trabalho
A empresa onde você vai trabalhar é uma liderança global, presente há mais de 30 anos no mercado. Com quase duas décadas e meia na América do Sul, temos conquistado mais de 60 clientes em diferentes setores da economia.
Nossos serviços incluem contratação temporária, TI e complementação de força de trabalho. Estamos entre as primeiras empresas a oferecer esses serviços exclusivos, que combinam escala global, projetos completos e agilidade tática para modernizar modelos de contratação.
O que podemos oferecer:
Pessoas são o nosso maior capital. Temos compromisso de atrair e reter os melhores talentos e construir conexões duradouras com eles.
Requisitos Técnicos:
- Bacharelado em Ciência da Computação ou áreas correlatas
- Experiência: 5 a 8+ anos em TI, com pelo menos 3 anos em ambientes Hadoop
- Linguagens: Scala, Java e/ou Python
- Ferramentas e tecnologias: Apache Spark, Hadoop Ecosystem, Hive, Iceberg, HBase, Solr, Kafka, Spark Streaming ou Apache Flink, Oozie, Git, GitHub, DevOps, Cloud: Experiência com Azure
Responsabilidades Principais:
Seja o primeiro a saber
Sobre o mais recente Ciência de dados Empregos em Brasil !
Big Data Solutions Architect
Hoje
Trabalho visualizado
Descrição Do Trabalho
Job Summary:
We are seeking a highly skilled Data Engineer to join our team. The ideal candidate will have experience in designing and implementing big data processing solutions, integrating them with current architecture, and leading distributed teams.
- The successful candidate will work on modernizing, maintaining and developing an eCommerce platform for millions of customers each week.
Key Responsibilities:
- Designing efficient data models for storage and retrieval.
- Implementing ETL/ELT pipelines and integrating data from various sources.
- Developing robust and scalable data warehousing solutions using dimensional modeling and star schemas.
Requirements:
- 3+ years of experience with Azure Data Factory and Synapse.
- Leading distributed teams and designing conceptual, logical and physical data models.
- Proficiency in Microsoft Azure including Data Lake Storage, Synapse Analytics, Data Factory, Databricks and pySpark.
- Experience with metadata and governance processes in cloud-based data platforms.
Benefits:
- Cloud-based analytical databases experience.
- MI, Database for Postgres, Cosmos DB, Analysis Services, Informix experience.
- Python and Python-based ETL tools experience.
Nice-to-Have Skills:
- Elasticsearch experience.
- Familiarity with containerization and orchestration technologies.
- Troubleshooting and Performance Tuning: Identifying and resolving performance bottlenecks.
Languages:
English: B2 Upper Intermediate
Senior Big Data Developer
Hoje
Trabalho visualizado
Descrição Do Trabalho
We are seeking an experienced Senior Big Data Developer to design and implement big data processing solutions while integrating them with the existing architecture.
Chief Big Data Architect
Hoje
Trabalho visualizado
Descrição Do Trabalho
We are seeking an experienced Data Engineer to design and implement a solution for processing big data volumes and integrating it with our current architecture.
Mandatory Skills:- Azure Data Factory and Synapse expertise (3+ years) is required.
- Experience in leading a distributed team.
- Strong knowledge of Microsoft Azure, including Azure Data Lake Storage, Azure Synapse Analytics, Azure Data Factory, and Azure Databricks.
- Extensive experience with ETL/ELT pipelines to extract, transform, and load data from various sources into data lakes or data warehouses.
- Ability to integrate data from disparate sources using API integration or message queuing.
- Proficiency in designing and implementing data warehousing solutions (dimensional modeling, star schemas, Data Mesh).
- Proficiency in SQL to perform complex queries, data transformations, and performance tuning on cloud-based data storages.
- Experience with Elasticsearch.
- Familiarity with containerization and orchestration technologies (Docker, Kubernetes).
- Troubleshooting and Performance Tuning: Ability to identify and resolve performance bottlenecks in data processing workflows and optimize data pipelines for efficient data ingestion and analysis.
Note: Only candidates with relevant experience will be considered. Please ensure you meet the minimum requirements before applying.