Vagas Data Science

20 vagas de Data Science encontradas

[REMOTO] Analista de Dados (GCP)
• Remoto

https://datalakers.rhstorm.com.br/vagas/analista-de-dados-gcp/c30c9e33-d014-4568-9090-45f44d6959ff
Descrição:
Buscamos uma pessoa capaz de transformar dados em estratégia, com facilidade para transitar entre times técnicos e de negócio, conectando necessidades a soluções estruturadas e escaláveis. O foco da vaga é analisar e compreender produtos digitais, estruturando a ingestão e disponibilização desses dados no datalake para apoiar análises em um cliente do setor da saúde.


Valorizamos alguém com boa capacidade de organização, planejamento de escopo e execução das atividades de análise e especificação, garantindo entregas claras e consistentes para o time de engenharia realizar a implementação.


Requisitos:
Obrigatório:


Experiência com SQL e modelagem de dados (relacional e dimensional) em torno de 2 a 3 anos de experiência.
Conhecimento em arquiteturas de dados modernas e ambientes em nuvem (GCP - mínimo 1 ano).
Capacidade analítica e visão de negócio para traduzir métricas em impacto.
Vivência com gestão de backlog, priorização de demandas e comunicação entre áreas.
Boa comunicação e perfil colaborativo para atuar como ponte entre tecnologia e negócio.
Pró-atividade, capacidade de trabalhar em equipe, organização, e respeitar prazos
Capacidade de planejar escopo e execução das atividades de análise e especificação para time de Engenharia de Dados


Desejável:


Experiência com integração de sistemas via API (XML, JSON, etc.).
Experiência com DB NoSQL.
Experiência com ferramentas de orquestração e integração (Airflow, Composer, BigQuery).
Conhecimento em outros ambientes clouds além de GCP, especialmente AWS e seus serviços


Atribuições:
Atuar na interface entre o negócio e o time de engenharia de dados, compreendendo as demandas estratégicas e traduzindo-as em requisitos técnicos.
Avaliar necessidades de integração entre sistemas/ferramentas e o datalake, sejam via BD SQL e NoSQL, API, SFTP, entre outras.
Planejar e gerenciar o backlog de dados, garantindo priorização, clareza e alinhamento com as áreas envolvidas.
Criar e otimizar modelos de dados e pipelines, assegurando qualidade, governança e consistência das informações.
Escrever e revisar queries SQL complexas para análises, integrações e suporte à tomada de decisão.
Apoiar a construção de dashboards e indicadores que analisam questões sobre FINOPS.
Colaborar com engenheiros de dados e analistas de BI na criação de soluções em nuvem (GCP).
Realizar a modelagem dimensional (fatos e dimensões) dos dados.
Informações Adicionais:
O que oferecemos para você crescer junto com a gente:


🎓 Programa de Certificações para apoiar seu desenvolvimento técnico.


🚀 Programa de Formação de Lideranças para quem busca evoluir na carreira como líder.


📈 Plano de Desenvolvimento Individual estruturado, personalizado e contínuo.


📚 Descontos em cursos de graduação e pós-graduação da PUCRS, ampliando suas oportunidades de aprendizado.


💬 Encontros para troca de conhecimento com colegas da equipe.


🤝 Rede interna com especialistas em dados, fortalecendo seu networking.


🏆 Programa de incentivo à criação de conteúdos, premiando quem compartilha conhecimento nas redes da empresa.


[Quero me candidatar]


https://datalakers.rhstorm.com.br/vagas/analista-de-dados-gcp/c30c9e33-d014-4568-9090-45f44d6959ff

[REMOTO] Engenheiro de Dados (GCP)
• Remoto

https://datalakers.rhstorm.com.br/vagas/engenheiro-de-dados-gcp/a6f5bd12-f718-4772-937e-6b2ec5a14059


Descrição:
Buscamos um(a) Engenheiro(a) de Dados para atuar em um cliente da área da saúde para implementar pipelines no ambiente GCP usando Composer, Dataproc e BigQuery. Entre os principais desafios, deve definir e implementar pipelines de arquitetura de dados, importação, armazenamento, processamento e visualização.


Requisitos:
Obrigatório:


Experiência em desenvolvimento de pipelines de ELT/ETL.
Experiência em PySpark.
Experiência em SQL.
Experiência em GCP (Airflow/Composer, Dataproc e Bigquery).
Conhecimento em Apache Spark.
Experiência em linguagem de programação Python.
Familiaridade com práticas de processamento em Batch e Streaming.
Superior completo em Ciência da Computação, Sistemas de Informação, TI e áreas afins.
Pró-atividade, capacidade de trabalhar em equipe, organização, planejamento e respeitar prazos.


Desejável:


Certificação GCP Data Engineer.
Atribuições:
Desenvolver pipelines de processamento de dados para ingestão, transformação e carga em tempo hábil e eficiente;
Implementar e manter integração contínua, visando à automação de processos e melhoria de desempenho.
Colaborar ativamente com o time multidisciplinar para entender as demandas de dados e entregar soluções alinhadas com as necessidades do negócio.
Realizar análises de performance dos processos e propor otimizações para garantir a escalabilidade e confiabilidade das soluções de engenharia de dados.
Informações Adicionais:
Informações Adicionais:O que oferecemos para você crescer junto com a gente:


🎓 Programa de Certificações para apoiar seu desenvolvimento técnico.


🚀 Programa de Formação de Lideranças para quem busca evoluir na carreira como líder.


📈 Plano de Desenvolvimento Individual estruturado, personalizado e contínuo.


📚 Descontos em cursos de graduação e pós-graduação da PUCRS, ampliando suas oportunidades de aprendizado.


💬 Encontros para troca de conhecimento com colegas da equipe.


🤝 Rede interna com especialistas em dados, fortalecendo seu networking.


🏆 Programa de incentivo à criação de conteúdos, premiando quem compartilha conhecimento nas redes da empresa.

[Hibrido em Savassi - BH 1x p/ semana] Analista de BI Pleno/Sênior - PJ 6,5k - 9k

Estamos em busca de um(a) Analista de BI nível Pleno para integrar nosso time de Dados. A atuação será em modelo híbrido, com um dia presencial por semana no bairro Savassi, em Belo Horizonte, alocado em um de nossos clientes. Será responsável por desenvolver relatórios, indicadores e dashboards voltados para as áreas de negócio do cliente, contribuindo diretamente para a tomada de decisões estratégicas.


O que você vai fazer (responsabilidades)


-Construir, manter e otimizar consultas SQL para extração, manipulação e análise de dados.
-Desenvolver dashboards e relatórios gerenciais (preferencialmente Looker; Power BI aceitável).
-Disponibilizar dados e informações em relatórios acessíveis, facilitando a tomada de decisão.
-Trabalhar com times técnicos e de negócio para entender necessidades e propor soluções eficientes.
-Interagir com plataformas Google para coleta, análise e visualização de dados.


Local


Hibrido em Savassi - Belo Horizonte 1x p/ semana


Benefícios


Diferenciais


🚀 Crescimento de carreira (feedbacks para desenvolvimento pessoal + certificações GCP)
🧠 Tecnologias atuais
⏰ Horários flexíveis
🤝 Time colaborativo
💸 Bonificação por indicação de novos colaboradores


Requisitos


Stack principal


-Experiência sólida e comprovada com linguagem MySQL e BigQuery.
-Experiência prática em pelo menos uma ferramenta de BI (Looker ou Power BI).
-Boas práticas de modelagem de dados e ETL.
-Experiência com ferramentas e soluções Google.


Obrigatórios:


-Possui equipamento próprio
-Disponibilidade para atuação hibrida em Savassi - Belo Horizonte


Desejáveis:


Diferenciais:


Contratação


Contratação e requisitos


Contratação PJ com remuneração p/hora trabalhada entre R$36,93 - R$51,13/h (A proposta inicial mensal é de aproximadamente R$6.500 e R$9.000)


Nossa empresa


A Minds Digital é uma IDTech especializada em biometria de voz, por meio da nossa inteligência artificial conseguimos autenticar e identificar a sua voz. Com ela as pessoas se tornam únicas, exclusivas e insubstituíveis. Além dessa tecnologia inovadora, trabalhamos também como Outsourcing com a responsabilidade de ajudar desenvolver toda área de TI, com soluções em nuvem para o nosso cliente.


Como se candidatar


Faça sua inscrição pelo pelo formulário acessando o link: https://forms.gle/p83QXvhSZebNZmUK8


Tempo médio de feedbacks


Costumamos enviar feedbacks em até 7 dias após cada processo.
Caso queira falar comigo me chame no LinkedIn:https://www.linkedin.com/in/vitor-albuquerque-rh/


Labels


Alocação


  • Hibrido

Regime


  • PJ

Nível


  • Pleno
  • Sênior
[100% Remoto] Analista de Dados Sênior
• Remoto

Analista de Dados Sênior (Integrações e Automação)
100% Remoto | Modelo de contratação PJ
Fixo + bônus por desempenho


Se você é movido por desafios e gosta de ver seus projetos ganhando escala real, essa oportunidade foi feita para você.
A empresa atua na fronteira entre mídia, tecnologia e performance digital, desenvolvendo produtos e soluções que unem automação, dados e crescimento exponencial.
Estamos construindo um ecossistema global de plataformas inteligentes e buscamos alguém com mentalidade analítica, curiosa e orientada a entregas — alguém que quer deixar sua marca na construção de algo grande.
Aqui, resultados e autonomia andam juntos: quem entrega, cresce rápido.


Sua missão
Você será a referência técnica em dados e automação, conectando times de Growth, Monetization, Product e Tech.
Seu papel será desenhar e otimizar pipelines, integrações e automações que sustentam toda a operação de mídia e performance da empresa — garantindo uma estrutura escalável, eficiente e totalmente data-driven.


Responsabilidades


  • Projetar, implementar e manter pipelines de dados e automações (n8n, Make, Airflow, Python, APIs).
  • Estruturar e otimizar integrações entre sistemas de marketing, dados e operações (Google Ads, Meta Ads, Ringba, Clevertap, Sendgrid etc.).
  • Construir e monitorar dashboards e modelos analíticos (BigQuery, Looker Studio, Metabase).
  • Desenvolver modelos de atribuição e performance, identificando oportunidades de otimização de ROI.
  • Garantir governança, rastreabilidade e qualidade dos dados em colaboração com os times de produto e tecnologia.
  • Automatizar fluxos operacionais e processos entre squads.
  • Atuar como referência técnica, apoiando analistas plenos e juniores.

Requisitos Técnicos


  • Ampla experiência em Data Engineering / Data Science / Analytics Engineering.
  • Domínio de Python (pandas, airflow, requests, SQLAlchemy).
  • Experiência sólida com ferramentas de automação (n8n, Make, Airflow).
  • Experiência com integrações via APIs REST / Webhooks.
  • SQL avançado, modelagem de dados e ETL/ELT pipelines.
  • Vivência com AWS.
  • Experiência com ferramentas de BI (Looker Studio, Metabase, Power BI).
  • Conhecimento em martech/adtech stacks (Google Ads API, Meta API, Clevertap).

Diferenciais


  • Experiência em performance marketing, adtech ou mídia digital.
  • Conhecimento em Machine Learning aplicado à automação e performance.
  • Vivência com Git, Docker, CI/CD.
  • Inglês avançado (ambiente global)

Cultura e Forma de Trabalho
O ambiente é dinâmico, colaborativo e acelerado — ideal para quem gosta de autonomia, inovação constante e decisões rápidas.
É valorizado:


  • Execução e entrega com impacto real
  • Transparência e aprendizado contínuo
  • Autonomia com responsabilidade
  • Foco em crescimento e resultados concretos

Se você busca um ambiente de alta performance, onde suas entregas ganham escala e reconhecimento, essa é sua chance.
Envie seu currículo para contato@peoplepartner.com.br

[FIRST DECISION] Cientista de Dados Sênior

A First Decision, consultoria especializada em tecnologia e migração de Dados está com uma oportunidade de Cientista de Dados Sênior.


Modalidade: 100% Home Office
Contratação: CLT
Remuneração: R$ Informada no ato da inscrição


Responsabilidades: Desenvolver, analisar, modelar, implementar e avaliar soluções para problemas de negócios, tanto complexos quanto simples, utilizando técnicas estatísticas, matemáticas e computacionais aplicadas ao processamento e visualização de dados. Atuar em colaboração com o time, compartilhando conhecimento e experiências, sempre com foco na necessidade do cliente.


Conhecimentos Técnicos Obrigatórios:


Experiência comprovada com bancos de dados PostgreSQL e MySQL


Domínio da linguagem Python


Experiência com frameworks e bibliotecas Python: Langchain, LangGraph, Pandas, NumPy, OpenAI API


Capacidade de assimilar e implementar modelos inovadores para a ciência de dados


Processamento de linguagem natural (NLP)


Familiaridade com LLMs (Linguistic Language Models), com destaque para GPT


Capacidade de manipular e analisar dados estruturados e não estruturados


Bom conhecimento de ambientes Linux e Shell Script


Familiaridade com Docker e Docker-Compose


Familiaridade com GitLab


Familiaridade com Solr ou algum banco NoSQL


Conhecimentos Técnicos Desejáveis:


Experiência com algoritmos de processamento de linguagem natural


Experiência em sistemas de recomendação


Experiência com Solr


Familiaridade com Nginx


Familiaridade com Grafana


Familiaridade com Prometheus


Experiência com algoritmos de redes neurais profundas


Compreensão de LLMs (Linguistic Language Models)


Conhecimento da aplicação prática do SCRUM


Formação:


Possuir diploma de ensino superior completo nas seguintes áreas de conhecimento (e suas subáreas), de acordo com a classificação da CAPES da plataforma Sucupira:


Matemática (10100008).


Probabilidade e Estatística (10200002).


Ciência da Computação (10300007).


Engenharias (30000009).


Economia (60300000).


Outra área com ênfase substancial em análise de dados


Candidate- se pelo link: https://jobs.recrutei.com.br/first-decision/vacancy/104544-cientista-de-dados-senior


ou envie o seu currículo para o e-mail: ingrid.brandao@firstdecision.com.br (


Informe o meio de divulgação que encontrou a vaga, por gentileza)

[Remote] Data Platform Engineer na Alternative Payments

As our Data Platform Engineer, you will design, provision, and operate the foundational data infrastructure that powers analytics and reporting across the organization. You’ll own everything from spinning up our cloud data warehouse to building the initial ETL pipelines that bring raw data into shape—laying the groundwork for self-service analytics and data-driven decision making.


What You’ll Bring


Cloud & Infrastructure Expertise


  • 5+ years in software or data engineering, with hands-on experience provisioning and maintaining cloud data warehouses (e.g., Snowflake, Amazon Redshift, Google BigQuery)
  • Proficiency with Infrastructure-as-Code tools (Terraform, CloudFormation, Pulumi) to automate data platform deployments

ETL & Data Modeling


  • Strong SQL skills and experience building ETL pipelines in Python or Java/Scala
  • Familiarity with orchestration frameworks (Airflow, Prefect, Dagster) or transformation tools (dbt)
  • Solid understanding of data modeling patterns (star, snowflake schemas) and best practices for partitioning, clustering and indexing

Platform Reliability & Security


  • Experience implementing data quality checks, monitoring (Datadog, Prometheus, Monte Carlo) and alerting for pipelines
  • Knowledge of data governance and security—IAM, encryption at rest/in transit, PII redaction

Collaboration & Documentation


  • Excellent communicator—able to partner with analytics, product and engineering teams to translate requirements into scalable solutions
  • Strong documentation skills to define data platform standards, runbooks and onboarding guides

What You’ll Own


Data Warehouse Provisioning


  • Architect and spin up our production and sandbox data warehouse environments using IaC
  • Define resource sizing, scaling policies and cost-optimization strategies

ETL Pipeline Development


  • Build and deploy the first wave of ETL pipelines to ingest transactional, event and third-party data
  • Implement transformations, schema migrations and incremental workflows

Platform Operations & Monitoring


  • Embed data quality tests and SLA tracking into every pipeline
  • Set up dashboards and alerts to proactively detect failures, latency spikes or data drift

Standards & Enablement


  • Establish coding conventions, pipeline templates and best practices for all future data projects
  • Mentor other engineers and analysts on using the data platform, from query optimization to CI/CD for analytics code

Cross-Functional Partnership


  • Work closely with BI/analytics teams to understand reporting needs and iterate on data models
  • Collaborate with application engineers to identify new data sources and automate their onboarding

About Us:


Alternative Payments is a leading payments platform for service-based companies. Our innovative platform enables businesses to automate the entire accounts receivable process and reduce the overall expense of payment processing. We are dedicated to fostering growth and providing exceptional value to our clients.


Our Values


Transparency & Honesty: We operate with transparency to our customers, investors, and other partners, every step of the way.


Dependability: We are dependable. We do what we say we are going to do and we do not cut corners.


Partnership: We are partners to our customers, investors, and each other, and work together to solve exciting massive problems.


Revolutionary & Boldness: We are revolutionary & bold. We break down barriers and walls to build our own walls in a stronger, safer, and simpler manner.


Diversity & Inclusion: We work together with people of all backgrounds and seek different viewpoints to generate stronger partnerships and create a stronger, more inclusive company and world.


Como se candidatar


Aplique no link: https://www.alternativepayments.io/careers/?ashby_jid=a5e32e9d-dce0-4b04-beba-ae43cf2aeb76


Aceitamos apenas candidatos no Brasil, com currículos em Inglês.


Labels


Alocação


  • Remoto

Regime


  • PJ

Nível


  • Sênior
  • Especialista
[São Paulo] - Senior Data Engineer [AB-Inbev]

About the role


We're seeking a highly skilled and passionate Data Engineer to join our expanding Data Intelligence Platform team. In this pivotal role, you'll be instrumental in architecting, building, and optimizing our data pipelines and overall data architecture. You'll also be crucial in ensuring seamless data flow and collection for various cross-functional teams.


As an ideal candidate, you possess a strong background in constructing robust data pipelines and are adept at data wrangling. You thrive on optimizing data systems and have a knack for building solutions from the ground up. We are a "code-first" Data Engineering team, meaning we develop reusable solutions through code. If you're fueled by a passion for both code and data, this is the perfect environment for you to excel.


You should be a self-starter, comfortable navigating the data requirements of diverse teams, systems, and products. The opportunity to optimize and even re-envision our company's data architecture to support our next wave of products and data-driven initiatives should excite you.


What you'll do:


  • Design, build, and maintain scalable and efficient data pipelines.
  • Optimize existing data pipelines and data flow for performance and reliability.
  • Develop and implement data collection strategies across various sources.
  • Collaborate with cross-functional teams to understand their data needs and deliver solutions.
  • Build data transformations, data structures, metadata, dependency, and workload management.
  • Implement and enforce data quality and data governance processes.
  • Identify, design, and implement internal process improvements: automating manual processes, optimizing data delivery, re-designing infrastructure for greater scalability, etc.
  • Troubleshoot and resolve data-related issues.
  • Stay up-to-date with the latest data engineering technologies and best practices.
  • Contribute to the design and evolution of our data warehouse and data lake architecture.

Local


On-site - Campinas/SP


Benefícios


  • Performance based bonus*
  • Attendance Bonus*
  • Private pension plan
  • Meal Allowance
  • Casual office and dress code
  • Days off*
  • Health, dental, and life insurance
  • Medicines discounts
  • WellHub partnership
  • Childcare subsidies
  • Discounts on Ambev products*
  • Clube Ben partnership
  • Scholarship*
  • School materials assurance
  • Language and training platforms
  • Transport allowance

*Rules applied


Requisitos


  • Proven experience as a Data Engineer or in a similar role.
  • Strong proficiency in programming languages relevant to data engineering (Python/pyspark).
  • Experience with Databricks.
  • Experience with data warehousing solutions (e.g., Snowflake, Redshift, BigQuery).
  • Experience with ETL/ELT tools and frameworks.
  • Solid understanding of database technologies (both SQL and NoSQL).
  • Experience with cloud platforms and their data services (AWS, Azure).
  • Familiarity with data pipeline and workflow management tools (Apache Airflow, Databricks Workflow).
  • Excellent problem-solving and analytical skills.
  • Strong communication and collaboration abilities.
  • A proactive and self-directed approach to work.
  • A passion for building and optimizing data systems.

If you're a highly motivated Data Engineer who loves to code and shape data infrastructure, we encourage you to apply and become a key contributor to our Data Intelligence Platform!


Contratação


CLT


Nossa empresa


About us


AB InBev is the leading global brewer and one of the world’s top 5 consumer product companies. With over 500 beer brands, we’re number one or two in many of the world’s top beer markets, including North America, Latin America, Europe, Asia, and Africa.


About AB InBev Growth Group


Created in 2022, the Growth Group unifies our business-to-business (B2B), direct-to-consumer (DTC), Sales & Distribution, and Marketing teams. By bringing together global tech and commercial functions, the Growth Group allows us to fully leverage data and drive digital transformation and organic growth for AB InBev around the world.


In addition to supporting well known global beer brands like Corona, Budweiser and Michelob Ultra, the Growth Group is home to a robust suite of digital products including our B2B digital commerce platform BEES, on-demand delivery services Ze Delivery and TaDa Delivery, and table top beer keg PerfectDraft.


We are an exceptional team, focused on understanding and supporting consumer and customer needs, harnessing new technology, and scaling growth opportunities.


Como se candidatar


Application here: https://job-boards.greenhouse.io/abinbev/jobs/7959352002


Alocação


On-site


Regime


  • CLT

Nível


  • Sênior
(Remoto) Data Analyst Senior
• Remoto

Estamos buscando um(a) Engenheiro(a) de Análise Sênior altamente qualificado(a) com experiência avançada em modelagem de dados e ferramentas de visualização. O(a) profissional ideal terá experiência comprovada trabalhando com estruturas de dados médias a complexas em um ambiente corporativo. Ele(a) deve ser proficiente em trabalhar com dados no Snowflake, transformando dados de várias fontes com DBT e visualizando-os eficientemente no Power BI para consumo do cliente. Além disso, valorizamos um(a) profissional disposto(a) a compartilhar suas habilidades e conhecimentos com outros membros da equipe.


Responsabilidades Principais:


Colaborar efetivamente em equipes virtuais, contribuindo com ideias e soluções inovadoras de forma proativa.
Autogerenciar a carga de trabalho, priorizando tarefas de forma eficiente e cumprindo prazos.
Dedicar parte do tempo ao compartilhamento de conhecimento e orientação de membros juniores da equipe, por meio de sessões de pareamento e mentorias.


Habilidades e Experiência Necessárias:


Modelagem de Dados Avançada: Ampla experiência em projetar e implementar modelos de dados complexos, com forte compreensão de normalização, desnormalização e design de esquema.
Processos ETL: Proficiência no desenvolvimento e otimização de processos ETL (Extract, Transform, Load) utilizando ferramentas como DBT (Data Build Tool).
Data Warehousing: Conhecimento profundo dos conceitos e melhores práticas de data warehousing, especialmente com Snowflake.
Visualização de Dados: Habilidades avançadas na criação de painéis e relatórios interativos e informativos utilizando Power BI.
Linguagens de Programação: Proficiência em SQL e experiência com pelo menos uma linguagem de programação como Python ou R para manipulação e análise de dados.
Plataformas de Nuvem: Experiência com plataformas de nuvem como AWS, Azure ou Google Cloud, especialmente em relação ao armazenamento e processamento de dados.
Ajuste de Desempenho: Capacidade de otimizar o desempenho do banco de dados, incluindo ajuste de consultas e estratégias de indexação.
Governança de Dados: Compreensão dos princípios de governança de dados, incluindo qualidade de dados, linhagem de dados e segurança de dados.


Qualificações Desejáveis:


IA e Aprendizado de Máquina: Experiência com modelos de IA e aprendizado de máquina, incluindo a capacidade de trabalhar com conjuntos de dados relacionados.
Gerenciamento de Projetos: Experiência em gerenciamento de projetos de dados, incluindo planejamento, execução e entrega.
Certificações: Certificações relevantes, como Snowflake SnowPro Core Certification, Microsoft Certified: Data Analyst Associate ou similar.


Local


Remoto


Contratação


  • PJ ou CLT

Como se candidatar


Entrar em contato com a recrutadora através do linkedin: https://www.linkedin.com/in/mariajuliaricosti/


Labels


Alocação


  • Remoto

Regime


  • CLT
  • PJ

Nível


  • Sênior
  • Especialista
[Curitiba - PR] Analista de Dados Pleno [Hunter]

Analista de Dados Pleno


Presencial no centro de Curitiba.


A empresa referência no setor de assistência funeral, está em busca de um(a) Analista de Dados Pleno para transformar dados em estratégias inteligentes e apoiar a tomada de decisão da empresa.


Buscamos um(a) profissional com experiência sólida em análise de dados e liderança técnica, capaz de estruturar soluções escaláveis, gerar insights estratégicos e promover uma cultura data-driven.


Principais Responsabilidades:
✔ Desenvolver e implementar estratégias de Business Intelligence (BI), garantindo uma infraestrutura de dados eficiente e acessível para os gestores.
✔ Criar e manter dashboards interativos e relatórios personalizados (Power BI, Tableau) para monitoramento de KPIs e otimização de processos.
✔ Aplicar técnicas de machine learning e modelagem preditiva para antecipar tendências e aprimorar a gestão de riscos.
✔ Desenvolver pipelines de ETL automatizados, centralizando, enriquecendo e padronizando os dados em um modelo uniforme.
✔ Assegurar a qualidade, consistência e segurança dos dados, eliminando redundâncias e garantindo a confiabilidade da informação.
✔ Integrar múltiplas fontes de dados internas e externas, conectando APIs, bancos de dados e sistemas legados.
✔ Apoiar e treinar as equipes internas para utilização eficiente das soluções analíticas desenvolvidas.
✔ Administrar e monitorar servidores e recursos em nuvem (AWS, Azure, Google Cloud), garantindo alta disponibilidade e segurança dos dados.
✔ Desenvolver automação de processos e otimização de fluxos de trabalho para impulsionar a eficiência operacional.


Requisitos Técnicos:
🔹 Formação superior completa em Estatística, Ciência de Dados, Engenharia, Computação ou áreas correlatas.
🔹 Experiência comprovada com SQL para manipulação e extração de dados.
🔹 Conhecimento em linguagens de programação para análise de dados (Python, R).
🔹 Experiência com Power BI, Tableau ou outras ferramentas de visualização de dados.
🔹 Experiência em ambientes de nuvem (AWS, Azure, GCP) e infraestrutura de dados.
🔹 Conhecimento em modelagem de dados, machine learning e estatística aplicada.


Perfil Comportamental:
🔸 Analítico(a) e detalhista, com habilidade para estruturar soluções escaláveis e robustas.
🔸 Liderança técnica, capaz de guiar projetos de análise de dados e influenciar estratégias.
🔸 Boa comunicação e colaboração, trabalhando em equipe para resolver desafios complexos.
🔸 Proatividade na solução de problemas, sempre em busca de otimização e inovação.
🔸 Autodisciplina e aprendizado contínuo, acompanhando tendências e novas tecnologias da área.


O que oferecemos:
🌟 Salário competitivo: R$ 8.000,00 CLT
🌟 Benefícios: VR + VT + Plano de saúde + Convênio farmácia
🌟 Ambiente inovador, com cultura colaborativa e forte incentivo à capacitação contínua.
🌟 Oportunidade de crescimento, em uma das melhores empresas para trabalhar no Paraná.
🌟 Infraestrutura moderna e suporte para desenvolvimento profissional.


📍 Local de trabalho: Curitiba – Centro (presencial)
⏰ Horário: Segunda a sexta, das 08h às 18h.


OBS.: INFORMAMOS QUE OS CANDIDATOS NÃO PAGAM QUALQUER VALOR, À CONSULTORIA, OU À EMPRESA, PARA PARTICIPAR DO PROCESSO OU SENDO CONTRATADO.


Se tem interesse e os requisitos da oportunidade entre em contato pelo Linkedin abaixo, informando qual é a oportunidade:[https://www.linkedin.com/in/erickamarquesb/]

[Flexível][São Paulo/SP] Engenheiro(a) de Dados na [GV2C]

Buscamos Engenherio(a) de Dados com experiências em:


  • Cloud (preferencialmente GCP):
  • Databricks:
  • Git:
  • Terraform:
  • Engenharia e Análise de Dados:

PS: favor pontuar ao lado de cada skill, de 0 a 10, o seu nível de experiência, sendo 0 = não tenho experiência e 10 = tenho muita experiência


Local


Híbrido, 2x semana no Centro (São Paulo)


Benefícios


  • Plano de saúde
  • Seguro de vida
  • VR ou VA
  • Auxílio creche

Requisitos


  • Experiência em Engenharia de Dados
  • Experiência em Cloud GCP
  • Experiência em Databricks
  • Conhecimentos em Git e Terraform

Diferenciais:


  • Projetos opensource

Contratação


  • CLT Flex

Nossa empresa


O objetivo da GV2C é oferecer soluções eficazes, destinadas a impulsionar o seu negócio.


A GV2C é uma empresa baseada no modelo de gestão por competências. A empresa conta no seu quadro de funcionários com profissionais certificados nas melhores ferramentas de integração,qualidade de dados e BI do mercado.
Nossos profissionais estão preparados e são capazes de desenvolver soluções especificamente para as necessidades do seu negócio, a fim de garantir que você atinja o sucesso total na realização de seus objetivos.


Nós atuamos como provedores de serviços para inteligência empresarial, desenvolvendo soluções inovadoras que integram negócios e tecnologias, preservando os investimentos realizados por seus clientes, além de ser reconhecida principalmente por sua especialização nas maiores plataformas de Business Intelligence e Data Warehouse existentes.


O foco da companhia está organizado em três linhas de negócios principais:


​ Execução de Projetos;
Alocação de Profissionais Especializados;
Serviços de Outsourcing Especializados em BI, Integração de dados e Qualidade de dados.


​A GV2C atua de forma colaborativa ao se relacionar com o ecossistema empresarial. Este posicionamento, integrado ao um modelo de governança, visa oferecer ao mercado as melhores opções e garantias para desenvolvimento de soluções de negócios e integração de sistemas gerenciais, sempre primando pela total satisfação de nossos clientes.


Como se candidatar


Se você acredita que tem as skills necessárias e se interessa pela oportunidade, envie o seu CV para rh@gv2c.com.br, com sua pretensão salarial | taxa/hora.


Alocação


  • Hibrido

Regime


  • CLT FLEX

Nível


  • Pleno
  • Sênior

Vagas

Vagas Front-end

Sobre

Política de privacidade

Termos de uso

getVagas, 2025