Vaga
GCP-Arquiteto de Data & AI
Descrição
O foco principal para o candidato será aplicar diferentes técnicas (mineração de dados/análise estatística/construção de sistemas de predição/sistemas de recomendação) utilizando grandes conjuntos de dados da empresa para encontrar oportunidades de serviços e produtos, além de usar modelos para testar a eficácia de diferentes cursos de ação. O candidato deve ter ampla experiência no uso de uma variedade de métodos de mineração/análise de dados, ferramentas de dados, construção e implementação de modelos, criação de algoritmos e execução de simulações.
Suas principais responsabilidades serão:
- Analisar casos de negócios e identificar fontes de dados (internas/externas) e métodos de mineração/análise de dados a serem utilizados.
- Desenvolver um motor de normalização para executar a limpeza/desduplicação de dados brutos por meio de um processo ETL para fontes de dados.
- Criar, treinar e testar modelos preditivos para resolver casos de negócios definidos.
- Desenvolver algoritmos para aplicar aos conjuntos de dados.
- Projetar modelos de estrutura de dados para os dados coletados.
- Facilitar a construção de uma solução desde a Prova de Conceito (PoC) até a produção.
- Trabalhar com os proprietários do negócio para coletar informações adicionais sobre os casos de negócios.
- Trabalhar com ferramentas de dados e AI do Google Cloud.
- Estar preparado para trabalhar no estilo ágil (diariamente, planejamento de sprint, revisão de sprint, retrospectiva).
- Trabalhar em um ambiente que se adapta rapidamente à mudança criativa, usando princípios ágeis.
- Colaborar ativamente com diferentes grupos de desenvolvimento dentro da organização.
- Estar preparado para adotar uma nova ferramenta/biblioteca/tecnologia/plataforma.
O que esperamos de você:
- Formação na nuvem GCP, Ciência da Computação, Engenharia da Computação, Matemática, Estatística ou Sistemas de Informação
- Migrações de Dados: Experiência em planejar e executar migrações de dados de sistemas on-premises ou de outras nuvens para Google Cloud, utilizando ferramentas como Transfer Appliance, gsutil e Google Cloud Data Transfer Service.
- ETL/ELT no GCP:Habilidade em construir e gerenciar pipelines de ETL/ELT usando Google Cloud Dataflow ou Cloud Composer (baseado em Apache Airflow).
- Experiência em transformar dados utilizando Apache Beam no ambiente GCP.
- Modelagem de Dados para BigQuery:Experiência em projetar esquemas de dados para BigQuery, incluindo a definição de tabelas particionadas e com clustering para otimização de consultas.
- Habilidade em implementar práticas de modelagem de dados que garantam eficiência e acessibilidade.
- Análise de Dados com BigQuery:Capacidade de realizar análises de dados complexas usando SQL em BigQuery. Experiência em criar relatórios e dashboards utilizando Google Data Studio ou Looker para visualização de dados.
- Implementação de Soluções em Nuvem:Experiência em configurar e gerenciar serviços de dados em GCP, como Google Cloud Storage e BigQuery.
- Habilidade em integrar diferentes serviços do GCP para criar soluções de dados robustas.
- Governança de Dados:Conhecimento em práticas de governança de dados no GCP, incluindo segurança, privacidade e conformidade.
- Experiência em configurar Identity and Access Management (IAM) para controlar o acesso a dados e serviços
- Integração de Dados:Experiência em integrar dados de várias fontes no GCP, incluindo APIs, bancos de dados e serviços de terceiros.
- Habilidade em utilizar ferramentas de integração, como Cloud Pub/Sub e Google Cloud Functions, para garantir a qualidade dos dados.
- IA e Machine Learning:Experiência em implementar soluções de machine learning utilizando Google AI Platform e Vertex AI. Habilidade em construir e treinar modelos de machine learning, bem como em avaliar e otimizar esses modelos.
- Certificação Google Professional Data Engineer
- Inglês fluente obrigatório
Localização
Adamantina
,
SP
Data limite para aplicar
6/12/2024