Como um especialista em dados experiente, você terá a responsabilidade de projetar e desenvolver soluções escaláveis de dados com arquiteturas eficientes.
Funções:
* Definir e implementar arquiteturas de dados escaláveis e resilientes suportando operações em larga escala.
* Desenvolver e manter plataformas de dados para suportar produtos analíticos e de inteligência artificial.
* Garantir a qualidade e integridade dos dados implementando processos robustos de validação auditoria e monitoramento.
* Trabalhar na orquestração de pipelines utilizando ferramentas como Apache Airflow.
* Implementar soluções serverless e arquiteturas distribuídas otimizando custo e performance.
Habilidades Requeridas:
* Proficiência avançada em SQL e otimização de queries.
* Domínio em Python Scala e/ou Java para manipulação e processamento de dados.
* Sólida experiência em Cloud Computing AWS Azure GCP e seus serviços de dados.
* Experiência com bancos de dados relacionais e NoSQL PostgreSQL Cassandra DynamoDB.
* Conhecimento avançado em Infraestrutura como Código Terraform OpenTofu CloudFormation.
* Experiência com ferramentas de orquestração de workflows Airflow Dagster Prefect.
* Conhecimento avançado em monitoramento logging e observabilidade Prometheus Grafana AWS CloudWatch.
* Experiência na implementação de DataOps CI/CD e automação de deploys.
* Domínio de segurança e compliance de dados LGPD GDPR ISO 27001.
Principais Tarefas:
* Criar produtos de dados e APIs escaláveis para consumo interno e externo.
* Desenvolver e manter APIs e data products para integração entre sistemas internos e externos.
Ambiente de Trabalho:
Estamos procurando por alguém que seja capaz de trabalhar em um ambiente colaborativo e dinâmico.