**Desenvolvedor de Soluções em Dados na Nuvem
* Projetar e manter a arquitetura de cloud focada em dados (Data Lake, Lakehouse, DWH) com base em princípios de escalabilidade e segurança.
* Gerenciar e provisionar recursos de computação (clusters Spark, Databricks, VMs, containers, etc.) para garantir o desempenho dos pipelines de dados.
* Automatizar o deploy e configuração de recursos via infraestrutura como código (IaC) para otimizar os processos e reduzir erros.
As responsabilidades incluem:
* Trabalhar com engenheiros de dados para garantir performance e disponibilidade dos pipelines de dados.
* Atuar no controle de segurança e governança de dados (acesso, criptografia, compliance) para proteger a integridade dos dados.
* Administrador ambientes com Unity Catalog, metastore, storage credentials e external locations para garantir a segurança e conformidade.
* Monitorar e otimizar custos de cloud relacionados à área de dados para melhorar a eficiência da empresa.
* Colaborar com time de segurança, DevOps e arquitetura corporativa para garantir aderência a padrões e práticas de desenvolvimento.
Os pré-requisitos incluem:
1. Vivência com arquitetura de plataformas de dados em cloud (ex: Lakehouse, Delta Lake, Snowflake, BigQuery) para entender as melhores práticas e tecnologias.
2. Experiência com Databricks Administration: clusters, tokens, jobs, Unity Catalog, workspaces para gerenciar e configurar recursos de forma eficiente.
3. Domínio de Infraestrutura como Código (ex: Terraform, Bicep, CloudFormation) para automatizar e otimizar processos de implementação.
4. Conhecimento em controle de acesso (IAM, RBAC, ABAC) e autenticação com AD/SAML/OAuth para garantir a segurança e privacidade dos dados.
5. Experiência em monitoramento e logging (ex: Azure Monitor, CloudWatch, Datadog) para detectar e resolver problemas de forma eficaz.
6. Familiaridade com conceitos de networking em cloud (VPC, subnets, peering, private endpoints) para entender a infraestrutura de rede.
7. Capacidade de administrar storage accounts, external locations e data access policies para múltiplos ambientes.