A Microsoft anunciou recentemente uma alteração importante na estrutura de report de faturamento dentro do Microsoft Fabric. Para times de engenharia e stakeholders focados em FinOps, essa mudança é um passo importante para a visibilidade de custos em ambientes de análise complexos.
Historicamente, o consumo de recursos de IA dentro do Fabric — como funções de IA e serviços de Azure AI — acabava sendo diluído em outras operações, como workloads de Apache Spark ou Dataflows Gen2. Essa "opacidade" dificultava a atribuição precisa de custos (cost allocation) e a análise de ROI de projetos específicos de Machine Learning e Inteligência Artificial.
O que mudou na telemetria
A partir de agora, a Microsoft está segregando esses consumos em categorias dedicadas:
-
AI Functions: Esta nova operação agregará todo o custo de computação associado ao uso das Fabric AI functions e chamadas ao Azure OpenAI Service, seja via REST API, Python SDK ou Synapse ML. O impacto é direto: o consumo deixará de ser reportado sob a égide dos jobs de Spark ou dos Dataflows, permitindo que você identifique exatamente quanto do seu Capacity Units (CU) está sendo drenado por pipelines de IA.
-
AI Services: Voltada especificamente para serviços como Text Analytics e Azure AI Translator, essa categoria isola esses custos, garantindo que o custo de serviços cognitivos no Fabric não seja confundido com workloads de transformação de dados pura.
Impacto no ciclo de vida de FinOps
Abaixo, apresentamos a tabela de mapeamento das novas operações conforme disponibilizado pela Microsoft:
| Operação | Descrição | Item | Azure Billing Meter |
|---|---|---|---|
| AI Functions | Custo de computação de funções AI e Azure OpenAI | Notebook | Copilot and AI Capacity Usage CU |
| AI Functions | Custo de computação de funções AI | Dataflow Gen2 | Copilot and AI Capacity Usage CU |
| AI Services | Custo de serviços Azure AI (Text Analytics/Translator) | Notebook | Copilot and AI Capacity Usage CU |
É importante notar que não se trata de um aumento de preço, mas sim de uma mudança na visibilidade. A partir de 17 de março de 2025, os administradores de Fabric encontrarão esses dados refletidos diretamente no Fabric Capacity Metrics app.
Para empresas brasileiras que operam grandes clusters de dados e estão acelerando a adoção de Generative AI, a recomendação é clara: revise seus dashboards de custo imediatamente após a implementação dessa mudança. A segregação facilita a aplicação de showback e chargeback interno pelos departamentos, permitindo que cada área de negócio entenda o impacto financeiro real do uso de modelos de IA, evitando que o custo de inferência seja, erroneamente, classificado como infraestrutura de dados genérica.
Para aqueles que operam em modelos de multi-cloud ou que possuem regimes rígidos de controle de orçamento, essa transparência é um aliado fundamental. A separação dos encargos permite um fine-tuning mais agressivo no consumo, algo vital em tempos de orçamentos de nuvem estritos.
Artigo originalmente publicado em Azure Updates - Latest from Azure Charts.