Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Importante
Este recurso está em versão Beta. Os administradores de conta podem controlar o acesso a esta funcionalidade a partir da página de Pré-visualizações da consola da conta. Ver Gerir pré-visualizações Azure Databricks.
Esta página descreve como consultar endpoints do Unity AI Gateway usando APIs suportadas.
Requerimentos
- Pré-visualização do Unity AI Gateway ativada para a sua conta. Ver Gerir pré-visualizações Azure Databricks.
- Um espaço de trabalho Azure Databricks numa região suportada por Unity AI Gateway.
- Unity Catalog ativado para o seu espaço de trabalho. Consulte Habilitar um espaço de trabalho para o Unity Catalog.
APIs e integrações suportadas
O Unity AI Gateway suporta as seguintes APIs e integrações:
- Unified APIs: Interfaces compatíveis com OpenAI para consultar modelos em Azure Databricks. Alterna perfeitamente entre modelos de diferentes fornecedores sem alterar a forma como consultas cada modelo.
- APIs nativas: Interfaces específicas do fornecedor para aceder ao modelo mais recente e funcionalidades específicas do fornecedor.
- Agentes de programação: Integre os seus agentes de codificação com o Unity AI Gateway para adicionar governação centralizada e monitorização aos seus fluxos de trabalho de desenvolvimento assistidos por IA. Veja Integrar com agentes de codificação.
- Agentes nas Apps Databricks: Criar e implementar agentes de IA nas Apps Databricks que encaminham o tráfego LLM através do Unity AI Gateway. Ver Passo 4. Regule o uso de LLMs pelos seus agentes nas aplicações Databricks com o Unity AI Gateway.
Consultar endpoints com APIs unificadas
As APIs unificadas oferecem uma interface compatível com OpenAI para consultar modelos no Azure Databricks. Use APIs unificadas para alternar facilmente entre modelos de diferentes fornecedores sem alterar o seu código.
MLflow Chat Completions API
API de Conclusões de Chat do MLflow
Python
from openai import OpenAI
import os
DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
client = OpenAI(
api_key=DATABRICKS_TOKEN,
base_url="https://<workspace-url>/ai-gateway/mlflow/v1"
)
chat_completion = client.chat.completions.create(
messages=[
{"role": "user", "content": "Hello!"},
{"role": "assistant", "content": "Hello! How can I assist you today?"},
{"role": "user", "content": "What is Databricks?"},
],
model="<ai-gateway-endpoint>",
max_tokens=256
)
print(chat_completion.choices[0].message.content)
API REST
curl \
-u token:$DATABRICKS_TOKEN \
-X POST \
-H "Content-Type: application/json" \
-d '{
"model": "<ai-gateway-endpoint>",
"max_tokens": 256,
"messages": [
{"role": "user", "content": "Hello!"},
{"role": "assistant", "content": "Hello! How can I assist you today?"},
{"role": "user", "content": "What is Databricks?"}
]
}' \
https://<workspace-url>/ai-gateway/mlflow/v1/chat/completions
Substitua <workspace-url> pelo URL do seu Azure Databricks workspace e <ai-gateway-endpoint> pelo nome do endpoint do seu Unity AI Gateway.
MLflow Embeddings API
MLflow Embeddings API
Python
from openai import OpenAI
import os
DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
client = OpenAI(
api_key=DATABRICKS_TOKEN,
base_url="https://<workspace-url>/ai-gateway/mlflow/v1"
)
embeddings = client.embeddings.create(
input="What is Databricks?",
model="<ai-gateway-endpoint>"
)
print(embeddings.data[0].embedding)
API REST
curl \
-u token:$DATABRICKS_TOKEN \
-X POST \
-H "Content-Type: application/json" \
-d '{
"model": "<ai-gateway-endpoint>",
"input": "What is Databricks?"
}' \
https://<workspace-url>/ai-gateway/mlflow/v1/embeddings
Substitua <workspace-url> pelo URL do seu Azure Databricks workspace e <ai-gateway-endpoint> pelo nome do endpoint do seu Unity AI Gateway.
Supervisor API
Supervisor API
A API Supervisor (/mlflow/v1/responses) é uma API compatível com OpenResponses, independente do fornecedor, para construir agentes em Beta. Os administradores de contas podem ativar o acesso a partir da página de Pré-visualizações . Ver Gerir pré-visualizações Azure Databricks. Escolha o melhor modelo para o caso de uso do seu agente entre os fornecedores, sem alterar o seu código.
Python
from openai import OpenAI
import os
DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
client = OpenAI(
api_key=DATABRICKS_TOKEN,
base_url="https://<workspace-url>/ai-gateway/mlflow/v1"
)
response = client.responses.create(
model="<ai-gateway-endpoint>",
input=[{"role": "user", "content": "What is Databricks?"}]
)
print(response.output_text)
API REST
curl \
-u token:$DATABRICKS_TOKEN \
-X POST \
-H "Content-Type: application/json" \
-d '{
"model": "<ai-gateway-endpoint>",
"input": [
{"role": "user", "content": "What is Databricks?"}
]
}' \
https://<workspace-url>/ai-gateway/mlflow/v1/responses
Substitua <workspace-url> pelo URL do seu Azure Databricks workspace e <ai-gateway-endpoint> pelo nome do endpoint do seu Unity AI Gateway.
Consultar endpoints com APIs nativas
As APIs nativas oferecem interfaces específicas de fornecedores para consultar modelos no Azure Databricks. Use APIs nativas para aceder às funcionalidades mais recentes específicas de cada fornecedor.
API de Respostas OpenAI
API de Respostas de OpenAI
Python
from openai import OpenAI
import os
DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
client = OpenAI(
api_key=DATABRICKS_TOKEN,
base_url="https://<workspace-url>/ai-gateway/openai/v1"
)
response = client.responses.create(
model="<ai-gateway-endpoint>",
max_output_tokens=256,
input=[
{
"role": "user",
"content": [{"type": "input_text", "text": "Hello!"}]
},
{
"role": "assistant",
"content": [{"type": "output_text", "text": "Hello! How can I assist you today?"}]
},
{
"role": "user",
"content": [{"type": "input_text", "text": "What is Databricks?"}]
}
]
)
print(response.output)
API REST
curl \
-u token:$DATABRICKS_TOKEN \
-X POST \
-H "Content-Type: application/json" \
-d '{
"model": "<ai-gateway-endpoint>",
"max_output_tokens": 256,
"input": [
{
"role": "user",
"content": [{"type": "input_text", "text": "Hello!"}]
},
{
"role": "assistant",
"content": [{"type": "output_text", "text": "Hello! How can I assist you today?"}]
},
{
"role": "user",
"content": [{"type": "input_text", "text": "What is Databricks?"}]
}
]
}' \
https://<workspace-url>/ai-gateway/openai/v1/responses
Substitua <workspace-url> pelo URL do seu Azure Databricks workspace e <ai-gateway-endpoint> pelo nome do endpoint do seu Unity AI Gateway.
API de Mensagens da Anthropic
API de Mensagens Antrópicas
Python
import anthropic
import os
DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
client = anthropic.Anthropic(
api_key="unused",
base_url="https://<workspace-url>/ai-gateway/anthropic",
default_headers={
"Authorization": f"Bearer {DATABRICKS_TOKEN}",
},
)
message = client.messages.create(
model="<ai-gateway-endpoint>",
max_tokens=256,
messages=[
{"role": "user", "content": "Hello!"},
{"role": "assistant", "content": "Hello! How can I assist you today?"},
{"role": "user", "content": "What is Databricks?"},
],
)
print(message.content[0].text)
API REST
curl \
-u token:$DATABRICKS_TOKEN \
-X POST \
-H "Content-Type: application/json" \
-d '{
"model": "<ai-gateway-endpoint>",
"max_tokens": 256,
"messages": [
{"role": "user", "content": "Hello!"},
{"role": "assistant", "content": "Hello! How can I assist you today?"},
{"role": "user", "content": "What is Databricks?"}
]
}' \
https://<workspace-url>/ai-gateway/anthropic/v1/messages
Substitua <workspace-url> pelo URL do seu Azure Databricks workspace e <ai-gateway-endpoint> pelo nome do endpoint do seu Unity AI Gateway.
Google Gemini API
Google Gemini API
Python
from google import genai
from google.genai import types
import os
DATABRICKS_TOKEN = os.environ.get('DATABRICKS_TOKEN')
client = genai.Client(
api_key="databricks",
http_options=types.HttpOptions(
base_url="https://<workspace-url>/ai-gateway/gemini",
headers={
"Authorization": f"Bearer {DATABRICKS_TOKEN}",
},
),
)
response = client.models.generate_content(
model="<ai-gateway-endpoint>",
contents=[
types.Content(
role="user",
parts=[types.Part(text="Hello!")],
),
types.Content(
role="model",
parts=[types.Part(text="Hello! How can I assist you today?")],
),
types.Content(
role="user",
parts=[types.Part(text="What is Databricks?")],
),
],
config=types.GenerateContentConfig(
max_output_tokens=256,
),
)
print(response.text)
API REST
curl \
-u token:$DATABRICKS_TOKEN \
-X POST \
-H "Content-Type: application/json" \
-d '{
"contents": [
{
"role": "user",
"parts": [{"text": "Hello!"}]
},
{
"role": "model",
"parts": [{"text": "Hello! How can I assist you today?"}]
},
{
"role": "user",
"parts": [{"text": "What is Databricks?"}]
}
],
"generationConfig": {
"maxOutputTokens": 256
}
}' \
https://<workspace-url>/ai-gateway/gemini/v1beta/models/<ai-gateway-endpoint>:generateContent
Substitua <workspace-url> pelo URL do seu Azure Databricks workspace e <ai-gateway-endpoint> pelo nome do endpoint do seu Unity AI Gateway.
Próximos passos
- Unity AI Gateway para agentes e LLMs
- Configurar pontos de extremidade do Unity AI Gateway
- Integrar com agentes de codificação
-
API Supervisor (Beta) — executar fluxos de trabalho de agentes multi-turno com ferramentas alojadas via
/mlflow/v1/responses
Passo 4. Regule o uso de LLMs pelos seus agentes nas aplicações Databricks com o Unity AI Gateway — encaminhar chamadas LLM de agentes nas aplicações Databricks através do Unity AI Gateway
Configurar limites de taxa para endpoints do Unity AI Gateway