Azure OpenAI em Microsoft Foundry Models REST API referência

Este artigo fornece detalhes sobre os endpoints de inferência da API REST para Azure OpenAI.

API specs

Gerenciar e interagir com modelos e recursos do OpenAI do Azure é dividido em três superfícies principais de API:

  • Control plane
  • Plano de dados - autoria
  • Plano de dados - inferência

Cada superfície/especificação de API encapsula um conjunto diferente de capacidades do Azure OpenAI. Cada API possui seu próprio conjunto único de pré-visualizações e versões estáveis/geralmente disponíveis (GA). Os lançamentos de prévia atualmente tendem a seguir uma cadência mensal.

Important

Agora há uma nova API de inferência de pré-visualização. Saiba mais em nosso guia do ciclo de vida da API.

API Última versão de prévia Última versão da GA Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files A API do plano de controle é usada para operações como criação de recursos, implantação de modelos e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também governa o que é possível fazer com capacidades como Azure Resource Manager, Bicep, Terraform e CLI do Azure.
Data plane v1 preview v1 Spec files A API do plano de dados controla as operações de inferência e autoria.

Authentication

O Azure OpenAI oferece dois métodos para autenticação. Você pode usar tanto API Keys quanto Microsoft Entra ID.

  • Autenticação de Chave API: Para esse tipo de autenticação, todas as requisições de API devem incluir a Chave API no api-key cabeçalho HTTP. O Quickstart fornece orientações sobre como fazer chamadas com esse tipo de autenticação.

  • Microsoft Entra ID: Você pode autenticar uma chamada API usando um token Microsoft Entra. Tokens de autenticação são incluídos em uma solicitação como cabeçalho Authorization . O token fornecido deve ser precedido por Bearer, por exemplo Bearer YOUR_AUTH_TOKEN. Você pode ler nosso guia prático sobre autenticação com Microsoft Entra ID.

Versionamento da API REST

As APIs de serviço são versionadas usando o api-version parâmetro de consulta. Todas as versões seguem a estrutura de datas YYYY-MM-DD. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferência de plano de dados

O restante do artigo aborda a versão geral da especificação de inferência de planos de dados da OpenAI Azure 2024-10-21.

Se você está procurando documentação sobre a última versão da API de prévia, consulte a API de inferência de planos de dados de pré-visualização mais recente

Completions

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia ID de implantação do modelo que foi implantado.
api-version consulta Yes cadeia API version

Request Header

Name Required Tipo Description
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
solicitação String ou array O(s) prompt(s) para gerar completações para codificados como uma string, array de strings, array de tokens ou array de tokens.

Note que <|endoftext|> é o separador de documentos que o modelo vê durante o treinamento, então, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento.
Yes
best_of inteiro Gera best_of conclusãos do lado do servidor e retorna o "melhor" (aquele com maior probabilidade logaritária por token). Os resultados não podem ser transmitidos em streaming.

Quando usado com n, best_of controla o número de conclusãos candidatas e n especifica quantas devolver â€" best_of deve ser maior que n.

Nota: Como esse parâmetro gera muitas conclusãos, ele pode rapidamente consumir sua cota de tokens. Use com cuidado e certifique-se de que você tenha configurações razoáveis para max_tokens e stop.
No 1
echo boolean Repita o prompt além da conclusão
No False
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente.
No 0
logit_bias objeto Modificar a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pelo ID do token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante.

Por exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
No None
logprobs inteiro Inclua as probabilidades logarítmicas dos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob do token amostrado, então pode haver até até logprobs+1 elementos na resposta.

O valor máximo para logprobs é 5.
No None
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão.

A contagem de tokens do seu prompt plus max_tokens não pode exceder o comprimento de contexto do modelo.
No 16
n inteiro Quantas conclusãos gerar para cada prompt.

Nota: Como esse parâmetro gera muitas conclusãos, ele pode rapidamente consumir sua cota de tokens. Use com cuidado e certifique-se de que você tenha configurações razoáveis para max_tokens e stop.
No 1
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas.
No 0
seed inteiro Se especificado, nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que requisições repetidas com os mesmos seed parâmetros retornem o mesmo resultado.

Determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro de resposta para monitorar mudanças no backend.
No
stop String ou array Até quatro sequências em que a API para de gerar mais tokens. O texto devolvido não vai conter a sequência de paradas.
No
fluxo boolean Se deveria recuar o progresso parcial. Se ativados, os tokens serão enviados apenas como eventos enviados pelo servidor apenas por dados assim que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. No False
suffix cadeia O sufixo que vem após a conclusão do texto inserido.

Esse parâmetro é suportado apenas para gpt-3.5-turbo-instruct.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.

Geralmente recomendamos alterar isso ou top_p , mas não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou temperature , mas não ambos.
No 1
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos.
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse Representa uma resposta de conclusão da API. Nota: tanto os objetos de resposta transmitidos quanto os não transmitidos compartilham a mesma forma (diferente do endpoint do chat).

Código de status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

Examples

Example

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Respostas: Código de status: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Embeddings

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Obtenha uma representação vetorial de uma entrada dada que possa ser facilmente consumida por modelos e algoritmos de aprendizado de máquina.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia API version

Request Header

Name Required Tipo Description
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
entrada String ou array Input texto para incorporar, codificado como uma string ou array de tokens. Para incorporar múltiplas entradas em uma única requisição, passe um array de strings ou array de tokens. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma string vazia, e qualquer array deve ter 2.048 dimensões ou menos. Yes
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. No
input_type cadeia Tipo de entrada de busca de embedding a usar No
encoding_format cadeia O formato para retornar os embeddings. Pode ser qualquer um ou floatbase64outro. O padrão é .float No
dimensions inteiro O número de dimensões que os embeddings de saída resultantes devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. No

Responses

Name Tipo Description Required Default
objeto cadeia Yes
modelo cadeia Yes
dados matriz Yes
uso objeto Yes

Propriedades para uso

prompt_tokens

Name Tipo Description Default
prompt_tokens inteiro

total_tokens

Name Tipo Description Default
total_tokens inteiro

Código de status: 200

Description: OK

Content-Type Type Description
application/json objeto

Examples

Example

Devolva os embeddings para um determinado prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chat completions

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Cria uma conclusão para a mensagem do chat

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia ID de implantação do modelo que foi implantado.
api-version consulta Yes cadeia API version

Request Header

Name Required Tipo Description
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.

Geralmente recomendamos alterar isso ou top_p , mas não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou temperature , mas não ambos.
No 1
fluxo boolean Se ativado, serão enviados deltas parciais de mensagens, como no ChatGPT. Os tokens serão enviados apenas como eventos enviados pelo servidor apenas com dados assim que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. No False
stop String ou array Até quatro sequências em que a API para de gerar mais tokens.
No
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo.
No
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas.
No 0
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente.
No 0
logit_bias objeto Modificar a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pelo ID do token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante.
No None
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos.
No
messages matriz Uma lista de mensagens que compõem a conversa até agora. Yes
data_sources matriz As entradas de configuração para as extensões de chat do Azure OpenAI que as utilizam.
Essa especificação adicional é compatível apenas com o Azure OpenAI.
No
logprobs boolean Se deveria devolver as probabilidades logarítmicas dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message. No False
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade logarítmica associada. logprobs deve ser definido como true se esse parâmetro for usado. No
n inteiro Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Note que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha-se n para 1 minimizar custos. No 1
parallel_tool_calls ParallelToolCalls Se deve ativar a chamada paralela de funções durante o uso da ferramenta. No True
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa o Structured Outputs, que garante que o modelo vai corresponder ao seu esquema JSON fornecido.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
seed inteiro Esse recurso está em Beta.
Se especificado, nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que requisições repetidas com os mesmos seed parâmetros retornem o mesmo resultado.
Determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro de resposta para monitorar mudanças no backend.
No
tools matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. No máximo 128 funções são suportadas.
No
tool_choice chatCompletionToolChoiceOption Controle qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica força {"type": "function", "function": {"name": "my_function"}} o modelo a chamá-la. none é o padrão quando não há ferramentas presentes. auto é o padrão se as ferramentas estiverem presentes. No
function_call string ou chatCompletionFunctionCallOption Descontinuado em favor de tool_choice.

Controla qual (se houver) função é chamada pelo modelo.
none significa que o modelo não chama uma função e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função específica via {"name": "my_function"} força o modelo a chamar essa função.

none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes.
No
functions matriz Descontinuado em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json criarConversCompletionResposta ou criarChatCompletionStreamResposta

Código de status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

Examples

Example

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão baseada nos dados do Azure Search e na identidade gerenciada atribuída ao sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão baseada nos dados do vetor de busca do Azure, mensagem do assistente anterior e identidade gerenciada atribuída pelo usuário.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão para o Azure Cosmos DB fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcrições - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Transcreve o áudio para a língua de entrada.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia ID de implantação do modelo de fala para texto.

Para informações sobre modelos suportados, veja [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version consulta Yes cadeia API version

Request Header

Name Required Tipo Description
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: multipart/form-data

Name Tipo Description Required Default
arquivo cadeia O arquivo de áudio é objeto para transcrever. Yes
solicitação cadeia Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder à linguagem do áudio. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Se definido para 0, o modelo usará a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limites sejam atingidos. No 0
linguagem cadeia O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 melhorará a precisão e a latência. No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json audioResposta ou áudioVerboseResponse
text/plain cadeia Texto transcrito no formato de saída (quando response_format era de texto, VTT ou srt).

Examples

Example

Recebe texto transcrito e metadados associados a partir dos dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Respostas: Código de status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Recebe texto transcrito e metadados associados a partir dos dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduções - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Transcreve e traduz áudio de entrada para texto em inglês.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia ID de implantação do modelo sussurrante que foi implantado.

Para informações sobre modelos suportados, veja [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version consulta Yes cadeia API version

Request Header

Name Required Tipo Description
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: multipart/form-data

Name Tipo Description Required Default
arquivo cadeia O arquivo de áudio para traduzir. Yes
solicitação cadeia Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Se definido para 0, o modelo usará a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limites sejam atingidos. No 0

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json audioResposta ou áudioVerboseResponse
text/plain cadeia Texto transcrito no formato de saída (quando response_format era de texto, VTT ou srt).

Examples

Example

Obtém texto transcrito em inglês e metadados associados a partir dos dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtém texto transcrito em inglês e metadados associados a partir dos dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Image generation

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Gera um lote de imagens a partir de uma legenda de texto em uma determinada implantação do modelo dall-e

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes cadeia
url
Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia ID de implantação do modelo dall-e que foi implantado.
api-version consulta Yes cadeia API version

Request Header

Name Required Tipo Description
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
solicitação cadeia Uma descrição em texto da(s) imagem(s) desejada(s). O comprimento máximo é de 4.000 caracteres. Yes
n inteiro O número de imagens a serem geradas. No 1
size imageSize O tamanho das imagens geradas. No 1024x1024
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. No url
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. No
quality imageQuality A qualidade da imagem que será gerada. No padrão
estilo imageStyle O estilo das imagens geradas. No vivid

Responses

Código de status: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Código de status: padrão

Descrição: Ocorreu um erro.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Cria imagens com um prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respostas: Código de status: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Components

errorResponse

Name Tipo Description Required Default
erro error No

errorBase

Name Tipo Description Required Default
codificar cadeia No
mensagem cadeia No

erro

Name Tipo Description Required Default
param cadeia No
tipo cadeia No
inner_error innerError Erro interno com detalhes adicionais. No

innerError

Erro interno com detalhes adicionais.

Name Tipo Description Required Default
codificar innerErrorCode Códigos de erro para o objeto de erro interno. No
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu id. No

innerErrorCode

Códigos de erro para o objeto de erro interno.

Descrição: Códigos de erro para o objeto de erro interno.

Type: string

Default:

Nome do Enum: InnerErrorCode

Enum Values:

Value Description
ResponsibleAIPolicyViolation O prompt violou uma das outras regras de filtro de conteúdo.

dalleErrorResponse

Name Tipo Description Required Default
erro dalleError No

dalleError

Name Tipo Description Required Default
param cadeia No
tipo cadeia No
inner_error dalleInnerError Erro interno com detalhes adicionais. No

dalleInnerError

Erro interno com detalhes adicionais.

Name Tipo Description Required Default
codificar innerErrorCode Códigos de erro para o objeto de erro interno. No
content_filter_results dalleFilterResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu id. No
revised_prompt cadeia O prompt usado para gerar a imagem, caso houvesse alguma revisão no prompt. No

contentFilterResultBase

Name Tipo Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Tipo Description Required Default
filtered boolean Yes
severity cadeia No

contentFilterDetectedResult

Name Tipo Description Required Default
filtered boolean Yes
detected boolean No

contentFilterDetectedWithCitationResult

Name Tipo Description Required Default
citation objeto No

Propriedades para citação

URL

Name Tipo Description Default
URL cadeia

licença

Name Tipo Description Default
licença cadeia

contentFilterResultsBase

Informações sobre os resultados do filtro de conteúdo.

Name Tipo Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
erro errorBase No

contentFilterPromptResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu id.

Name Tipo Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
erro errorBase No
jailbreak contentFilterDetectedResult No

contentFilterChoiceResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre textos de terceiros e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu id.

Name Tipo Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
erro errorBase No
protected_material_text contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No

promptFilterResult

Filtragem de conteúdo resulta para um único prompt na solicitação.

Name Tipo Description Required Default
prompt_index inteiro No
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu id. No

promptFilterResults

Filtrar conteúdo resulta em nenhum ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de diferentes prompts podem chegar em horários ou ordens diferentes.

Nenhuma propriedade definida para esse componente.

dalleContentFilterResults

Informações sobre os resultados do filtro de conteúdo.

Name Tipo Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No

dalleFilterResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu id.

Name Tipo Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No

chatCompletionsRequestCommon

Name Tipo Description Required Default
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p , mas não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.
Geralmente recomendamos alterar isso ou temperature , mas não ambos.
No 1
fluxo boolean Se ativado, serão enviados deltas parciais de mensagens, como no ChatGPT. Os tokens serão enviados apenas como eventos enviados pelo servidor apenas com dados assim que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. No False
stop String ou array Até quatro sequências em que a API para de gerar mais tokens. No
max_tokens inteiro O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode devolver será (4096 - tokens de prompt). Esse valor agora foi descontinuado em favor de max_completion_tokens, e não é compatível com modelos da série O1. No 4096
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas. No 0
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. No 0
logit_bias objeto Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados pelo ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante. No
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detectar abusos. No

createCompletionRequest

Name Tipo Description Required Default
solicitação String ou array O(s) prompt(s) para gerar completações para codificados como uma string, array de strings, array de tokens ou array de tokens.

Note que <|endoftext|> é o separador de documentos que o modelo vê durante o treinamento, então, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento.
Yes
best_of inteiro Gera best_of conclusãos do lado do servidor e retorna o "melhor" (aquele com maior probabilidade logaritária por token). Os resultados não podem ser transmitidos em streaming.

Quando usado com n, best_of controla o número de conclusãos candidatas e n especifica quantas devolver â€" best_of deve ser maior que n.

Nota: Como esse parâmetro gera muitas conclusãos, ele pode rapidamente consumir sua cota de tokens. Use com cuidado e certifique-se de que você tenha configurações razoáveis para max_tokens e stop.
No 1
echo boolean Repita o prompt além da conclusão
No False
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente.
No 0
logit_bias objeto Modificar a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pelo ID do token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante.

Por exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
No None
logprobs inteiro Inclua as probabilidades logarítmicas dos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob do token amostrado, então pode haver até até logprobs+1 elementos na resposta.

O valor máximo para logprobs é 5.
No None
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão.

A contagem de tokens do seu prompt plus max_tokens não pode exceder o comprimento de contexto do modelo.
No 16
n inteiro Quantas conclusãos gerar para cada prompt.

Nota: Como esse parâmetro gera muitas conclusãos, ele pode rapidamente consumir sua cota de tokens. Use com cuidado e certifique-se de que você tenha configurações razoáveis para max_tokens e stop.
No 1
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas.
No 0
seed inteiro Se especificado, nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que requisições repetidas com os mesmos seed parâmetros retornem o mesmo resultado.

Determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro de resposta para monitorar mudanças no backend.
No
stop String ou array Até quatro sequências em que a API para de gerar mais tokens. O texto devolvido não vai conter a sequência de paradas.
No
fluxo boolean Se deveria recuar o progresso parcial. Se ativados, os tokens serão enviados apenas como eventos enviados pelo servidor apenas por dados assim que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. No False
suffix cadeia O sufixo que vem após a conclusão do texto inserido.

Esse parâmetro é suportado apenas para gpt-3.5-turbo-instruct.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.

Geralmente recomendamos alterar isso ou top_p , mas não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou temperature , mas não ambos.
No 1
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos.
No

createCompletionResponse

Representa uma resposta de conclusão da API. Nota: tanto os objetos de resposta transmitidos quanto os não transmitidos compartilham a mesma forma (diferente do endpoint do chat).

Name Tipo Description Required Default
id cadeia Um identificador único para a conclusão. Yes
choices matriz A lista de escolhas de conclusão que o modelo gerou para o prompt de entrada. Yes
created inteiro O carimbo de tempo do Unix (em segundos) de quando a conclusão foi criada. Yes
modelo cadeia O modelo usado para a conclusão. Yes
prompt_filter_results promptFilterResults Filtrar conteúdo resulta em nenhum ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de diferentes prompts podem chegar em horários ou ordens diferentes. No
system_fingerprint cadeia Essa impressão digital representa a configuração do backend com a qual o modelo roda.

Pode ser usado em conjunto com o seed parâmetro de requisição para entender quando mudanças no backend foram feitas que possam impactar o determinismo.
No
objeto enumeração O tipo de objeto, que é sempre "text_completion"
Valores possíveis: text_completion
Yes
uso completionUsage Estatísticas de uso para a solicitação de conclusão. No

createChatCompletionRequest

Name Tipo Description Required Default
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.

Geralmente recomendamos alterar isso ou top_p , mas não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou temperature , mas não ambos.
No 1
fluxo boolean Se ativado, serão enviados deltas parciais de mensagens, como no ChatGPT. Os tokens serão enviados apenas como eventos enviados pelo servidor apenas com dados assim que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. No False
stop String ou array Até quatro sequências em que a API para de gerar mais tokens.
No
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo.
No
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas.
No 0
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente.
No 0
logit_bias objeto Modificar a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pelo ID do token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante.
No None
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos.
No
messages matriz Uma lista de mensagens que compõem a conversa até agora. Yes
data_sources matriz As entradas de configuração para as extensões de chat do Azure OpenAI que as utilizam.
Essa especificação adicional é compatível apenas com o Azure OpenAI.
No
logprobs boolean Se deveria devolver as probabilidades logarítmicas dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message. No False
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade logarítmica associada. logprobs deve ser definido como true se esse parâmetro for usado. No
n inteiro Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Note que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha-se n para 1 minimizar custos. No 1
parallel_tool_calls ParallelToolCalls Se deve ativar a chamada paralela de funções durante o uso da ferramenta. No True
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa o Structured Outputs, que garante que o modelo vai corresponder ao seu esquema JSON fornecido.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
seed inteiro Esse recurso está em Beta.
Se especificado, nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que requisições repetidas com os mesmos seed parâmetros retornem o mesmo resultado.
Determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro de resposta para monitorar mudanças no backend.
No
tools matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. No máximo 128 funções são suportadas.
No
tool_choice chatCompletionToolChoiceOption Controle qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica força {"type": "function", "function": {"name": "my_function"}} o modelo a chamá-la. none é o padrão quando não há ferramentas presentes. auto é o padrão se as ferramentas estiverem presentes. No
function_call string ou chatCompletionFunctionCallOption Descontinuado em favor de tool_choice.

Controla qual (se houver) função é chamada pelo modelo.
none significa que o modelo não chama uma função e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função específica via {"name": "my_function"} força o modelo a chamar essa função.

none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes.
No
functions matriz Descontinuado em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
No

chatCompletionFunctions

Name Tipo Description Required Default
description cadeia Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. No
name cadeia O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhaduras e traços, com comprimento máximo de 64. Yes
parameters FunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Veja o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
No

chatCompletionFunctionCallOption

Especificar uma função específica via {"name": "my_function"} força o modelo a chamar essa função.

Name Tipo Description Required Default
name cadeia O nome da função a ser chamada. Yes

chatCompletionRequestMessage

Esse componente pode ser um dos seguintes:

chatCompletionRequestSystemMessage

Name Tipo Description Required Default
conteúdo String ou array O conteúdo da mensagem do sistema. Yes
função enumeração O papel do autor das mensagens, neste caso system.
Valores possíveis: sistema
Yes
name cadeia Um nome opcional para o participante. Fornece informações do modelo para diferenciar entre participantes do mesmo papel. No

chatCompletionRequestUserMessage

Name Tipo Description Required Default
conteúdo String ou array O conteúdo da mensagem do usuário.
Yes
função enumeração O papel do autor das mensagens, neste caso user.
Valores possíveis: usuário
Yes
name cadeia Um nome opcional para o participante. Fornece informações do modelo para diferenciar entre participantes do mesmo papel. No

chatCompletionRequestAssistantMessage

Name Tipo Description Required Default
conteúdo String ou array O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls seja especificado ou function_call especificado.
No
refusal cadeia A mensagem de recusa do assistente. No
função enumeração O papel do autor das mensagens, neste caso assistant.
Valores possíveis: assistente
Yes
name cadeia Um nome opcional para o participante. Fornece informações do modelo para diferenciar entre participantes do mesmo papel. No
tool_calls chatCompletionMessageToolCalls As chamadas de ferramenta geradas pelo modelo, como chamadas de função. No
function_call objeto Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. No

Propriedades para function_call

arguments

Name Tipo Description Default
arguments cadeia Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função.

name

Name Tipo Description Default
name cadeia O nome da função a ser chamada.

chatCompletionRequestToolMessage

Name Tipo Description Required Default
função enumeração O papel do autor das mensagens, neste caso tool.
Valores possíveis: ferramenta
Yes
conteúdo String ou array O conteúdo da mensagem da ferramenta. Yes
tool_call_id cadeia Chamada de ferramenta à qual essa mensagem está respondendo. Yes

chatCompletionRequestFunctionMessage

Name Tipo Description Required Default
função enumeração O papel do autor das mensagens, neste caso function.
Valores possíveis: função
Yes
conteúdo cadeia O conteúdo da mensagem funcional. Yes
name cadeia O nome da função a ser chamada. Yes

chatCompletionRequestSystemMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestUserMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestAssistantMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestToolMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestMessageContentPartText

Name Tipo Description Required Default
tipo enumeração O tipo do conteúdo é a parte.
Valores possíveis: texto
Yes
enviar SMS cadeia O conteúdo do texto. Yes

chatCompletionRequestMessageContentPartImage

Name Tipo Description Required Default
tipo enumeração O tipo do conteúdo é a parte.
Valores possíveis: image_url
Yes
image_url objeto Yes

Propriedades para image_url

url

Name Tipo Description Default
url cadeia Ou uma URL da imagem ou os dados da imagem codificada base64.

detail

Name Tipo Description Default
detail cadeia Especifica o nível de detalhe da imagem. Saiba mais no guia Visão. auto

chatCompletionRequestMessageContentPartRefusal

Name Tipo Description Required Default
tipo enumeração O tipo do conteúdo é a parte.
Valores possíveis: recusa
Yes
refusal cadeia A mensagem de recusa gerada pelo modelo. Yes

azureChatExtensionConfiguration

Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

Name Tipo Description Required Default
tipo azureChatExtensionType Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um chat
completions solicitam que devem usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes

azureChatExtensionType

Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

Description: Uma representação dos dados de configuração para uma única extensão de chat OpenAI Azure. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

Type: string

Default:

Enum Name: AzureChatExtensionType

Enum Values:

Value Description
azure_search Representa o uso do Azure Search como uma extensão de chat do Azure OpenAI.
azure_cosmos_db Representa o uso do Azure Cosmos DB como uma extensão de chat do Azure OpenAI.

azureSearchChatExtensionConfiguration

Uma representação específica das opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
tipo azureChatExtensionType Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um chat
completions solicitam que devem usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes
parameters azureSearchChatExtensionParameters Parâmetros para Azure Search quando usados como uma extensão de chat do Azure OpenAI. No

azureSearchChatExtensionParameters

Parâmetros para Azure Search quando usados como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
autenticação onSeuDataApiChaveOpções de Autenticação ou onSeuDataSystemAssignadoGerenciadoIdentidadeOpções de Autenticação ou onSeuDataUsuárioAssignadoGerenciadoIdentidadeOpções de Autenticação Yes
top_n_documents inteiro O número superior configurado de documentos a serem destacados para a consulta configurada. No
in_scope boolean Se consultas deveriam ser restritas ao uso de dados indexados. No
strictness inteiro A rigidez configurada do filtro de relevância de busca. Quanto maior a rigor, maior a precisão, mas menor a recordação da resposta. No
role_information cadeia Forneça ao modelo instruções sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Você pode descrever a personalidade do assistente e explicar como formatar as respostas. Há um limite de 100 tokens para ele, e ele conta contra o limite total de tokens. No
ponto de extremidade cadeia O caminho de endpoint absoluto para o recurso do Azure Search usar. Yes
index_name cadeia O nome do índice a ser usado como disponível no recurso de pesquisa do Azure referenciado. Yes
fields_mapping azureSearchIndexFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso de busca do Azure configurado. No
query_type azureSearchQueryType O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI. No
semantic_configuration cadeia A configuração semântica adicional para a consulta. No
filtro cadeia Search filter. No
embedding_dependency onSeuDataDataEndpointVectorizaçãoFonte ou onSeuDataDeploymentNomeVectorizaçãoFonte No

azureSearchIndexFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso de busca do Azure configurado.

Name Tipo Description Required Default
title_field cadeia O nome do campo índice para usar como título. No
url_field cadeia O nome do campo índice a usar como URL. No
filepath_field cadeia O nome do campo índice a usar como caminho de arquivo. No
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. No
content_fields_separator cadeia O padrão de separação que os campos de conteúdo devem usar. No
vector_fields matriz Os nomes dos campos que representam dados vetoriais. No

azureSearchQueryType

O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI.

Description: O tipo de consulta de recuperação de busca Azure que deve ser executada ao usá-la como uma extensão de chat Azure OpenAI.

Type: string

Default:

Enum Name: AzureSearchQueryType

Enum Values:

Value Description
simple Representa o parser de consultas padrão e simples.
semantic Representa o parser de consultas semânticas para modelagem semântica avançada.
vetor Representa busca vetorial sobre dados calculados.
vector_simple_hybrid Representa uma combinação da estratégia simples de consulta com dados vetoriais.
vector_semantic_hybrid Representa uma combinação de busca semântica e consulta vetorial de dados.

azureCosmosDBChatExtensionConfiguration

Uma representação específica das opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
tipo azureChatExtensionType Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um chat
completions solicitam que devem usar extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes
parameters azureCosmosDBChatExtensionParameters Parâmetros a serem usados ao configurar extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para
MongoDB vCore.
No

azureCosmosDBChatExtensionParameters

Parâmetros a serem usados ao configurar extensões do chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore.

Name Tipo Description Required Default
autenticação onYourDataConnectionStringAuthenticationOptions As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão. Yes
top_n_documents inteiro O número superior configurado de documentos a serem destacados para a consulta configurada. No
in_scope boolean Se consultas deveriam ser restritas ao uso de dados indexados. No
strictness inteiro A rigidez configurada do filtro de relevância de busca. Quanto maior a rigor, maior a precisão, mas menor a recordação da resposta. No
role_information cadeia Forneça ao modelo instruções sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Você pode descrever a personalidade do assistente e explicar como formatar as respostas. Há um limite de 100 tokens para ele, e ele conta contra o limite total de tokens. No
database_name cadeia O nome do banco de dados MongoDB vCore para usar com o Azure Cosmos DB. Yes
container_name cadeia O nome do contêiner de recursos do Azure Cosmos DB. Yes
index_name cadeia O nome do índice do MongoDB vCore para usar com o Azure Cosmos DB. Yes
fields_mapping azureCosmosDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso do Azure Cosmos DB configurado. Yes
embedding_dependency onSeuDataDataEndpointVectorizaçãoFonte ou onSeuDataDeploymentNomeVectorizaçãoFonte Yes

azureCosmosDBFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso do Azure Cosmos DB configurado.

Name Tipo Description Required Default
title_field cadeia O nome do campo índice para usar como título. No
url_field cadeia O nome do campo índice a usar como URL. No
filepath_field cadeia O nome do campo índice a usar como caminho de arquivo. No
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Yes
content_fields_separator cadeia O padrão de separação que os campos de conteúdo devem usar. No
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Yes

onYourDataAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data.

Name Tipo Description Required Default
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes

onYourDataAuthenticationType

Os tipos de autenticação suportados pelo Azure OpenAI On Your Data.

Description: Os tipos de autenticação suportados pelo Azure OpenAI On Your Data.

Type: string

Default:

Nome Enum: OnYourDataAuthenticationType

Enum Values:

Value Description
api_key Autenticação via chave API.
connection_string Autenticação via cadeia de conexão.
system_assigned_managed_identity Autenticação via identidade gerenciada atribuída ao sistema.
user_assigned_managed_identity Autenticação via identidade gerenciada atribuída pelo usuário.

onYourDataApiKeyAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API.

Name Tipo Description Required Default
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes
chave cadeia A chave de API para usar para autenticação. No

onYourDataConnectionStringAuthenticationOptions

As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão.

Name Tipo Description Required Default
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes
connection_string cadeia A cadeia de conexão para usar para autenticação. No

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo sistema.

Name Tipo Description Required Default
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.

Name Tipo Description Required Default
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes
managed_identity_resource_id cadeia O ID de recurso da identidade gerenciada atribuída pelo usuário para ser usada para autenticação. No

onYourDataVectorizationSource

Uma representação abstrata de uma fonte de vetorização para Azure OpenAI On Your Data com busca vetorial.

Name Tipo Description Required Default
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização de dados para uso com
vector search.
Yes

onYourDataVectorizationSourceType

Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial.

Description: Representa as fontes disponíveis Azure o OpenAI On Your Data pode usar para configurar a vetorização dos dados para uso com
vector search.

Type: string

Default:

Nome Enum: OnYourDataVectorizationSourceType

Enum Values:

Value Description
ponto de extremidade Representa vetorização realizada por chamadas de serviço público para um modelo de embedding do Azure OpenAI.
deployment_name Representa o nome de um modelo de implantação Ada a ser usado. Essa implantação do modelo deve estar no mesmo recurso do Azure OpenAI, mas
O On Your Data usará esse modelo para implantação via uma chamada interna em vez de pública, o que permite vetor
Procure até mesmo em redes privadas.

onYourDataDeploymentNameVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar busca vetorial, que é baseada em um nome interno de implantação de modelo de embeddings no mesmo recurso Azure OpenAI.

Name Tipo Description Required Default
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização de dados para uso com
vector search.
Yes
deployment_name cadeia Especifica o nome da implantação do modelo a ser usada para vetorização. Essa implantação do modelo deve ser no mesmo recurso Azure OpenAI, mas a On Your Data usará essa implantação do modelo por meio de uma chamada interna em vez de pública, o que permite busca vetorial mesmo em redes privadas. No

onYourDataEndpointVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar busca vetorial, que é baseada em uma chamada pública de endpoint do Azure OpenAI para embeddings.

Name Tipo Description Required Default
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização de dados para uso com
vector search.
Yes
autenticação onYourDataApiKeyAuthenticationOptions As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API. No
ponto de extremidade cadeia Especifica o ponto final a ser usado para vetorização. Esse endpoint deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará esse endpoint por meio de uma chamada interna em vez de pública, o que permite busca vetorial mesmo em redes privadas. No

azureChatExtensionsMessageContext

Uma representação das informações adicionais de contexto disponíveis quando extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta correspondente de conclusão de chat. Essa informação de contexto só é preenchida quando se usa uma requisição OpenAI do Azure configurada para usar uma extensão correspondente.

Name Tipo Description Required Default
citations matriz O resultado da recuperação da fonte de dados, usado para gerar a mensagem assistente na resposta. No
intenção cadeia A intenção detectada do histórico do chat, usada para passar para o próximo turno para manter o contexto. No

citation

Informações de citação para uma mensagem de resposta de conclusão de chat.

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da citação. Yes
title cadeia O título da citação. No
url cadeia A URL da citação. No
filepath cadeia O caminho do arquivo da citação. No
chunk_id cadeia O ID do bloco da multa. No

chatCompletionMessageToolCall

Name Tipo Description Required Default
id cadeia O ID da chamada de ferramenta. Yes
tipo toolCallType O tipo de chamada de ferramenta, neste caso function. Yes
função objeto A função que o modelo chamou. Yes

Propriedades para função

name

Name Tipo Description Default
name cadeia O nome da função a ser chamada.

arguments

Name Tipo Description Default
arguments cadeia Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função.

toolCallType

O tipo de chamada de ferramenta, neste caso function.

Descrição: O tipo da chamada de ferramenta, neste caso function.

Type: string

Default:

Nome do Enum: ToolCallType

Enum Values:

Value Description
função O tipo de chamada de ferramenta é função.

chatCompletionRequestMessageTool

Name Tipo Description Required Default
tool_call_id cadeia Chamada de ferramenta à qual essa mensagem está respondendo. No
conteúdo cadeia O conteúdo da mensagem. No

chatCompletionRequestMessageFunction

Name Tipo Description Required Default
função enumeração O papel do autor das mensagens, neste caso function.
Valores possíveis: função
No
name cadeia O conteúdo da mensagem. No
conteúdo cadeia O conteúdo da mensagem. No

createChatCompletionResponse

Representa uma resposta de conclusão do chat retornada pelo modelo, com base na entrada fornecida.

Name Tipo Description Required Default
id cadeia Um identificador único para a conclusão do chat. Yes
prompt_filter_results promptFilterResults Filtrar conteúdo resulta em nenhum ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de diferentes prompts podem chegar em horários ou ordens diferentes. No
choices matriz Uma lista de opções para completar o chat. Pode ser mais de um se n for maior que 1. Yes
created inteiro O carimbo de tempo do Unix (em segundos) de quando a conclusão do chat foi criada. Yes
modelo cadeia O modelo usado para completar o chat. Yes
system_fingerprint cadeia Essa impressão digital representa a configuração do backend com a qual o modelo roda.

Pode ser usado em conjunto com o seed parâmetro de requisição para entender quando mudanças no backend foram feitas que possam impactar o determinismo.
No
objeto enumeração O tipo de objeto, que é sempre chat.completion.
Valores possíveis: chat.completion
Yes
uso completionUsage Estatísticas de uso para a solicitação de conclusão. No

createChatCompletionStreamResponse

Representa um trecho transmitido de uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.

Name Tipo Description Required Default
id cadeia Um identificador único para a conclusão do chat. Cada bloco tem o mesmo ID. Yes
choices matriz Uma lista de opções para completar o chat. Pode conter mais de um elemento se n for maior que 1.
Yes
created inteiro O carimbo de tempo do Unix (em segundos) de quando a conclusão do chat foi criada. Cada bloco tem o mesmo carimbo de data. Yes
modelo cadeia O modelo para gerar a completude. Yes
system_fingerprint cadeia Essa impressão digital representa a configuração do backend com a qual o modelo roda.
Pode ser usado em conjunto com o seed parâmetro de requisição para entender quando mudanças no backend foram feitas que possam impactar o determinismo.
No
objeto enumeração O tipo de objeto, que é sempre chat.completion.chunk.
Valores possíveis: chat.completion.chunk
Yes

chatCompletionStreamResponseDelta

Um delta de conclusão do chat gerado por respostas de modelos transmitidos.

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem do bloco. No
function_call objeto Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. No
tool_calls matriz No
função enumeração O papel do autor desta mensagem.
Valores possíveis: sistema, usuário, assistente, ferramenta
No
refusal cadeia A mensagem de recusa gerada pelo modelo. No

Propriedades para function_call

arguments

Name Tipo Description Default
arguments cadeia Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função.

name

Name Tipo Description Default
name cadeia O nome da função a ser chamada.

chatCompletionMessageToolCallChunk

Name Tipo Description Required Default
indexar inteiro Yes
id cadeia O ID da chamada de ferramenta. No
tipo enumeração O tipo da ferramenta. Atualmente, somente function é suportado.
Valores possíveis: função
No
função objeto No

Propriedades para função

name

Name Tipo Description Default
name cadeia O nome da função a ser chamada.

arguments

Name Tipo Description Default
arguments cadeia Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função.

chatCompletionStreamOptions

Opções para resposta ao streaming. Só define isso quando você define stream: true.

Name Tipo Description Required Default
include_usage boolean Se ativado, um pedaço adicional será transmitido antes da data: [DONE] mensagem. O usage campo nesse bloco mostra as estatísticas de uso do token para toda a requisição, e o choices campo sempre será um array vazio. Todos os outros chunks também incluirão um usage corpo, mas com valor nulo.
No

chatCompletionChoiceLogProbs

Registre as informações de probabilidade para a escolha.

Name Tipo Description Required Default
conteúdo matriz Uma lista de tokens de conteúdo de mensagens com informações de probabilidade logarítmica. Yes
refusal matriz Uma lista de tokens de recusa de mensagens com informações de probabilidade logarítmica. No

chatCompletionTokenLogprob

Name Tipo Description Required Default
símbolo cadeia The token. Yes
logprob number A probabilidade logarítmica desse token. Yes
bytes matriz Uma lista de inteiros representando a representação UTF-8 bytes do token. Útil em casos em que caracteres são representados por múltiplos tokens e suas representações em bytes precisam ser combinadas para gerar a representação correta do texto. Pode ser null se não houver representação em bytes para o token. Yes
top_logprobs matriz Lista dos tokens mais prováveis e sua probabilidade logarítmica, nesta posição do token. Em casos raros, pode haver menos do que o número de solicitados top_logprobs devolvidos. Yes

chatCompletionResponseMessage

Uma mensagem de conclusão do chat gerada pelo modelo.

Name Tipo Description Required Default
função chatCompletionResponseMessageRole O papel do autor da mensagem de resposta. Yes
refusal cadeia A mensagem de recusa gerada pelo modelo. Yes
conteúdo cadeia O conteúdo da mensagem. Yes
tool_calls matriz As chamadas de ferramenta geradas pelo modelo, como chamadas de função. No
function_call chatCompletionFunctionCall Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. No
contexto azureChatExtensionsMessageContext Uma representação das informações adicionais de contexto disponíveis quando extensões de chat do Azure OpenAI estão envolvidas
na geração de uma resposta correspondente de conclusão de chat. Essa informação de contexto só é preenchida quando
usando uma requisição do OpenAI do Azure configurada para usar uma extensão correspondente.
No

chatCompletionResponseMessageRole

O papel do autor da mensagem de resposta.

Descrição: O papel do autor da mensagem de resposta.

Type: string

Default:

Enum Values:

  • assistente

chatCompletionToolChoiceOption

Controle qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica força {"type": "function", "function": {"name": "my_function"}} o modelo a chamá-la. none é o padrão quando não há ferramentas presentes. auto é o padrão se as ferramentas estiverem presentes.

Esse componente pode ser um dos seguintes:

chatCompletionNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.

Name Tipo Description Required Default
tipo enumeração O tipo da ferramenta. Atualmente, somente function é suportado.
Valores possíveis: função
Yes
função objeto Yes

Propriedades para função

name

Name Tipo Description Default
name cadeia O nome da função a ser chamada.

ParallelToolCalls

Se deve ativar a chamada paralela de funções durante o uso da ferramenta.

Nenhuma propriedade definida para esse componente.

chatCompletionMessageToolCalls

As chamadas de ferramenta geradas pelo modelo, como chamadas de função.

Nenhuma propriedade definida para esse componente.

chatCompletionFunctionCall

Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo.

Name Tipo Description Required Default
name cadeia O nome da função a ser chamada. Yes
arguments cadeia Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função. Yes

completionUsage

Estatísticas de uso para a solicitação de conclusão.

Name Tipo Description Required Default
prompt_tokens inteiro Número de tokens no prompt. Yes
completion_tokens inteiro Número de tokens na conclusão gerada. Yes
total_tokens inteiro Número total de tokens usados na solicitação (prompt + conclusão). Yes
completion_tokens_details objeto Análise dos tokens usados em uma conclusão. No

Propriedades para completion_tokens_details

reasoning_tokens

Name Tipo Description Default
reasoning_tokens inteiro Tokens gerados pelo modelo para raciocínio.

chatCompletionTool

Name Tipo Description Required Default
tipo enumeração O tipo da ferramenta. Atualmente, somente function é suportado.
Valores possíveis: função
Yes
função FunctionObject Yes

FunctionParameters

Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Veja o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.

Nenhuma propriedade definida para esse componente.

FunctionObject

Name Tipo Description Required Default
description cadeia Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. No
name cadeia O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhaduras e traços, com comprimento máximo de 64. Yes
parameters FunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Veja o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
No
strict boolean Se deve permitir a adesão estrita ao esquema ao gerar a chamada de função. Se definido como verdadeiro, o modelo seguirá exatamente o esquema definido no parameters campo. Apenas um subconjunto do Esquema JSON é suportado quando strict é true. No False

ResponseFormatText

Name Tipo Description Required Default
tipo enumeração O tipo de formato de resposta definido: text
Valores possíveis: texto
Yes

ResponseFormatJsonObject

Name Tipo Description Required Default
tipo enumeração O tipo de formato de resposta definido: json_object
Valores possíveis: json_object
Yes

ResponseFormatJsonSchemaSchema

O esquema para o formato de resposta, descrito como um objeto de Esquema JSON.

Nenhuma propriedade definida para esse componente.

ResponseFormatJsonSchema

Name Tipo Description Required Default
tipo enumeração O tipo de formato de resposta definido: json_schema
Valores possíveis: json_schema
Yes
json_schema objeto Yes

Propriedades para json_schema

description

Name Tipo Description Default
description cadeia Uma descrição do que serve o formato de resposta, usada pelo modelo para determinar como responder no formato.

name

Name Tipo Description Default
name cadeia O nome do formato da resposta. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhaduras e traços, com comprimento máximo de 64.

esquema

Name Tipo Description Default
esquema ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de Esquema JSON.

strict

Name Tipo Description Default
strict boolean Se deve ativar a adesão estrita ao esquema ao gerar a saída. Se definido como verdadeiro, o modelo sempre seguirá exatamente o esquema definido no schema campo. Apenas um subconjunto do Esquema JSON é suportado quando strict é true. False

chatCompletionChoiceCommon

Name Tipo Description Required Default
indexar inteiro No
finish_reason cadeia No

createTranslationRequest

Translation request.

Name Tipo Description Required Default
arquivo cadeia O arquivo de áudio para traduzir. Yes
solicitação cadeia Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Se definido para 0, o modelo usará a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limites sejam atingidos. No 0

audioResponse

Resposta de tradução ou transcrição quando response_format era json

Name Tipo Description Required Default
enviar SMS cadeia Texto traduzido ou transcrito. Yes

audioVerboseResponse

Resposta de tradução ou transcrição quando response_format foi verbose_json

Name Tipo Description Required Default
enviar SMS cadeia Texto traduzido ou transcrito. Yes
tarefa cadeia Tipo de tarefa de áudio. No
linguagem cadeia Language. No
duration number Duration. No
segments matriz No

audioResponseFormat

Define o formato da saída.

Descrição: Define o formato da saída.

Type: string

Default:

Enum Values:

  • json
  • enviar SMS
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Transcription request.

Name Tipo Description Required Default
arquivo cadeia O arquivo de áudio é objeto para transcrever. Yes
solicitação cadeia Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder à linguagem do áudio. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Se definido para 0, o modelo usará a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limites sejam atingidos. No 0
linguagem cadeia O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 melhorará a precisão e a latência. No

audioSegment

Segmento de transcrição ou tradução.

Name Tipo Description Required Default
id inteiro Segment identifier. No
seek number Deslocamento do segmento. No
start number Início do segmento deslocado. No
end number Deslocamento no final do segmento. No
enviar SMS cadeia Segment text. No
tokens matriz Símbolos do texto. No
temperature number Temperature. No
avg_logprob number Probabilidade logarítmica média. No
compression_ratio number Compression ratio. No
no_speech_prob number Probabilidade de no speech. No

imageQuality

A qualidade da imagem que será gerada.

Descrição: A qualidade da imagem que será gerada.

Type: string

Default: standard

Nome Enum: Quality

Enum Values:

Value Description
padrão Qualidade padrão cria imagens com qualidade padrão.
hd A qualidade HD cria imagens com detalhes mais finos e maior consistência em toda a imagem.

imagesResponseFormat

O formato no qual as imagens geradas são retornadas.

Descrição: O formato no qual as imagens geradas são retornadas.

Type: string

Default: url

Nome do enum: ImagesResponseFormat

Enum Values:

Value Description
url A URL que oferece acesso temporário para baixar as imagens geradas.
b64_json As imagens geradas são retornadas como strings codificadas em base64.

imageSize

O tamanho das imagens geradas.

Descrição: O tamanho das imagens geradas.

Type: string

Default: 1024x1024

Nome Enum: Tamanho

Enum Values:

Value Description
1792x1024 O tamanho desejado da imagem gerada é 1792x1024 pixels.
1024x1792 O tamanho desejado da imagem gerada é 1024x1792 pixels.
1024x1024 O tamanho desejado da imagem gerada é 1024x1024 pixels.

imageStyle

O estilo das imagens geradas.

Descrição: O estilo das imagens geradas.

Type: string

Default: vivid

Nome Enum: Style

Enum Values:

Value Description
vivid Vivid cria imagens hiper-realistas e dramáticas.
natural Natural cria imagens mais naturais e menos hiper-realistas.

imageGenerationsRequest

Name Tipo Description Required Default
solicitação cadeia Uma descrição em texto da(s) imagem(s) desejada(s). O comprimento máximo é de 4.000 caracteres. Yes
n inteiro O número de imagens a serem geradas. No 1
size imageSize O tamanho das imagens geradas. No 1024x1024
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. No url
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. No
quality imageQuality A qualidade da imagem que será gerada. No padrão
estilo imageStyle O estilo das imagens geradas. No vivid

generateImagesResponse

Name Tipo Description Required Default
created inteiro O carimbo de data do unix quando a operação foi criada. Yes
dados matriz Os dados de resultado da operação, se bem-sucedidos Yes

imageResult

A URL da imagem ou imagem codificada se for bem-sucedida, e um erro caso contrário.

Name Tipo Description Required Default
url cadeia A URL da imagem. No
b64_json cadeia A imagem codificada base64 No
content_filter_results dalleContentFilterResults Informações sobre os resultados do filtro de conteúdo. No
revised_prompt cadeia O prompt usado para gerar a imagem, caso houvesse alguma revisão no prompt. No
prompt_filter_results dalleFilterResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu id. No

Completions extensions

Extensões de completions não fazem parte da versão mais recente de GA da especificação de inferência do plano de dados do Azure OpenAI.

Chatmessage

O objeto de mensagem Chat não faz parte da versão mais recente de GA da especificação de inferência do plano de dados do Azure OpenAI.

Texto para fala (Prévia)

Atualmente, não faz parte da versão mais recente Azure OpenAI GA da especificação de inferência de planos de dados do Open Azure AI. Consulte a versão mais recente prévia para essa capacidade.

Next steps

Aprenda sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos underlying que alimentam Azure OpenAI.