Azure OpenAI na referência de prévia REST API do Microsoft Foundry Models

Este artigo fornece detalhes sobre os endpoints de inferência da API REST para Azure OpenAI.

API specs

Gerenciar e interagir com modelos e recursos do OpenAI do Azure é dividido em três superfícies principais de API:

  • Control plane
  • Plano de dados - autoria
  • Plano de dados - inferência

Cada superfície/especificação de API encapsula um conjunto diferente de capacidades do Azure OpenAI. Cada API possui seu próprio conjunto único de pré-visualizações e versões estáveis/geralmente disponíveis (GA). Os lançamentos de prévia atualmente tendem a seguir uma cadência mensal.

Important

Agora há uma nova API de inferência de pré-visualização. Saiba mais em nosso guia do ciclo de vida da API.

API Última versão de prévia Última versão da GA Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files A API do plano de controle é usada para operações como criação de recursos, implantação de modelos e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também governa o que é possível fazer com capacidades como Azure Resource Manager, Bicep, Terraform e CLI do Azure.
Data plane v1 preview v1 Spec files A API do plano de dados controla as operações de inferência e autoria.

Authentication

O Azure OpenAI oferece dois métodos para autenticação. Você pode usar tanto API Keys quanto Microsoft Entra ID.

  • Autenticação de Chave API: Para esse tipo de autenticação, todas as requisições de API devem incluir a Chave API no api-key cabeçalho HTTP. O Quickstart fornece orientações sobre como fazer chamadas com esse tipo de autenticação.

  • Microsoft Entra ID: Você pode autenticar uma chamada API usando um token Microsoft Entra. Tokens de autenticação são incluídos em uma solicitação como cabeçalho Authorization . O token fornecido deve ser precedido por Bearer, por exemplo Bearer YOUR_AUTH_TOKEN. Você pode ler nosso guia prático sobre autenticação com Microsoft Entra ID.

Versionamento da API REST

As APIs de serviço são versionadas usando o api-version parâmetro de consulta. Todas as versões seguem a estrutura de datas YYYY-MM-DD. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferência de plano de dados

O restante do artigo aborda a versão prévia 2025-04-01-preview da especificação de inferência de planos de dados do Azure OpenAI.

Se você está procurando documentação sobre a última versão da API GA, consulte a API mais recente de inferência de planos de dados GA

Completions - Create

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
best_of inteiro Gera best_of conclusãos do lado do servidor e retorna o "melhor" (aquele com maior probabilidade logaritária por token). Os resultados não podem ser transmitidos em streaming.

Quando usado com n, best_of controla o número de conclusãos candidatas e n especifica quantas devolver ââ'¬â€œ best_of devem ser maiores que n.

Nota: Como esse parâmetro gera muitas conclusãos, ele pode rapidamente consumir sua cota de tokens. Use com cuidado e certifique-se de que você tenha configurações razoáveis para max_tokens e stop.
No 1
echo boolean Repita o prompt além da conclusão No False
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. No 0
logit_bias objeto Modificar a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pelo ID do token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante.

Por exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
No None
logprobs inteiro Inclua as probabilidades logarítmicas dos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retorna uma lista dos 5 tokens mais prováveis. A API sempre retorna o logprob do token amostrado, então pode haver até logprobs+1 até elementos na resposta.

O valor máximo para logprobs é 5.
No None
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão.

A contagem de tokens do seu prompt plus max_tokens não pode exceder o comprimento de contexto do modelo.
No 16
n inteiro Quantas conclusãos gerar para cada prompt.

Nota: Como esse parâmetro gera muitas conclusãos, ele pode rapidamente consumir sua cota de tokens. Use com cuidado e certifique-se de que você tenha configurações razoáveis para max_tokens e stop.
No 1
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas. No 0
solicitação String ou array O prompt para gerar completações para, codificado como uma string, array de strings, array de tokens ou array de tokens.

Note que <|endoftext|> é o separador de documentos que o modelo vê durante o treinamento, então, se um prompt não for especificado, o modelo gera como se fosse do início de um novo documento.
Yes
seed inteiro Se especificado, nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que requisições repetidas com os mesmos seed parâmetros e retornem o mesmo resultado.

Determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro de resposta para monitorar mudanças no backend.
No
stop String ou array Até quatro sequências em que a API para de gerar mais tokens. O texto devolvido não vai conter a sequência de paradas. No
fluxo boolean Se deveria recuar o progresso parcial. Se ativados, os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem. Exemplo Python código.
No False
suffix cadeia O sufixo que vem após a conclusão do texto inserido.

Esse parâmetro é suportado apenas para gpt-3.5-turbo-instruct.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.

Geralmente recomendamos alterar isso ou top_p , mas não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou temperature , mas não ambos.
No 1
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos.
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse

Código de status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

Examples

Example

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Respostas: Código de status: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Embeddings - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Obtenha uma representação vetorial de uma entrada dada que possa ser facilmente consumida por modelos e algoritmos de aprendizado de máquina.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia O ID de implantação do modelo que foi implantado.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
dimensions inteiro O número de dimensões que os embeddings de saída resultantes devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. No
encoding_format cadeia O formato para retornar os embeddings. Pode ser qualquer um ou floatbase64outro. O padrão é .float No
entrada String ou array Input texto para incorporar, codificado como uma string ou array de tokens. Para incorporar múltiplas entradas em uma única requisição, passe um array de strings ou array de tokens. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma string vazia, e qualquer array deve ter 2.048 dimensões ou menos. Yes
input_type cadeia Tipo de entrada de busca de embedding a usar No
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json objeto

Examples

Example

Devolva os embeddings para um determinado prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Conclusão do chat - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Cria uma conclusão para a mensagem do chat

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
audio objeto Parâmetros para saída de áudio. É necessário quando a saída de áudio é solicitada com modalities: ["audio"]. No
└─ format enumeração Especifica o formato de áudio de saída. Deve ser um dos wav, mp3, flac, opus, ou pcm16.

Valores possíveis: wav, mp3, flac, opus, pcm16
No
└─ voice enumeração Especifica o tipo de voz. As vozes suportadas são alloy, echo, fable, onyx, nova, e shimmer.

Valores possíveis: alloy, echo, fable, onyx, nova, shimmer
No
data_sources matriz As entradas de configuração para as extensões de chat do Azure OpenAI que as utilizam.
Essa especificação extra é compatível apenas com o Azure OpenAI.
No
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente.
No 0
function_call string ou chatCompletionFunctionCallOption Descontinuado em favor de tool_choice.

Controla qual (se houver) função é chamada pelo modelo.
none significa que o modelo não chama uma função e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função específica via {"name": "my_function"} força o modelo a chamar essa função.

none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes.
No
functions matriz Descontinuado em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
No
logit_bias objeto Modificar a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pelo ID do token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante.
No None
logprobs boolean Se deveria devolver as probabilidades logarítmicas dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message. No False
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo.
No
messages matriz Uma lista de mensagens que compõem a conversa até agora. Exemplo Python código. Yes
metadados objeto Tags e valores definidos pelo desenvolvedor usados para filtrar completações no painel de completações armazenadas. No
modalities ChatCompletionModalities Tipos de saída que você gostaria que o modelo gerasse para essa solicitação.
A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere tanto respostas de texto quanto de áudio, você pode usar:

["text", "audio"]
No
n inteiro Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Você será cobrado com base no número de tokens gerados em todas as opções. Mantenha-se n para 1 minimizar custos. No 1
parallel_tool_calls ParallelToolCalls Se deve ativar a chamada paralela de funções durante o uso da ferramenta. No True
previsão PredictionContent Configuração para uma Saída Prevista, que pode melhorar muito os tempos de resposta quando grandes partes da resposta do modelo são conhecidas antecipadamente. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas.
No 0
reasoning_effort enumeração Apenas modelos O1

Restringe o esforço no raciocínio para modelos de raciocínio.

Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
Valores possíveis: low, medium, high
No
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas, que garantem que o modelo corresponde ao seu esquema JSON fornecido.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
seed inteiro Esse recurso está em Beta.
Se especificado, nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que requisições repetidas com os mesmos seed parâmetros e retornem o mesmo resultado.
Determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro de resposta para monitorar mudanças no backend.
No
stop String ou array Até 4 sequências em que a API para de gerar mais tokens.
No
armazenar boolean Se devemos ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelos. No
fluxo boolean Se ativado, são enviados deltas parciais de mensagem, como no ChatGPT. Os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados assim que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Exemplo Python código.
No False
stream_options chatCompletionStreamOptions Opções para resposta ao streaming. Só define isso quando você define stream: true.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.

Geralmente recomendamos alterar isso ou top_p , mas não ambos.
No 1
tool_choice chatCompletionToolChoiceOption Controle qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica força {"type": "function", "function": {"name": "my_function"}} o modelo a chamá-la. none é o padrão quando não há ferramentas presentes. auto é o padrão se as ferramentas estiverem presentes. No
tools matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. No máximo 128 funções são suportadas.
No
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade logarítmica associada. logprobs deve ser definido como true se esse parâmetro for usado. No
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou temperature , mas não ambos.
No 1
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos.
No
user_security_context userSecurityContext O contexto de segurança do usuário contém vários parâmetros que descrevem a própria aplicação de IA e o usuário final que interage com a aplicação de IA. Esses campos auxiliam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, oferecendo uma abordagem abrangente para proteger suas aplicações de IA. Saiba mais sobre como proteger aplicações de IA usando Microsoft Defender para Nuvem. No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json objeto

Código de status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

Examples

Example

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão baseada nos dados do Azure Search e na identidade gerenciada atribuída ao sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão baseada em dados vetoriais de imagem do Azure Search.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão baseada nos dados do vetor de busca do Azure, mensagem do assistente anterior e identidade gerenciada atribuída pelo usuário.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão para o Azure Cosmos DB fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão para o banco de dados Mongo fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão para o Elasticsearch fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão para o recurso Pinecone fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcrições - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Transcreve o áudio para a língua de entrada.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: multipart/form-data

Name Tipo Description Required Default
modelo cadeia ID do modelo a ser usado. As opções são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1, e gpt-4o-transcribe-diarize. Yes
arquivo cadeia O arquivo de áudio é objeto para transcrever. Yes
linguagem cadeia O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 melhora a precisão e a latência. No
solicitação cadeia Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder à linguagem do áudio. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Se definido como 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. No 0
timestamp_granularities[] matriz As granularidades do timestamp devem preencher para essa transcrição. response_format deve ser configurado verbose_json para usar granularidades de carimbo de tempo. Uma ou ambas essas opções são suportadas: word, ou segment. Nota: Não há latência adicional para carimbos de tempo de segmentos, mas gerar carimbos de data de tempo de palavra gera latência adicional. No ['segment']

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json objeto
text/plain cadeia Texto transcrito no formato de saída (quando response_format era um dos text, vtt ou srt).

Examples

Example

Recebe texto transcrito e metadados associados a partir dos dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Recebe texto transcrito e metadados associados a partir dos dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduções - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Transcreve e traduz áudio de entrada para texto em inglês.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: multipart/form-data

Name Tipo Description Required Default
arquivo cadeia O arquivo de áudio para traduzir. Yes
solicitação cadeia Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Se definido como 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. No 0

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json objeto
text/plain cadeia Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt).

Examples

Example

Obtém texto transcrito em inglês e metadados associados a partir dos dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtém texto transcrito em inglês e metadados associados a partir dos dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Fala - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Gera áudio a partir do texto de entrada.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: multipart/form-data

Name Tipo Description Required Default
entrada cadeia O texto para sintetizar áudio. O comprimento máximo é de 4.096 caracteres. Yes
response_format enumeração O formato para sintetizar o áudio.
Valores possíveis: mp3, opus, aac, flac, wav, pcm
No
speed number A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0. 1.0 é o padrão. No 1.0
voice enumeração A voz para usar na síntese de voz.
Valores possíveis: alloy, echo, fable, onyx, nova, shimmer
Yes

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/octet-stream cadeia

Examples

Example

Sintetiza o áudio a partir do texto fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Respostas: Código de status: 200

{
  "body": "101010101"
}

Gerações de imagens - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Gera um lote de imagens a partir de uma legenda de texto em uma determinada implantação de modelo de geração de imagem

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
em segundo plano imageBackground Permite definir transparência para o fundo das imagens geradas. Esse parâmetro é suportado apenas para modelos da série gpt-imagem-1. No auto
n inteiro O número de imagens a serem geradas. Para dall-e-3, apenas n=1 é suportado. No 1
output_compression inteiro O nível de compressão (0-100%) para as imagens geradas. Esse parâmetro é suportado apenas para modelos da série gpt-image-1 com o formato de saída jpeg. No 100
output_format imagesOutputFormat O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para modelos da série GPT-image-1. No png
solicitação cadeia Uma descrição em texto da(s) imagem(s) desejada(s). O comprimento máximo é de 32.000 caracteres para a série gpt-image-1 e 4.000 caracteres para dall-e-3 Yes
partial_images inteiro O número de imagens parciais a serem geradas. Esse parâmetro é usado para respostas em streaming que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando configurado para 0, a resposta será uma única imagem enviada em um evento de streaming. Note que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente. 0
fluxo boolean Edite a imagem no modo streaming. no false
quality imageQuality A qualidade da imagem que será gerada. No auto
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. Esse parâmetro não é suportado para gpt-image-1modelos da série -que sempre retornam imagens codificadas base64.
Valores possíveis: url, b64_json.
No url
size imageSize O tamanho das imagens geradas. No auto
estilo imageStyle O estilo das imagens geradas. Só é suportado para DALL-E-3. No vivid
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. No

Responses

Código de status: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Código de status: padrão

Descrição: Ocorreu um erro.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Cria imagens com um prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respostas: Código de status: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Gerações de imagens - Editar

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Edita uma imagem a partir de uma legenda de texto em uma determinada implantação de modelo gpt-image-1

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: multipart/form-data

Name Tipo Description Required Default
imagem String ou array A(s) imagem(ões) a editar. Deve ser um arquivo de imagem suportado ou um array de imagens. Cada imagem deve ser um arquivo png ou jpg com menos de 50MB. Yes
input_fidelity cadeia Controle quanto esforço o modelo fará para combinar com o estilo e as características, especialmente as características faciais, das imagens de entrada. Esse parâmetro é suportado apenas para modelos da série gpt-imagem-1. Suportes high e low. no low.
máscara cadeia Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indica onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um arquivo PNG válido, com menos de 4MB, e ter as mesmas dimensões da imagem. No
n inteiro O número de imagens a serem geradas. Deve estar entre 1 e 10. No 1
solicitação cadeia Uma descrição em texto da(s) imagem(s) desejada(s). O comprimento máximo é de 32.000 caracteres. Yes
quality imageQuality A qualidade da imagem que será gerada. No auto
partial_images O número de imagens parciais a serem geradas. Esse parâmetro é usado para respostas em streaming que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando configurado para 0, a resposta será uma única imagem enviada em um evento de streaming. Note que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente.
fluxo boolean Edite a imagem no modo streaming. no false
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. No url
size imageSize O tamanho das imagens geradas. No auto
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. No

Responses

Código de status: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Código de status: padrão

Descrição: Ocorreu um erro.

Content-Type Type Description
application/json dalleErrorResponse

Lista - Assistentes

Note

A API dos Assistentes está obsoleta e será aposentada em 26 de agosto de 2026. Use o serviço geralmente disponível Microsoft Foundry Agents. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Devolve uma lista de assistentes.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
limit consulta No inteiro Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Ordene pela created_at hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listAssistantsResponse

Examples

Example

Devolve uma lista de assistentes.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Criar - Assistente

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Crie um assistente com um modelo e instruções.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
description cadeia A descrição do assistente. O comprimento máximo é de 512 caracteres.
No
instructions cadeia As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres.
No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia Yes
name cadeia O nome da assistente. O comprimento máximo é de 256 caracteres.
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
No 1
tool_resources objeto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O armazenamento vetorial está ligado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente.
No
└─ vector_stores matriz Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente.
No
tools matriz Uma lista de ferramentas ativadas no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
No []
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou a temperatura, mas não ambos.
No 1

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Crie um assistente com um modelo e instruções.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Get - Assistente

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Busca um assistente.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id caminho Yes cadeia A identidade do assistente para buscar.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Busca um assistente.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modificar - Assistente

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Modifica um assistente.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id caminho Yes cadeia A identificação do assistente para modificar.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
description cadeia A descrição do assistente. O comprimento máximo é de 512 caracteres.
No
instructions cadeia As instruções do sistema que o assistente usa. O comprimento máximo é de 32.768 caracteres.
No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia No
name cadeia O nome da assistente. O comprimento máximo é de 256 caracteres.
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
No 1
tool_resources objeto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial.
No
└─ code_interpreter objeto No
└─ file_ids matriz Sobrepõe a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz Sobrescrive o armazenamento vetorial associado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente.
No
tools matriz Uma lista de ferramentas ativadas no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
No []
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou a temperatura, mas não ambos.
No 1

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Modifica um assistente.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Excluir - Assistente

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Exclua um assistente.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id caminho Yes cadeia O documento do assistente para deletar.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json deleteAssistantResponse

Examples

Example

Exclui um assistente.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Criar - Thread

Note

A API dos Assistentes está obsoleta e será aposentada em 26 de agosto de 2026. Use o serviço geralmente disponível Microsoft Foundry Agents. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Crie um tópico.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
messages matriz Uma lista de mensagens para começar a conversa. No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
tool_resources objeto Um conjunto de recursos disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O armazenamento vetorial anexado a este tópico. Pode haver no máximo 1 armazenamento vetorial anexado à thread.
No
└─ vector_stores matriz Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a essa thread. Pode haver no máximo 1 armazenamento vetorial anexado à thread.
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Cria um fio de condução.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Get - Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Recupera um fio.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID do tópico para recuperar.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Recupera um fio.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modificar - Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Modifica um tópico.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID do tópico a ser modificado. Apenas os metadata que podem ser modificados.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
tool_resources objeto Um conjunto de recursos disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O armazenamento vetorial anexado a este tópico. Pode haver no máximo 1 armazenamento vetorial anexado à thread.
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Modifica um tópico.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Respostas: Código de status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Excluir - Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Apague um tópico.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID do tópico para apagar.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json deleteThreadResponse

Examples

Example

Apaga um tópico.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Lista - Mensagens

Note

A API dos Assistentes está obsoleta e será aposentada em 26 de agosto de 2026. Use o serviço geralmente disponível Microsoft Foundry Agents. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Retorna uma lista de mensagens para um determinado tópico.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID das threads às quais as mensagens pertencem.
limit consulta No inteiro Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Ordene pela created_at hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
run_id consulta No cadeia Filtre as mensagens pelo ID da execução que as gerou.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listMessagesResponse

Examples

Example

List Messages

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Criar - Mensagem

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Crie uma mensagem.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID das threads para criar uma mensagem.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
attachments matriz Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. No
conteúdo cadeia O conteúdo da mensagem. Yes
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
função cadeia O papel da entidade que está criando a mensagem. Valores permitidos incluem:
- user: Indica que a mensagem foi enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.
- assistant: Indica que a mensagem foi gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.
Yes

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Crie uma mensagem.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Respostas: Código de status: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Receba - Mensagem

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Recupere uma mensagem.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID dos threads aos quais esta mensagem pertence.
message_id caminho Yes cadeia O ID da mensagem para recuperar.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Recupere uma mensagem.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Modificar - Mensagem

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Modifica uma mensagem.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID da thread à qual esta mensagem pertence.
message_id caminho Yes cadeia O ID da mensagem a ser modificado.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Modificar uma mensagem.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Respostas: Código de status: 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Criar - Thread e Executar

Note

A API dos Assistentes está obsoleta e será aposentada em 26 de agosto de 2026. Use o serviço geralmente disponível Microsoft Foundry Agents. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Crie uma thread e rode-a em uma única requisição.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
assistant_id cadeia O ID do assistente para executar essa execução. Yes
instructions cadeia Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento a cada execução. No
max_completion_tokens inteiro O número máximo de fichas de conclusão que podem ser usadas ao longo da corrida. A sequência faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de conclusão especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações.
No
max_prompt_tokens inteiro O número máximo de tokens de prompt que podem ser usados ao longo da execução. A sequência faz o melhor esforço para usar apenas o número de fichas de prompt especificadas, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações.
No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia O ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Se não, o modelo associado ao assistente será usado. No
parallel_tool_calls ParallelToolCalls Se deve ativar a chamada paralela de funções durante o uso da ferramenta. No True
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
fluxo boolean Se true, retorna uma sequência de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em estado terminal com uma data: [DONE] mensagem.
No
stream_options chatCompletionStreamOptions Opções para resposta ao streaming. Só define isso quando você define stream: true.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
No 1
conversa createThreadRequest No
tool_choice assistantsApiToolChoiceOption Controle qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} forçar o modelo a chamar essa ferramenta.
No
tool_resources objeto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O ID do armazenamento vetorial associado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente.
No
tools matriz Ignore as ferramentas que o assistente pode usar nessa jogada. Isso é útil para modificar o comportamento a cada execução. No
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou a temperatura, mas não ambos.
No 1
truncation_strategy truncationObject Controles de como uma thread será truncada antes da execução. Use isso para controlar a janela de contexto inicial da execução. No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Crie uma thread e rode-a em uma única requisição.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Respostas: Código de status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Lista - Corridas

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Retorna uma lista de execuções pertencentes a uma thread.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID da thread à qual a execução pertence.
limit consulta No inteiro Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Ordene pela created_at hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listRunsResponse

Examples

Example

Retorna uma lista de execuções pertencentes a uma thread.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Criar - Correr

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Crie uma corrida.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID da thread a ser executada.
include[] consulta No matriz Uma lista de campos adicionais para incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content buscar o conteúdo do resultado de busca do arquivo.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
additional_instructions cadeia Adiciona instruções adicionais ao final das instruções da execução. Isso é útil para modificar o comportamento a cada execução, sem sobrescrever outras instruções. No
additional_messages matriz Adiciona mensagens adicionais ao tópico antes de criar a execução. No
assistant_id cadeia O ID do assistente para executar essa execução. Yes
instructions cadeia Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento a cada execução. No
max_completion_tokens inteiro O número máximo de fichas de conclusão que podem ser usadas ao longo da corrida. A sequência faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de conclusão especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações.
No
max_prompt_tokens inteiro O número máximo de tokens de prompt que podem ser usados ao longo da execução. A sequência faz o melhor esforço para usar apenas o número de fichas de prompt especificadas, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações.
No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia O ID do Modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Se não, o modelo associado ao assistente será usado. No
parallel_tool_calls ParallelToolCalls Se deve ativar a chamada paralela de funções durante o uso da ferramenta. No True
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
fluxo boolean Se true, retorna uma sequência de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em estado terminal com uma data: [DONE] mensagem.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
No 1
tool_choice assistantsApiToolChoiceOption Controle qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} forçar o modelo a chamar essa ferramenta.
No
tools matriz Ignore as ferramentas que o assistente pode usar nessa jogada. Isso é útil para modificar o comportamento a cada execução. No
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou a temperatura, mas não ambos.
No 1
truncation_strategy truncationObject Controles de como uma thread será truncada antes da execução. Use isso para controlar a janela de contexto inicial da execução. No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Crie uma corrida.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Vá - Corra

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Recupera uma corrida.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID das threads que foram executadas.
run_id caminho Yes cadeia O ID da corrida para recuperar.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Ele se diverte.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modificar - Executar

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Modifica uma corrida.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID das threads que foram executadas.
run_id caminho Yes cadeia O ID da execução a ser modificado.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Modifica uma corrida.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Respostas: Código de status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Enviar - Saídas de Ferramentas para Execução

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Quando uma execução tem e status: "requires_action"required_action.type é submit_tool_outputs, esse endpoint pode ser usado para enviar as saídas das chamadas de ferramenta depois que todas estiverem concluídas. Todos os resultados devem ser enviados em um único pedido.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID dos threads aos quais essa execução pertence.
run_id caminho Yes cadeia O ID da execução que requer o envio da saída da ferramenta.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
fluxo boolean Se true, retorna uma sequência de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em estado terminal com uma data: [DONE] mensagem.
No
tool_outputs matriz Uma lista de ferramentas para as quais os resultados estão sendo enviados. Yes

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Quando uma execução tem e status: "requires_action"required_action.type é submit_tool_outputs, esse endpoint pode ser usado para enviar as saídas das chamadas de ferramenta depois que todas estiverem concluídas. Todos os resultados devem ser enviados em um único pedido.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Cancelar - Correr

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Cancela uma sequência que é in_progress.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID do thread ao qual essa execução pertence.
run_id caminho Yes cadeia O ID da corrida para cancelar.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Cancela uma sequência que é in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Lista - Passos de Corrida

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Retorna uma lista de passos de execução pertencentes a uma execução.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID da thread ao qual pertencem os passos run e run.
run_id caminho Yes cadeia O ID do run ao qual os passos run pertencem.
limit consulta No inteiro Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Ordene pela created_at hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
api-version consulta Yes cadeia
include[] consulta No matriz Uma lista de campos adicionais para incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content buscar o conteúdo do resultado de busca do arquivo.

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listRunStepsResponse

Examples

Example

Retorna uma lista de passos de execução pertencentes a uma execução.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Passo Vá - Corra

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Pega um degrau de corrida.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID da thread à qual pertence o passo run e run.
run_id caminho Yes cadeia O ID da execução à qual pertence o passo de execução.
step_id caminho Yes cadeia O ID do passo de corrida para recuperar.
include[] consulta No matriz Uma lista de campos adicionais para incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content buscar o conteúdo do resultado de busca do arquivo.
api-version consulta Yes cadeia

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runStepObject

Examples

Example

Pega um degrau de corrida.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Lista - Armazenamentos Vetoriais

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Retorna uma lista de armazenamentos vetoriais.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
limit consulta No inteiro Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Ordene pela created_at hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
api-version consulta Yes cadeia api version

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listVectorStoresResponse

Examples

Example

Retorna uma lista de armazenamentos vetoriais.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Criar - Armazenamento Vetorial

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Crie um armazenamento vetorial.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version consulta Yes cadeia api version

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. Aplicável apenas se file_ids estiver não vazio. No
expires_after vectorStoreExpirationAfter A política de expiração para um armazenamento vetorial. No
file_ids matriz Uma lista de IDs de arquivo que o armazenamento vetorial deve usar. Útil para ferramentas assim file_search que podem acessar arquivos. No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
name cadeia O nome do armazenamento vetorial. No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Cria um armazenamento vetorial.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Get - Vector Store

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Recupera um armazenamento vetorial.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do armazenamento vetorial para recuperar.
api-version consulta Yes cadeia api version

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Recupera um armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modificar - Armazenamento Vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Modifica um armazenamento vetorial.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do armazenamento vetorial a ser modificado.
api-version consulta Yes cadeia api version

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
expires_after vectorStoreExpirationAfter A política de expiração para um armazenamento vetorial. No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
name cadeia O nome do armazenamento vetorial. No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Modifica um armazenamento vetorial.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Delete - Armazenamento Vetorial

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Exclua um armazenamento vetorial.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do armazenamento vetorial para excluir.
api-version consulta Yes cadeia api version

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreResponse

Examples

Example

Exclui um armazenamento vetorial.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Lista - Arquivos de Armazenamento Vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Retorna uma lista de arquivos de armazenamento vetorial.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do armazenamento vetorial ao qual os arquivos pertencem.
limit consulta No inteiro Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Ordene pela created_at hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
filtro consulta No cadeia
Valores possíveis: in_progress, completed, failed, cancelled
Filtre por status do arquivo. Um de in_progress, completed, failed, cancelled.
api-version consulta Yes cadeia api version

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Retorna uma lista de arquivos de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Create - Arquivo de Armazenamento Vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Crie um arquivo de armazenamento vetorial anexando um Arquivo a um armazenamento vetorial.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do armazenamento vetorial para o qual criar um Arquivo.
api-version consulta Yes cadeia api version

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
chunking_strategy chunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. No
file_id cadeia Um ID de arquivo que o store vetorial deve usar. Útil para ferramentas assim file_search que podem acessar arquivos. Yes

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Crie um arquivo de armazenamento vetorial anexando um Arquivo a um armazenamento vetorial.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Get - Arquivo de Armazenamento Vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Recupera um arquivo de armazenamento vetorial.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do armazenamento vetorial ao qual o arquivo pertence.
file_id caminho Yes cadeia O ID do arquivo sendo recuperado.
api-version consulta Yes cadeia api version

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Recupera um arquivo de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Excluir - Arquivo de Armazenamento Vetorial

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Exclua um arquivo de armazenamento vetorial. Isso vai remover o arquivo do armazenamento vetorial, mas o arquivo em si não será deletado. Para excluir o arquivo, use o endpoint delete file.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do armazenamento vetorial ao qual o arquivo pertence.
file_id caminho Yes cadeia O ID do arquivo para deletar.
api-version consulta Yes cadeia api version

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreFileResponse

Examples

Example

Exclua um arquivo de armazenamento vetorial. Isso vai remover o arquivo do armazenamento vetorial, mas o arquivo em si não será deletado. Para excluir o arquivo, use o endpoint delete file.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Updatevectorstorefileattributes

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Atualize atributos em um arquivo de armazenamento vetorial.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do armazenamento vetorial ao qual o arquivo pertence.
file_id caminho Yes cadeia O ID do arquivo para atualizar atributos.

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
attributes VectorStoreFileAttributes Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard. As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres, booleanos ou números.
Yes

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Recuperar conteúdo de arquivo de armazenamento vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Recupere o conteúdo analisado de um arquivo de armazenamento vetorial.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do armazenamento vetorial.
file_id caminho Yes cadeia O ID do arquivo dentro do armazenamento vetorial.

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json VectorStoreFileContentResponse

Armazenamento vetorial de busca

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Pesquise em um armazenamento vetorial por blocos relevantes com base em um filtro de consulta e atributos de arquivo.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do vetor store para buscar.

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
filters Filtro de Comparação ou Filtro Composto Um filtro para aplicar baseado nos atributos do arquivo. No
max_num_results inteiro O número máximo de resultados a serem detidos. Esse número deve estar entre 1 e 50 inclusive. No 10
consulta String ou array Uma string de consulta para uma busca Yes
ranking_options objeto Opções de classificação para busca. No
└─ ranker enumeração
Valores possíveis: auto, default-2024-11-15
No
└─ score_threshold number No 0
rewrite_query boolean Se reescrever a consulta em linguagem natural para busca vetorial. No False

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json VectorStoreSearchResultsPage

Create - Lote de Arquivo de Armazenamento Vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Crie um lote de arquivo de armazenamento vetorial.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do armazenamento vetorial para o qual criar um File Batch.
api-version consulta Yes cadeia api version

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
chunking_strategy chunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. No
file_ids matriz Uma lista de IDs de arquivo que o armazenamento vetorial deve usar. Útil para ferramentas assim file_search que podem acessar arquivos. Yes

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Crie um lote de arquivo de armazenamento vetorial.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Respostas: Código de status: 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Get - Lote de Arquivo de Armazenamento Vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Recupera um lote de arquivo de armazenamento vetorial.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do armazenamento vetorial ao qual o lote de arquivos pertence.
batch_id caminho Yes cadeia O ID do lote de arquivos que está sendo recuperado.
api-version consulta Yes cadeia api version

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Recupera um lote de arquivo de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Cancelar - Lote de Arquivo de Armazenamento Vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento dos arquivos nesse lote o mais rápido possível.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do armazenamento vetorial ao qual o lote de arquivos pertence.
batch_id caminho Yes cadeia O ID do lote de arquivos para cancelar.
api-version consulta Yes cadeia api version

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento dos arquivos nesse lote o mais rápido possível.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Lista - Arquivos Batch de Armazenamento Vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Retorna uma lista de arquivos de armazenamento vetorial em um lote.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia O ID do armazenamento vetorial ao qual os arquivos pertencem.
batch_id caminho Yes cadeia O ID do lote de arquivos ao qual os arquivos pertencem.
limit consulta No inteiro Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Ordene pela created_at hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista.
filtro consulta No cadeia
Valores possíveis: in_progress, completed, failed, cancelled
Filtre por status do arquivo. Um de in_progress, completed, failed, cancelled.
api-version consulta Yes cadeia api version

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Retorna uma lista de arquivos de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Criar - Realtimesession

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Crie um token de API efêmero para uso em aplicações do lado do cliente com a API Realtime. Pode ser configurado com os mesmos parâmetros de sessão do session.update evento cliente. Ele responde com um objeto de sessão, além de uma client_secret chave que contém um token efêmero de API utilizável que pode ser usado para autenticar clientes de navegador para a API de Tempo Real.

Request Body

Content-Type: application/json

Name Tipo Description Required Default
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits em taxa de amostragem de 24kHz, um único canal (mono) e ordem de bytes little-endian.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction objeto Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null desligar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo.
Filtrar o áudio pode melhorar a precisão da detecção de VAD e de curva (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a percepção do áudio de entrada.
No
└─ type enumeração Tipo de redução de ruído. near_field é para microfones de conversa próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou salas de conferência.

Valores possíveis: near_field, far_field
No
input_audio_transcription objeto Configuração para transcrição de áudio de entrada, padrão para desligado e pode ser configurado para null desligar uma vez ligado. A transcrição de áudio de entrada não é nativa do modelo, já que o modelo consome áudio diretamente. A transcrição roda assíncrona pelo endpoint de Transcrições e deve ser tratada como orientação do conteúdo de áudio de entrada, em vez do que exatamente o modelo ouviu. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, que oferecem orientação adicional ao serviço de transcrição.
No
└─ language cadeia O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência.
No
└─ model cadeia O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.
No
└─ prompt cadeia Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma sequência de texto livre, por exemplo: "espere palavras relacionadas à tecnologia".
No
instructions cadeia As instruções padrão do sistema (ou seja, mensagem do sistema) eram precedidas para as chamadas de modelo. Esse campo permite que o cliente oriente o modelo nas respostas desejadas. O modelo pode ser orientado sobre conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre comportamento áudio (por exemplo, "fale rápido", "injete emoção na sua voz", "ria frequentemente"). As instruções não são garantidas para serem seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado.

Note que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e que estiverem visíveis no session.created evento no início da sessão.
No
max_response_output_tokens inteiro ou cadeia Número máximo de tokens de saída para uma resposta de assistente único, incluindo chamadas de ferramenta. Forneça um número inteiro entre 1 e 4096 para limitar os tokens de saída, ou inf para o número máximo de tokens disponíveis para um determinado modelo. O padrão é .inf
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina isso como ["texto"].
No
modelo cadeia O nome da implantação usada para esta sessão.
No
output_audio_format enumeração O formato do áudio de saída. As opções são pcm16, g711_ulaw, ou g711_alaw.
Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
No
temperature number Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para melhor desempenho.
No 0.8
tool_choice cadeia Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função.
No auto
tools matriz Ferramentas (funções) disponíveis para o modelo. No
turn_detection objeto Configuração para detecção de turno, VAD de servidor ether ou VAD semântico. Isso pode ser configurado para null desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume do áudio e responderá ao final da fala do usuário.
O VAD semântico é mais avançado e utiliza um modelo de detecção de curva (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar, e então define dinamicamente um timeout baseado nessa probabilidade. Por exemplo, se o áudio do usuário perder o ritmo com uhhm, o modelo marcará baixa probabilidade de fim de turno e esperará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
No
└─ create_response boolean Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada VAD.
No True
└─ eagerness enumeração Usado apenas para semantic_vad o modo. A ânsia do modelo em responder. low Vai esperar mais tempo para o usuário continuar falando, high vai responder mais rápido. auto é o padrão e é equivalente a medium.

Valores possíveis: low, medium, high, auto
No
└─ interrupt_response boolean Se interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início do VAD.
No True
└─ prefix_padding_ms inteiro Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detectar a fala (em milissegundos). O padrão é 300ms.
No
└─ silence_duration_ms inteiro Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rápido, mas pode entrar em pausas curtas do usuário.
No
└─ threshold number Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este padrão é 0.5. Um limiar mais alto exigirá áudio mais alto para ativar o modelo e, portanto, pode ter melhor desempenho em ambientes barulhentos.
No
└─ type enumeração Tipo de detecção de curva.

Valores possíveis: server_vad, semantic_vad
No
voice VoiceIdsShared No

Responses

Código de status: 200

Descrição: Sessão criada com sucesso.

Content-Type Type Description
application/json RealtimeSessionCreateResponse

Criar - Transcriptionrealtimesession

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Crie um token de API efêmero para uso em aplicações do lado do cliente com a API em tempo real, especificamente para transcrições em tempo real. Pode ser configurado com os mesmos parâmetros de sessão do transcription_session.update evento cliente. Ele responde com um objeto de sessão, além de uma client_secret chave que contém um token efêmero de API utilizável que pode ser usado para autenticar clientes de navegador para a API de Tempo Real.

Request Body

Content-Type: application/json

Name Tipo Description Required Default
include matriz O conjunto de itens a serem incluídos na transcrição. Os itens atualmente disponíveis são:
- item.input_audio_transcription.logprobs
No
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits em taxa de amostragem de 24kHz, um único canal (mono) e ordem de bytes little-endian.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction objeto Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null desligar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo.
Filtrar o áudio pode melhorar a precisão da detecção de VAD e de curva (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a percepção do áudio de entrada.
No
└─ type enumeração Tipo de redução de ruído. near_field é para microfones de conversa próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou salas de conferência.

Valores possíveis: near_field, far_field
No
input_audio_transcription objeto Configuração para transcrição de áudio de entrada. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, que oferecem orientação adicional ao serviço de transcrição.
No
└─ language cadeia O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência.
No
└─ model enumeração O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.

Valores possíveis: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt cadeia Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma sequência de texto livre, por exemplo: "espere palavras relacionadas à tecnologia".
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina isso como ["texto"].
No
turn_detection objeto Configuração para detecção de turno, VAD de servidor ether ou VAD semântico. Isso pode ser configurado para null desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume do áudio e responderá ao final da fala do usuário.
O VAD semântico é mais avançado e utiliza um modelo de detecção de curva (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar, e então define dinamicamente um timeout baseado nessa probabilidade. Por exemplo, se o áudio do usuário perder o ritmo com uhhm, o modelo marcará baixa probabilidade de fim de turno e esperará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
No
└─ create_response boolean Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada VAD. Não disponível para sessões de transcrição.
No True
└─ eagerness enumeração Usado apenas para semantic_vad o modo. A ânsia do modelo em responder. low Vai esperar mais tempo para o usuário continuar falando, high vai responder mais rápido. auto é o padrão e é equivalente a medium.

Valores possíveis: low, medium, high, auto
No
└─ interrupt_response boolean Se interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início do VAD. Não disponível para sessões de transcrição.
No True
└─ prefix_padding_ms inteiro Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detectar a fala (em milissegundos). O padrão é 300ms.
No
└─ silence_duration_ms inteiro Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rápido, mas pode entrar em pausas curtas do usuário.
No
└─ threshold number Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este padrão é 0.5. Um limiar mais alto exigirá áudio mais alto para ativar o modelo e, portanto, pode ter melhor desempenho em ambientes barulhentos.
No
└─ type enumeração Tipo de detecção de curva.

Valores possíveis: server_vad, semantic_vad
No

Responses

Código de status: 200

Descrição: Sessão criada com sucesso.

Content-Type Type Description
application/json RealtimeTranscriptionSessionCreateResponse

Responses

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Cria uma resposta modelo.

Request Body

Content-Type: application/json

Name Tipo Description Required Default
include matriz No
entrada String ou array Model inputs Yes
instructions cadeia Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a próxima resposta. Isso facilita a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa.
No
parallel_tool_calls boolean Se permitir que o modelo execute chamadas de ferramenta em paralelo.
No True
previous_response_id cadeia O ID único da resposta anterior ao modelo. Use isso para criar conversas com múltiplas turnos. Saiba mais sobre o estado da conversa.
No
reasoning Reasoning Opções de configuração para modelos de raciocínio. No
armazenar boolean Se deve armazenar a resposta do modelo gerado para recuperação posterior via API.
No True
fluxo boolean Se configurado como true, os dados de resposta do modelo serão transmitidos ao cliente conforme são gerados usando eventos enviados pelo servidor.
Veja a seção de Streaming abaixo para mais informações.
No False
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Learn more:
- Entradas e saídas de texto
- Saídas Estruturadas
No
└─ format TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

Configurar { "type": "json_schema" } habilita Structured Outputs, que garante que o modelo corresponda ao seu esquema JSON fornecido.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferido para modelos que o suportam.
No
tool_choice OpçõesDeEscolhaFerramenta ou TiposDeEscolha de Ferramenta ou FunçãoDeEscolhaFerramenta Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Veja o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
No
tools matriz Uma variedade de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas integradas: Ferramentas fornecidas pela OpenAI que estendem o
model's capabilities
No
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: Se o contexto dessa resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, deixando de lado itens de entrada no meio da conversa.
- disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto para um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json response
text/event-stream responseStreamEvent

Código de status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

API de Respostas - itens de entrada

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Recupera uma resposta do modelo com o ID fornecido.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id caminho Yes cadeia O ID da resposta para recuperar.
include consulta No matriz Campos adicionais para incluir na resposta. Veja o include parâmetro para criação de resposta acima para mais informações.

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json response

Código de status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

Delete response

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Exclui uma resposta do modelo com o ID fornecido.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id caminho Yes cadeia O ID da resposta para deletar.

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Código de status: 404

Descrição: Não Encontrado

Content-Type Type Description
application/json error

Código de status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

API de respostas - lista de itens de resposta

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Retorna uma lista de itens de entrada para uma resposta dada.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id caminho Yes cadeia O ID da resposta para recuperar itens de entrada para.
limit consulta No inteiro Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
A ordem para retornar os itens de entrada. O padrão é asc.
- asc: Devolver os itens de entrada em ordem crescente.
- desc: Retorne os itens de entrada em ordem decrescente.
after consulta No cadeia Um ID de item para listar os itens depois, usado na paginação.
before consulta No cadeia Um ID de item para listar itens anteriores, usado na paginação.

Request Header

Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ESCOPO: https://ai.azure.com/.default
api-key True cadeia Forneça a chave API do Azure OpenAI aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json responseItemList

Components

errorResponse

Name Tipo Description Required Default
erro error No

errorBase

Name Tipo Description Required Default
codificar cadeia No
mensagem cadeia No

erro

Name Tipo Description Required Default
inner_error innerError Erro interno com detalhes adicionais. No
param cadeia No
tipo cadeia No

innerError

Erro interno com detalhes adicionais.

Name Tipo Description Required Default
codificar innerErrorCode Códigos de erro para o objeto de erro interno. No
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID. No

innerErrorCode

Códigos de erro para o objeto de erro interno.

Property Value
Description Códigos de erro para o objeto de erro interno.
Type cadeia
Values ResponsibleAIPolicyViolation

dalleErrorResponse

Name Tipo Description Required Default
erro dalleError No

dalleError

Name Tipo Description Required Default
inner_error dalleInnerError Erro interno com detalhes adicionais. No
param cadeia No
tipo cadeia No

dalleInnerError

Erro interno com detalhes adicionais.

Name Tipo Description Required Default
codificar innerErrorCode Códigos de erro para o objeto de erro interno. No
content_filter_results dalleFilterResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID. No
revised_prompt cadeia O prompt usado para gerar a imagem, caso houvesse alguma revisão no prompt. No

contentFilterCompletionTextSpan

Descreve um intervalo dentro do texto de conclusão gerado. O deslocamento 0 é o primeiro ponto de código UTF32 do texto de completação.

Name Tipo Description Required Default
completion_end_offset inteiro Deslocamento do primeiro ponto de código UTF32 que está excluído do vão. Esse campo é sempre igual a completion_start_offset para vãos vazios. Esse campo é sempre maior que completion_start_offset para vãos não vazios. Yes
completion_start_offset inteiro Deslocamento do ponto de código UTF32 que inicia o vão. Yes

contentFilterResultBase

Name Tipo Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Tipo Description Required Default
filtered boolean Yes
severity cadeia No

contentFilterDetectedResult

Name Tipo Description Required Default
detected boolean No
filtered boolean Yes

contentFilterDetectedWithCitationResult

Name Tipo Description Required Default
citation objeto No
└─ URL cadeia No
└─ license cadeia No

contentFilterDetectedWithCompletionTextSpansResult

Name Tipo Description Required Default
details matriz No

contentFilterIdResult

Name Tipo Description Required Default
filtered boolean Yes
id cadeia No

contentFilterResultsBase

Informações sobre os resultados do filtro de conteúdo.

Name Tipo Description Required Default
custom_blocklists contentFilterDetailedResults Resultados de filtragem de conteúdo com um detalhe dos IDs de filtro de conteúdo para os segmentos filtrados. No
erro errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterPromptResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID.

Name Tipo Description Required Default
custom_blocklists contentFilterDetailedResults Resultados de filtragem de conteúdo com um detalhe dos IDs de filtro de conteúdo para os segmentos filtrados. No
erro errorBase No
hate contentFilterSeverityResult No
indirect_attack contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterChoiceResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre textos de terceiros e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID.

Name Tipo Description Required Default
custom_blocklists contentFilterDetailedResults Resultados de filtragem de conteúdo com um detalhe dos IDs de filtro de conteúdo para os segmentos filtrados. No
erro errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No
protected_material_text contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult No
violence contentFilterSeverityResult No

contentFilterDetailedResults

Resultados de filtragem de conteúdo com um detalhe dos IDs de filtro de conteúdo para os segmentos filtrados.

Name Tipo Description Required Default
details matriz No
filtered boolean Yes

promptFilterResult

Filtragem de conteúdo resulta para um único prompt na solicitação.

Name Tipo Description Required Default
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID. No
prompt_index inteiro No

promptFilterResults

Filtrar conteúdo resulta em nenhum ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de diferentes prompts podem chegar em horários ou ordens diferentes.

Nenhuma propriedade definida para esse componente.

dalleContentFilterResults

Informações sobre os resultados do filtro de conteúdo.

Name Tipo Description Required Default
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

dalleFilterResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID.

Name Tipo Description Required Default
custom_blocklists contentFilterDetailedResults Resultados de filtragem de conteúdo com um detalhe dos IDs de filtro de conteúdo para os segmentos filtrados. No
hate contentFilterSeverityResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

chatCompletionsRequestCommon

Name Tipo Description Required Default
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. No 0
logit_bias objeto Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados pelo ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante. No
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
max_tokens inteiro O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode devolver será (4096 - tokens de prompt). Isso não é compatível com modelos da série O1. No 4096
metadados objeto Tags e valores definidos pelo desenvolvedor usados para filtrar completações no painel de completações armazenadas. No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas. No 0
stop String ou array Até 4 sequências em que a API para de gerar mais tokens. No
armazenar boolean Se devemos ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelos. No
fluxo boolean Se ativado, são enviados deltas parciais de mensagem, como no ChatGPT. Os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados assim que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. No False
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p , mas não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.
Geralmente recomendamos alterar isso ou temperature , mas não ambos.
No 1
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detectar abusos. No

createCompletionRequest

Name Tipo Description Required Default
best_of inteiro Gera best_of conclusãos do lado do servidor e retorna o "melhor" (aquele com maior probabilidade logaritária por token). Os resultados não podem ser transmitidos em streaming.

Quando usado com n, best_of controla o número de completações candidatas e n especifica quantas devolver. best_of deve ser maior que n.

Nota: Como esse parâmetro gera muitas conclusãos, ele pode rapidamente consumir sua cota de tokens. Use com cuidado e certifique-se de que você tenha configurações razoáveis para max_tokens e stop.
No 1
echo boolean Repita o prompt além da conclusão
No False
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente.
No 0
logit_bias objeto Modificar a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pelo ID do token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante.

Por exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
No None
logprobs inteiro Inclua as probabilidades logarítmicas dos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob do token amostrado, então pode haver até até logprobs+1 elementos na resposta.

O valor máximo para logprobs é 5.
No None
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão.

A contagem de tokens do seu prompt plus max_tokens não pode exceder o comprimento de contexto do modelo.
No 16
n inteiro Quantas conclusãos gerar para cada prompt.

Nota: Como esse parâmetro gera muitas conclusãos, ele pode rapidamente consumir sua cota de tokens. Use com cuidado e certifique-se de que você tenha configurações razoáveis para max_tokens e stop.
No 1
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas.
No 0
solicitação String ou array O(s) prompt(s) para gerar completações para codificados como uma string, array de strings, array de tokens ou array de tokens.

Note que <|endoftext|> é o separador de documentos que o modelo vê durante o treinamento, então, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento.
Yes
seed inteiro Se especificado, nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que requisições repetidas com os mesmos seed parâmetros e retornem o mesmo resultado.

Determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro de resposta para monitorar mudanças no backend.
No
stop String ou array Até 4 sequências em que a API para de gerar mais tokens. O texto devolvido não vai conter a sequência de paradas.
No
fluxo boolean Se deveria recuar o progresso parcial. Se ativados, os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem. Exemplo Python código.
No False
suffix cadeia O sufixo que vem após a conclusão do texto inserido.

Esse parâmetro é suportado apenas para gpt-3.5-turbo-instruct.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.

Geralmente recomendamos alterar isso ou top_p , mas não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou temperature , mas não ambos.
No 1
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos.
No

createCompletionResponse

Representa uma resposta de conclusão da API. Nota: tanto os objetos de resposta transmitidos quanto os não transmitidos compartilham a mesma forma (diferente do endpoint do chat).

Name Tipo Description Required Default
choices matriz A lista de escolhas de conclusão que o modelo gerou para o prompt de entrada. Yes
created inteiro O carimbo de tempo do Unix (em segundos) de quando a conclusão foi criada. Yes
id cadeia Um identificador único para a conclusão. Yes
modelo cadeia O modelo usado para a conclusão. Yes
objeto enumeração O tipo de objeto, que é sempre "text_completion"
Valores possíveis: text_completion
Yes
prompt_filter_results promptFilterResults Filtrar conteúdo resulta em nenhum ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de diferentes prompts podem chegar em horários ou ordens diferentes. No
system_fingerprint cadeia Essa impressão digital representa a configuração do backend com a qual o modelo roda.

Pode ser usado em conjunto com o seed parâmetro de requisição para entender quando mudanças no backend foram feitas que possam impactar o determinismo.
No
uso completionUsage Estatísticas de uso para a solicitação de conclusão. No

createChatCompletionRequest

Name Tipo Description Required Default
audio objeto Parâmetros para saída de áudio. É necessário quando a saída de áudio é solicitada com modalities: ["audio"]. No
└─ format enumeração Especifica o formato de áudio de saída. Deve ser um dos wav, mp3, flac, opus, ou pcm16.

Valores possíveis: wav, mp3, flac, opus, pcm16
No
└─ voice enumeração Especifica o tipo de voz. As vozes suportadas são alloy, echo, fable, onyx, nova, e shimmer.

Valores possíveis: alloy, echo, fable, onyx, nova, shimmer
No
data_sources matriz As entradas de configuração para as extensões de chat do Azure OpenAI que as utilizam.
Essa especificação adicional é compatível apenas com o Azure OpenAI.
No
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente.
No 0
function_call string ou chatCompletionFunctionCallOption Descontinuado em favor de tool_choice.

Controla qual (se houver) função é chamada pelo modelo.
none significa que o modelo não chama uma função e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função específica via {"name": "my_function"} força o modelo a chamar essa função.

none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes.
No
functions matriz Descontinuado em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
No
logit_bias objeto Modificar a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pelo ID do token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante.
No None
logprobs boolean Se deveria devolver as probabilidades logarítmicas dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message. No False
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo.
No
messages matriz Uma lista de mensagens que compõem a conversa até agora. Exemplo Python código. Yes
metadados objeto Tags e valores definidos pelo desenvolvedor usados para filtrar completações no painel de completações armazenadas. No
modalities ChatCompletionModalities Tipos de saída que você gostaria que o modelo gerasse para essa solicitação.
A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere tanto respostas de texto quanto de áudio, você pode usar:

["text", "audio"]
No
n inteiro Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Note que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha-se n para 1 minimizar custos. No 1
parallel_tool_calls ParallelToolCalls Se deve ativar a chamada paralela de funções durante o uso da ferramenta. No True
previsão PredictionContent Configuração para uma Saída Prevista, que pode melhorar muito os tempos de resposta quando grandes partes da resposta do modelo são conhecidas antecipadamente. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas.
No 0
reasoning_effort enumeração Apenas modelos O1

Restringe o esforço no raciocínio para modelos de raciocínio.

Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
Valores possíveis: low, medium, high
No
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas, que garantem que o modelo corresponde ao seu esquema JSON fornecido.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
seed inteiro Esse recurso está em Beta.
Se especificado, nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que requisições repetidas com os mesmos seed parâmetros e retornem o mesmo resultado.
Determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro de resposta para monitorar mudanças no backend.
No
stop String ou array Até 4 sequências em que a API para de gerar mais tokens.
No
armazenar boolean Se devemos ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelos. No
fluxo boolean Se ativado, são enviados deltas parciais de mensagem, como no ChatGPT. Os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados assim que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Exemplo Python código.
No False
stream_options chatCompletionStreamOptions Opções para resposta ao streaming. Só define isso quando você define stream: true.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.

Geralmente recomendamos alterar isso ou top_p , mas não ambos.
No 1
tool_choice chatCompletionToolChoiceOption Controle qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica força {"type": "function", "function": {"name": "my_function"}} o modelo a chamá-la. none é o padrão quando não há ferramentas presentes. auto é o padrão se as ferramentas estiverem presentes. No
tools matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. No máximo 128 funções são suportadas.
No
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade logarítmica associada. logprobs deve ser definido como true se esse parâmetro for usado. No
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou temperature , mas não ambos.
No 1
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos.
No
user_security_context userSecurityContext O contexto de segurança do usuário contém vários parâmetros que descrevem a própria aplicação de IA e o usuário final que interage com a aplicação de IA. Esses campos auxiliam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, oferecendo uma abordagem abrangente para proteger suas aplicações de IA. Saiba mais sobre como proteger aplicações de IA usando Microsoft Defender para Nuvem. No

userSecurityContext

O contexto de segurança do usuário contém vários parâmetros que descrevem a própria aplicação de IA e o usuário final que interage com a aplicação de IA. Esses campos auxiliam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, oferecendo uma abordagem abrangente para proteger suas aplicações de IA. Saiba mais sobre como proteger aplicações de IA usando Microsoft Defender para Nuvem.

Name Tipo Description Required Default
application_name cadeia O nome da inscrição. Informações pessoais sensíveis não devem ser incluídas neste campo. No
end_user_id cadeia Esse identificador é o ID de objeto do usuário Microsoft Entra ID (anteriormente Azure Active Directory), usado para autenticar usuários finais dentro do aplicativo de IA generativa. Informações pessoais sensíveis não devem ser incluídas neste campo. No
end_user_tenant_id cadeia O ID de tenant do Microsoft 365 ao qual o usuário final pertence. É necessário quando a aplicação de IA generativa é multilocatária. No
source_ip cadeia Captura o endereço IP do cliente original, aceitando os formatos IPv4 e IPv6. No

chatCompletionFunctions

Name Tipo Description Required Default
description cadeia Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. No
name cadeia O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhaduras e traços, com comprimento máximo de 64. Yes
parameters FunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Veja o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
No

chatCompletionFunctionCallOption

Especificar uma função específica via {"name": "my_function"} força o modelo a chamar essa função.

Name Tipo Description Required Default
name cadeia O nome da função a ser chamada. Yes

chatCompletionFunctionParameters

Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Veja o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.

Nenhuma propriedade definida para esse componente.

chatCompletionRequestMessage

Esse componente pode ser um dos seguintes:

ChatCompletionRequestDeveloperMessage

Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário. Com modelos O1 e mais recentes, developer as mensagens substituem as anteriores system .

Name Tipo Description Required Default
conteúdo String ou array O conteúdo da mensagem do desenvolvedor. Yes
name cadeia Um nome opcional para o participante. Fornece informações do modelo para diferenciar entre participantes do mesmo papel. No
função enumeração O papel do autor das mensagens, neste caso developer.
Valores possíveis: developer
Yes

chatCompletionRequestSystemMessage

Name Tipo Description Required Default
conteúdo String ou array O conteúdo da mensagem do sistema. Yes
name cadeia Um nome opcional para o participante. Fornece informações do modelo para diferenciar entre participantes do mesmo papel. No
função enumeração O papel do autor das mensagens, neste caso system.
Valores possíveis: system
Yes

chatCompletionRequestUserMessage

Name Tipo Description Required Default
conteúdo String ou array O conteúdo da mensagem do usuário.
Yes
name cadeia Um nome opcional para o participante. Fornece informações do modelo para diferenciar entre participantes do mesmo papel. No
função enumeração O papel do autor das mensagens, neste caso user.
Valores possíveis: user
Yes

chatCompletionRequestAssistantMessage

Name Tipo Description Required Default
conteúdo String ou array O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls seja especificado ou function_call especificado.
No
function_call objeto Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. No
└─ arguments cadeia Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função. No
└─ name cadeia O nome da função a ser chamada. No
name cadeia Um nome opcional para o participante. Fornece informações do modelo para diferenciar entre participantes do mesmo papel. No
refusal cadeia A mensagem de recusa do assistente. No
função enumeração O papel do autor das mensagens, neste caso assistant.
Valores possíveis: assistant
Yes
tool_calls chatCompletionMessageToolCalls As chamadas de ferramenta geradas pelo modelo, como chamadas de função. No

chatCompletionRequestToolMessage

Name Tipo Description Required Default
conteúdo String ou array O conteúdo da mensagem da ferramenta. Yes
função enumeração O papel do autor das mensagens, neste caso tool.
Valores possíveis: tool
Yes
tool_call_id cadeia Chamada de ferramenta à qual essa mensagem está respondendo. Yes

chatCompletionRequestFunctionMessage

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem funcional. Yes
name cadeia O nome da função a ser chamada. Yes
função enumeração O papel do autor das mensagens, neste caso function.
Valores possíveis: function
Yes

chatCompletionRequestDeveloperMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestSystemMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestUserMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestAssistantMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestToolMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestMessageContentPartText

Name Tipo Description Required Default
enviar SMS cadeia O conteúdo do texto. Yes
tipo enumeração O tipo do conteúdo é a parte.
Valores possíveis: text
Yes

chatCompletionRequestMessageContentPartAudio

Name Tipo Description Required Default
input_audio objeto Yes
└─ data cadeia Dados de áudio codificados em Base64. No
└─ format enumeração O formato dos dados de áudio codificados. Atualmente suporta "wav" e "mp3".

Valores possíveis: wav, mp3
No
tipo enumeração O tipo do conteúdo é a parte. Sempre input_audio.
Valores possíveis: input_audio
Yes

chatCompletionRequestMessageContentPartImage

Name Tipo Description Required Default
image_url objeto Yes
└─ detail enumeração Especifica o nível de detalhe da imagem. Saiba mais no guia Visão.
Valores possíveis: auto, low, high
No
└─ url cadeia Ou uma URL da imagem ou os dados da imagem codificada base64. No
tipo enumeração O tipo do conteúdo é a parte.
Valores possíveis: image_url
Yes

chatCompletionRequestMessageContentPartRefusal

Name Tipo Description Required Default
refusal cadeia A mensagem de recusa gerada pelo modelo. Yes
tipo enumeração O tipo do conteúdo é a parte.
Valores possíveis: refusal
Yes

azureChatExtensionConfiguration

Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

###Discriminator for azureChatExtensionConfiguration

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Type Value Schema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguration
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguration
Name Tipo Description Required Default
tipo azureChatExtensionType Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes

azureChatExtensionType

Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

Property Value
Description Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Type cadeia
Values azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguration

Uma representação específica das opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
parameters azureSearchChatExtensionParameters Parâmetros para Azure Search quando usados como uma extensão de chat do Azure OpenAI. No
tipo azureChatExtensionType Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes

azureSearchChatExtensionParameters

Parâmetros para Azure Search quando usados como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
allow_partial_result boolean Se especificado como verdadeiro, o sistema permitirá que resultados parciais de busca sejam usados e a solicitação falha se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de busca falhar. No False
autenticação onOOOOSOSOSOSOSeuDataSistemaAssignadoGerenciadoIdentidadeOOAODOSDAODOSDASDAOSNADAOSNDAODAOSNDAODOSNDODOSN.EDADODODAODAOSN.EDAS.E.E.T Yes
embedding_dependency onSeuDataEndpointFonte de Vetorização ou emSeuDataNomeExportaçãoFonte de Vetorização ou onSeuDataDataFonteVectorizaçãoIntegrada No
ponto de extremidade cadeia O caminho de endpoint absoluto para o recurso do Azure Search usar. Yes
fields_mapping azureSearchIndexFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso de busca do Azure configurado. No
filtro cadeia Search filter. No
in_scope boolean Se consultas deveriam ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. No
index_name cadeia O nome do índice a ser usado como disponível no recurso de pesquisa do Azure referenciado. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de busca para uma mensagem de usuário. Se não especificado, o sistema decidirá o número de consultas a serem enviadas. No
query_type azureSearchQueryType O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI. No
semantic_configuration cadeia A configuração semântica adicional para a consulta. No
strictness inteiro A rigidez configurada do filtro de relevância de busca. Quanto maior a rigor, maior a precisão, mas menor a recordação da resposta. No
top_n_documents inteiro O número superior configurado de documentos a serem destacados para a consulta configurada. No

azureSearchIndexFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso de busca do Azure configurado.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. No
content_fields_separator cadeia O padrão de separação que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo índice a usar como caminho de arquivo. No
image_vector_fields matriz Os nomes dos campos que representam dados vetoriais de imagem. No
title_field cadeia O nome do campo índice para usar como título. No
url_field cadeia O nome do campo índice a usar como URL. No
vector_fields matriz Os nomes dos campos que representam dados vetoriais. No

azureSearchQueryType

O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI.

Property Value
Description O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI.
Type cadeia
Values simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

azureCosmosDBChatExtensionConfiguration

Uma representação específica das opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
parameters azureCosmosDBChatExtensionParameters Parâmetros a serem usados ao configurar extensões do chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore. No
tipo azureChatExtensionType Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes

azureCosmosDBChatExtensionParameters

Parâmetros a serem usados ao configurar extensões do chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore.

Name Tipo Description Required Default
allow_partial_result boolean Se especificado como verdadeiro, o sistema permitirá que resultados parciais de busca sejam usados e a solicitação falha se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de busca falhar. No False
autenticação onYourDataConnectionStringAuthenticationOptions As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão. Yes
container_name cadeia O nome do contêiner de recursos do Azure Cosmos DB. Yes
database_name cadeia O nome do banco de dados MongoDB vCore para usar com o Azure Cosmos DB. Yes
embedding_dependency onSeuDataDataEndpointVectorizaçãoFonte ou onSeuDataDeploymentNomeVectorizaçãoFonte Yes
fields_mapping azureCosmosDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso do Azure Cosmos DB configurado. Yes
in_scope boolean Se consultas deveriam ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. No
index_name cadeia O nome do índice do MongoDB vCore para usar com o Azure Cosmos DB. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de busca para uma mensagem de usuário. Se não especificado, o sistema decidirá o número de consultas a serem enviadas. No
strictness inteiro A rigidez configurada do filtro de relevância de busca. Quanto maior a rigor, maior a precisão, mas menor a recordação da resposta. No
top_n_documents inteiro O número superior configurado de documentos a serem destacados para a consulta configurada. No

azureCosmosDBFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso do Azure Cosmos DB configurado.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Yes
content_fields_separator cadeia O padrão de separação que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo índice a usar como caminho de arquivo. No
title_field cadeia O nome do campo índice para usar como título. No
url_field cadeia O nome do campo índice a usar como URL. No
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Yes

elasticsearchChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Elasticsearch ao usá-lo como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
parameters elasticsearchChatExtensionParameters Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI. No
tipo azureChatExtensionType Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes

elasticsearchChatExtensionParameters

Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
allow_partial_result boolean Se especificado como verdadeiro, o sistema permitirá que resultados parciais de busca sejam usados e a solicitação falha se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de busca falhar. No False
autenticação onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions Yes
embedding_dependency onSeuDataEndpointVectorizaçãoFonte ou onTSeuDataImplantaçãoNomeVectorizaçãoFonte ou onSeuDataModeloIdVectorizaçãoFonte No
ponto de extremidade cadeia O ponto final do Elasticsearch®. Yes
fields_mapping elasticsearchIndexFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado. No
in_scope boolean Se consultas deveriam ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. No
index_name cadeia O nome do índice Elasticsearch®. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de busca para uma mensagem de usuário. Se não especificado, o sistema decidirá o número de consultas a serem enviadas. No
query_type elasticsearchQueryType O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. No
strictness inteiro A rigidez configurada do filtro de relevância de busca. Quanto maior a rigor, maior a precisão, mas menor a recordação da resposta. No
top_n_documents inteiro O número superior configurado de documentos a serem destacados para a consulta configurada. No

elasticsearchIndexFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. No
content_fields_separator cadeia O padrão de separação que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo índice a usar como caminho de arquivo. No
title_field cadeia O nome do campo índice para usar como título. No
url_field cadeia O nome do campo índice a usar como URL. No
vector_fields matriz Os nomes dos campos que representam dados vetoriais. No

elasticsearchQueryType

O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

Property Value
Description O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
Type cadeia
Values simple
vector

mongoDBChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Banco de Dados Mongo ao usá-lo como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
parameters mongoDBChatExtensionParameters Parâmetros a serem usados ao configurar extensões de chat do Azure OpenAI On Your Data ao usar o banco de dados Mongo. No
tipo azureChatExtensionType Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes

mongoDBChatExtensionParameters

Parâmetros a serem usados ao configurar extensões de chat do Azure OpenAI On Your Data ao usar o banco de dados Mongo.

Name Tipo Description Required Default
allow_partial_result boolean Se especificado como verdadeiro, o sistema permitirá que resultados parciais de busca sejam usados e a solicitação falha se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de busca falhar. No False
app_name cadeia O nome da aplicação do Banco de Dados Mongo. Yes
autenticação onYourDataUsernameAndPasswordAuthenticationOptions As opções de autenticação para Azure OpenAI On Your Data ao usar um nome de usuário e uma senha. Yes
collection_name cadeia O nome da Coleção Mongo DB. Yes
database_name cadeia O nome do banco de dados Mongo. Yes
embedding_dependency onSeuDataDataEndpointVectorizaçãoFonte ou onSeuDataDeploymentNomeVectorizaçãoFonte Yes
ponto de extremidade cadeia O nome do endpoint do cluster do banco de dados Mongo. Yes
fields_mapping mongoDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado. Yes
in_scope boolean Se consultas deveriam ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. No
index_name cadeia O nome do índice da base de dados Mongo. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de busca para uma mensagem de usuário. Se não especificado, o sistema decidirá o número de consultas a serem enviadas. No
strictness inteiro A rigidez configurada do filtro de relevância de busca. Quanto maior a rigor, maior a precisão, mas menor a recordação da resposta. No
top_n_documents inteiro O número superior configurado de documentos a serem destacados para a consulta configurada. No

mongoDBFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Yes
content_fields_separator cadeia O padrão de separação que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo índice a usar como caminho de arquivo. No
title_field cadeia O nome do campo índice para usar como título. No
url_field cadeia O nome do campo índice a usar como URL. No
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Yes

pineconeChatExtensionConfiguration

Uma representação específica das opções configuráveis para o Pinecone ao usá-lo como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
parameters pineconeChatExtensionParameters Parâmetros para configurar extensões de chat Azure OpenAI Pinecone. No
tipo azureChatExtensionType Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes

pineconeChatExtensionParameters

Parâmetros para configurar extensões de chat Azure OpenAI Pinecone.

Name Tipo Description Required Default
allow_partial_result boolean Se especificado como verdadeiro, o sistema permitirá que resultados parciais de busca sejam usados e a solicitação falha se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de busca falhar. No False
autenticação onYourDataApiKeyAuthenticationOptions As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API. Yes
embedding_dependency onYourDataDeploymentNameVectorizationSource Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar busca vetorial, que é baseada em um nome interno de implantação de modelo de embeddings no mesmo recurso Azure OpenAI. Yes
ambiente cadeia O nome do ambiente é Pinecone. Yes
fields_mapping pineconeFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado. Yes
in_scope boolean Se consultas deveriam ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. No
index_name cadeia O nome do índice do banco de dados Pinecone. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de busca para uma mensagem de usuário. Se não especificado, o sistema decidirá o número de consultas a serem enviadas. No
strictness inteiro A rigidez configurada do filtro de relevância de busca. Quanto maior a rigor, maior a precisão, mas menor a recordação da resposta. No
top_n_documents inteiro O número superior configurado de documentos a serem destacados para a consulta configurada. No

pineconeFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Yes
content_fields_separator cadeia O padrão de separação que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo índice a usar como caminho de arquivo. No
title_field cadeia O nome do campo índice para usar como título. No
url_field cadeia O nome do campo índice a usar como URL. No

onYourDataAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data.

Discriminador para onYourDataAuthenticationOptions

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Type Value Schema
api_key onYourDataApiKeyAuthenticationOptions
connection_string onYourDataConnectionStringAuthenticationOptions
key_and_key_id onYourDataKeyAndKeyIdAuthenticationOptions
encoded_api_key onYourDataEncodedApiKeyAuthenticationOptions
access_token onYourDataAccessTokenAuthenticationOptions
system_assigned_managed_identity onYourDataSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity onYourDataUserAssignedManagedIdentityAuthenticationOptions
username_and_password onYourDataUsernameAndPasswordAuthenticationOptions
Name Tipo Description Required Default
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes

onYourDataContextProperty

A propriedade de contexto.

Property Value
Description A propriedade de contexto.
Type cadeia
Values citations
intent
all_retrieved_documents

onYourDataAuthenticationType

Os tipos de autenticação suportados pelo Azure OpenAI On Your Data.

Property Value
Description Os tipos de autenticação suportados pelo Azure OpenAI On Your Data.
Type cadeia
Values api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

onYourDataApiKeyAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API.

Name Tipo Description Required Default
chave cadeia A chave de API para usar para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes

onYourDataConnectionStringAuthenticationOptions

As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão.

Name Tipo Description Required Default
connection_string cadeia A cadeia de conexão para usar para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes

onYourDataKeyAndKeyIdAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar um par de chave e ID de chave do Elasticsearch.

Name Tipo Description Required Default
chave cadeia A chave Elasticsearch para usar na autenticação. No
key_id cadeia O ID da chave Elasticsearch para usar na autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes

onYourDataEncodedApiKeyAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API codificada em Elasticsearch.

Name Tipo Description Required Default
encoded_api_key cadeia A chave de API codificada pelo Elasticsearch para usar na autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes

onYourDataAccessTokenAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar o token de acesso.

Name Tipo Description Required Default
access_token cadeia O token de acesso a ser usado para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo sistema.

Name Tipo Description Required Default
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.

Name Tipo Description Required Default
managed_identity_resource_id cadeia O ID de recurso da identidade gerenciada atribuída pelo usuário para ser usada para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes

onYourDataUsernameAndPasswordAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar um nome de usuário e uma senha.

Name Tipo Description Required Default
senha cadeia The password. para usar em regime de autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. Yes
nome de usuário cadeia O nome de usuário a usar para autenticação. No

onYourDataVectorizationSource

Uma representação abstrata de uma fonte de vetorização para Azure OpenAI On Your Data com busca vetorial.

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Type Value Schema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onYourDataIntegratedVectorizationSource
model_id onYourDataModelIdVectorizationSource
Name Tipo Description Required Default
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial. Yes

onYourDataVectorizationSourceType

Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial.

Property Value
Description Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial.
Type cadeia
Values endpoint
deployment_name
integrated
model_id

onYourDataEndpointVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar busca vetorial, que é baseada em uma chamada pública de endpoint do Azure OpenAI para embeddings.

Name Tipo Description Required Default
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions No
dimensions inteiro O número de dimensões que os embeddings devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. No
ponto de extremidade cadeia Especifica a URL do endpoint de recurso da qual os embeddings devem ser recuperados. Deve estar no formato de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta de versão da API não é permitido. No
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial. Yes

onYourDataDeploymentNameVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar busca vetorial, que é baseada em um nome interno de implantação de modelo de embeddings no mesmo recurso Azure OpenAI.

Name Tipo Description Required Default
deployment_name cadeia Especifica o nome da implantação do modelo a ser usada para vetorização. Essa implantação do modelo deve ser no mesmo recurso Azure OpenAI, mas a On Your Data usará essa implantação do modelo por meio de uma chamada interna em vez de pública, o que permite busca vetorial mesmo em redes privadas. No
dimensions inteiro O número de dimensões que os embeddings devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. No
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial. Yes

onYourDataIntegratedVectorizationSource

Representa o vetorizador integrado definido dentro do recurso de busca.

Name Tipo Description Required Default
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial. Yes

onYourDataModelIdVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar busca vetorial, é baseada em um ID de modelo de serviço de busca. Atualmente, é suportado apenas pelo Elasticsearch®.

Name Tipo Description Required Default
model_id cadeia Especifica o ID do modelo a ser usado para vetorização. Esse ID de modelo deve ser definido no serviço de busca. No
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial. Yes

azureChatExtensionsMessageContext

Uma representação das informações adicionais de contexto disponíveis quando extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta correspondente de conclusão de chat. Essa informação de contexto só é preenchida quando se usa uma requisição OpenAI do Azure configurada para usar uma extensão correspondente.

Name Tipo Description Required Default
all_retrieved_documents matriz Todos os documentos recuperados. No
citations matriz O resultado da recuperação da fonte de dados, usado para gerar a mensagem assistente na resposta. No
intenção cadeia A intenção detectada do histórico do chat, usada para passar para o próximo turno para manter o contexto. No

citation

Informações de citação para uma mensagem de resposta de conclusão de chat.

Name Tipo Description Required Default
chunk_id cadeia O ID do bloco da multa. No
conteúdo cadeia O conteúdo da citação. Yes
filepath cadeia O caminho do arquivo da citação. No
rerank_score number A pontuação de reclassificação do documento recuperado. No
title cadeia O título da citação. No
url cadeia A URL da citação. No

retrievedDocument

O documento recuperado.

Name Tipo Description Required Default
chunk_id cadeia O ID do bloco da multa. No
conteúdo cadeia O conteúdo da citação. Yes
data_source_index inteiro O índice da fonte de dados. No
filepath cadeia O caminho do arquivo da citação. No
filter_reason filterReason A razão de filtragem do documento recuperado. No
original_search_score number A pontuação original da busca do documento recuperado. No
rerank_score number A pontuação de reclassificação do documento recuperado. No
search_queries matriz As consultas de busca usadas para recuperar o documento. No
title cadeia O título da citação. No
url cadeia A URL da citação. No

filterReason

A razão de filtragem do documento recuperado.

Property Value
Description A razão de filtragem do documento recuperado.
Type cadeia
Values score
rerank

chatCompletionMessageToolCall

Name Tipo Description Required Default
função objeto A função que o modelo chamou. Yes
└─ arguments cadeia Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função. No
└─ name cadeia O nome da função a ser chamada. No
id cadeia O ID da chamada de ferramenta. Yes
tipo toolCallType O tipo de chamada de ferramenta, neste caso function. Yes

toolCallType

O tipo de chamada de ferramenta, neste caso function.

Property Value
Description O tipo de chamada de ferramenta, neste caso function.
Type cadeia
Values function

chatCompletionRequestMessageTool

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem. No
tool_call_id cadeia Chamada de ferramenta à qual essa mensagem está respondendo. No

chatCompletionRequestMessageFunction

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem. No
name cadeia O conteúdo da mensagem. No
função enumeração O papel do autor das mensagens, neste caso function.
Valores possíveis: function
No

createChatCompletionResponse

Representa uma resposta de conclusão do chat retornada pelo modelo, com base na entrada fornecida.

Name Tipo Description Required Default
choices matriz Uma lista de opções para completar o chat. Pode ser mais de um se n for maior que 1. Yes
created inteiro O carimbo de tempo do Unix (em segundos) de quando a conclusão do chat foi criada. Yes
id cadeia Um identificador único para a conclusão do chat. Yes
modelo cadeia O modelo usado para completar o chat. Yes
objeto enumeração O tipo de objeto, que é sempre chat.completion.
Valores possíveis: chat.completion
Yes
prompt_filter_results promptFilterResults Filtrar conteúdo resulta em nenhum ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de diferentes prompts podem chegar em horários ou ordens diferentes. No
system_fingerprint cadeia Essa impressão digital representa a configuração do backend com a qual o modelo roda.

Pode ser usado em conjunto com o seed parâmetro de requisição para entender quando mudanças no backend foram feitas que possam impactar o determinismo.
No
uso completionUsage Estatísticas de uso para a solicitação de conclusão. No

createChatCompletionStreamResponse

Representa um trecho transmitido de uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.

Name Tipo Description Required Default
choices matriz Uma lista de opções para completar o chat. Pode conter mais de um elemento se n for maior que 1.
Yes
created inteiro O carimbo de tempo do Unix (em segundos) de quando a conclusão do chat foi criada. Cada bloco tem o mesmo carimbo de data. Yes
id cadeia Um identificador único para a conclusão do chat. Cada bloco tem o mesmo ID. Yes
modelo cadeia O modelo para gerar a completude. Yes
objeto enumeração O tipo de objeto, que é sempre chat.completion.chunk.
Valores possíveis: chat.completion.chunk
Yes
system_fingerprint cadeia Essa impressão digital representa a configuração do backend com a qual o modelo roda.
Pode ser usado em conjunto com o seed parâmetro de requisição para entender quando mudanças no backend foram feitas que possam impactar o determinismo.
No

chatCompletionStreamResponseDelta

Um delta de conclusão do chat gerado por respostas de modelos transmitidos.

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem do bloco. No
function_call objeto Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. No
└─ arguments cadeia Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função. No
└─ name cadeia O nome da função a ser chamada. No
refusal cadeia A mensagem de recusa gerada pelo modelo. No
função enumeração O papel do autor desta mensagem.
Valores possíveis: system, user, assistant, tool
No
tool_calls matriz No

chatCompletionMessageToolCallChunk

Name Tipo Description Required Default
função objeto No
└─ arguments cadeia Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função. No
└─ name cadeia O nome da função a ser chamada. No
id cadeia O ID da chamada de ferramenta. No
indexar inteiro Yes
tipo enumeração O tipo da ferramenta. Atualmente, somente function é suportado.
Valores possíveis: function
No

chatCompletionStreamOptions

Opções para resposta ao streaming. Só define isso quando você define stream: true.

Name Tipo Description Required Default
include_usage boolean Se ativado, um pedaço adicional será transmitido antes da data: [DONE] mensagem. O usage campo nesse bloco mostra as estatísticas de uso do token para toda a requisição, e o choices campo sempre será um array vazio. Todos os outros chunks também incluirão um usage corpo, mas com valor nulo.
No

chatCompletionChoiceLogProbs

Registre as informações de probabilidade para a escolha.

Name Tipo Description Required Default
conteúdo matriz Uma lista de tokens de conteúdo de mensagens com informações de probabilidade logarítmica. Yes
refusal matriz Uma lista de tokens de recusa de mensagens com informações de probabilidade logarítmica. No

chatCompletionTokenLogprob

Name Tipo Description Required Default
bytes matriz Uma lista de inteiros representando a representação UTF-8 bytes do token. Útil em casos em que caracteres são representados por múltiplos tokens e suas representações em bytes precisam ser combinadas para gerar a representação correta do texto. Pode ser null se não houver representação em bytes para o token. Yes
logprob number A probabilidade logarítmica desse token. Yes
símbolo cadeia The token. Yes
top_logprobs matriz Lista dos tokens mais prováveis e sua probabilidade logarítmica, nesta posição do token. Em casos raros, pode haver menos do que o número de solicitados top_logprobs devolvidos. Yes

chatCompletionResponseMessage

Uma mensagem de conclusão do chat gerada pelo modelo.

Name Tipo Description Required Default
audio objeto Se a modalidade de saída de áudio for solicitada, esse objeto contém dados sobre a resposta do áudio do modelo. No
└─ data cadeia Bytes de áudio codificados em Base64 gerados pelo modelo, no formato especificado na solicitação.
No
└─ expires_at inteiro O carimbo de tempo do Unix (em segundos) para quando essa resposta de áudio não estará mais acessível no servidor para uso em conversas com múltiplas voltas.
No
└─ id cadeia Identificador único para essa resposta de áudio. No
└─ transcript cadeia Transcrição do áudio gerado pelo modelo. No
conteúdo cadeia O conteúdo da mensagem. Yes
contexto azureChatExtensionsMessageContext Uma representação das informações adicionais de contexto disponíveis quando extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta correspondente de conclusão de chat. Essa informação de contexto só é preenchida quando se usa uma requisição OpenAI do Azure configurada para usar uma extensão correspondente. No
function_call chatCompletionFunctionCall Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. No
refusal cadeia A mensagem de recusa gerada pelo modelo. Yes
função chatCompletionResponseMessageRole O papel do autor da mensagem de resposta. Yes
tool_calls matriz As chamadas de ferramenta geradas pelo modelo, como chamadas de função. No

chatCompletionResponseMessageRole

O papel do autor da mensagem de resposta.

Property Value
Description O papel do autor da mensagem de resposta.
Type cadeia
Values assistant

chatCompletionToolChoiceOption

Controle qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica força {"type": "function", "function": {"name": "my_function"}} o modelo a chamá-la. none é o padrão quando não há ferramentas presentes. auto é o padrão se as ferramentas estiverem presentes.

Esse componente pode ser um dos seguintes:

chatCompletionNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.

Name Tipo Description Required Default
função objeto Yes
└─ name cadeia O nome da função a ser chamada. No
tipo enumeração O tipo da ferramenta. Atualmente, somente function é suportado.
Valores possíveis: function
Yes

ParallelToolCalls

Se deve ativar a chamada paralela de funções durante o uso da ferramenta.

Nenhuma propriedade definida para esse componente.

PredictionContent

Conteúdo de saída estático previsto, como o conteúdo de um arquivo de texto que está sendo regenerado.

Name Tipo Description Required Default
conteúdo String ou array O conteúdo que deve ser correspondido ao gerar uma resposta de modelo. Se os tokens gerados corresponderem a esse conteúdo, toda a resposta do modelo pode ser retornada muito mais rapidamente. Yes
tipo enumeração O tipo de conteúdo previsto que você quer fornecer. Esse tipo atualmente é sempre content.
Valores possíveis: content
Yes

chatCompletionMessageToolCalls

As chamadas de ferramenta geradas pelo modelo, como chamadas de função.

Nenhuma propriedade definida para esse componente.

ChatCompletionModalities

Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere tanto respostas de texto quanto de áudio, você pode usar:

["text", "audio"]

Nenhuma propriedade definida para esse componente.

chatCompletionFunctionCall

Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo.

Name Tipo Description Required Default
arguments cadeia Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função. Yes
name cadeia O nome da função a ser chamada. Yes

completionUsage

Estatísticas de uso para a solicitação de conclusão.

Name Tipo Description Required Default
completion_tokens inteiro Número de tokens na conclusão gerada. Yes
completion_tokens_details objeto Análise dos tokens usados em uma conclusão. No
└─ accepted_prediction_tokens inteiro Ao usar Outputs Previstos, o número de tokens na previsão que apareceu na completação. No
└─ audio_tokens inteiro Tokens de entrada de áudio gerados pelo modelo. No
└─ reasoning_tokens inteiro Tokens gerados pelo modelo para raciocínio. No
└─ rejected_prediction_tokens inteiro Ao usar Saídas Previstas, o número de tokens na previsão que não apareceram na completação. No entanto, assim como os tokens de raciocínio, esses tokens ainda são contados no total de tokens de conclusão para fins de faturamento, saída e limites de janela de contexto. No
prompt_tokens inteiro Número de tokens no prompt. Yes
prompt_tokens_details objeto Detalhes dos tokens de prompt. No
└─ audio_tokens inteiro Tokens de entrada de áudio presentes no prompt. No
└─ cached_tokens inteiro O número de tokens de prompt em cache. No
total_tokens inteiro Número total de tokens usados na solicitação (prompt + conclusão). Yes

chatCompletionTool

Name Tipo Description Required Default
função FunctionObject Yes
tipo enumeração O tipo da ferramenta. Atualmente, somente function é suportado.
Valores possíveis: function
Yes

FunctionParameters

Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Veja o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.

Nenhuma propriedade definida para esse componente.

FunctionObject

Name Tipo Description Required Default
description cadeia Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. No
name cadeia O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhaduras e traços, com comprimento máximo de 64. Yes
parameters FunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Veja o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
No
strict boolean Se deve permitir a adesão estrita ao esquema ao gerar a chamada de função. Se definido como verdadeiro, o modelo seguirá exatamente o esquema definido no parameters campo. Apenas um subconjunto do Esquema JSON é suportado quando strict é true. No False

ResponseFormatText

Name Tipo Description Required Default
tipo enumeração O tipo de formato de resposta definido: text
Valores possíveis: text
Yes

ResponseFormatJsonObject

Name Tipo Description Required Default
tipo enumeração O tipo de formato de resposta definido: json_object
Valores possíveis: json_object
Yes

ResponseFormatJsonSchemaSchema

O esquema para o formato de resposta, descrito como um objeto de Esquema JSON.

Nenhuma propriedade definida para esse componente.

ResponseFormatJsonSchema

Name Tipo Description Required Default
json_schema objeto Yes
└─ description cadeia Uma descrição do que serve o formato de resposta, usada pelo modelo para determinar como responder no formato. No
└─ name cadeia O nome do formato da resposta. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhaduras e traços, com comprimento máximo de 64. No
└─ schema ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de Esquema JSON. No
└─ strict boolean Se deve ativar a adesão estrita ao esquema ao gerar a saída. Se definido como verdadeiro, o modelo sempre seguirá exatamente o esquema definido no schema campo. Apenas um subconjunto do Esquema JSON é suportado quando strict é true. No False
tipo enumeração O tipo de formato de resposta definido: json_schema
Valores possíveis: json_schema
Yes

chatCompletionChoiceCommon

Name Tipo Description Required Default
finish_reason cadeia No
indexar inteiro No

createTranslationRequest

Translation request.

Name Tipo Description Required Default
arquivo cadeia O arquivo de áudio para traduzir. Yes
solicitação cadeia Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Se definido como 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. No 0

audioResponse

Resposta de tradução ou transcrição quando response_format era json

Name Tipo Description Required Default
enviar SMS cadeia Texto traduzido ou transcrito. Yes

audioVerboseResponse

Resposta de tradução ou transcrição quando response_format foi verbose_json

Name Tipo Description Required Default
duration number Duration. No
linguagem cadeia Language. No
segments matriz No
tarefa cadeia Tipo de tarefa de áudio. No
enviar SMS cadeia Texto traduzido ou transcrito. Yes
words matriz No

audioResponseFormat

Define o formato da saída.

Property Value
Description Define o formato da saída.
Type cadeia
Values json
text
srt
verbose_json
vtt

createTranscriptionRequest

Transcription request.

Name Tipo Description Required Default
arquivo cadeia O arquivo de áudio é objeto para transcrever. Yes
linguagem cadeia O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 melhora a precisão e a latência. No
solicitação cadeia Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder à linguagem do áudio. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Se definido como 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. No 0
timestamp_granularities[] matriz As granularidades do timestamp devem preencher para essa transcrição. response_format deve ser configurado verbose_json para usar granularidades de carimbo de tempo. Uma ou ambas essas opções são suportadas: word, ou segment. Nota: Não há latência adicional para carimbos de tempo de segmentos, mas gerar carimbos de data de tempo de palavra gera latência adicional. No ['segment']

audioSegment

Segmento de transcrição ou tradução.

Name Tipo Description Required Default
avg_logprob number Probabilidade logarítmica média. No
compression_ratio number Compression ratio. No
end number Deslocamento no final do segmento. No
id inteiro Segment identifier. No
no_speech_prob number Probabilidade de 'sem fala'. No
seek number Deslocamento do segmento. No
start number Início do segmento deslocado. No
temperature number Temperature. No
enviar SMS cadeia Segment text. No
tokens matriz Símbolos do texto. No

audioWord

Transcrição ou tradução de palavra.

Name Tipo Description Required Default
end number Word end offset. No
start number Word start offset. No
palavra cadeia Word No

createSpeechRequest

Speech request.

Name Tipo Description Required Default
entrada cadeia O texto para sintetizar áudio. O comprimento máximo é de 4.096 caracteres. Yes
response_format enumeração O formato para sintetizar o áudio.
Valores possíveis: mp3, opus, aac, flac, wav, pcm
No
speed number A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0. 1.0 é o padrão. No 1.0
voice enumeração A voz para usar na síntese de voz.
Valores possíveis: alloy, echo, fable, onyx, nova, shimmer
Yes

imageQuality

A qualidade da imagem que será gerada.

Property Value
Description A qualidade da imagem que será gerada.
Type cadeia
Default auto
Values auto
high
medium
low
hd
standard

imagesResponseFormat

O formato no qual as imagens geradas são retornadas.

Property Value
Description O formato no qual as imagens geradas são retornadas.
Type cadeia
Default url
Values url
b64_json

imagesOutputFormat

O formato de arquivo no qual as imagens geradas são retornadas. Só é suportado para modelos de série.

Property Value
Description O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para modelos da série GPT-image-1.
Type cadeia
Default png
Values png
jpeg

imageSize

O tamanho das imagens geradas.

Property Value
Description O tamanho das imagens geradas.
Type cadeia
Default auto
Values auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

imageStyle

O estilo das imagens geradas. Só é suportado para DALL-E-3.

Property Value
Description O estilo das imagens geradas. Só é suportado para DALL-E-3.
Type cadeia
Default vivid
Values vivid
natural

imageBackground

Permite definir a transparência para o fundo da(s) imagem(s) gerada(s). Esse parâmetro é suportado apenas para modelos da série gpt-imagem-1.

Property Value
Description Permite definir a transparência para o fundo da(s) imagem(s) gerada(s). Esse parâmetro é suportado apenas para modelos da série gpt-imagem-1.
Type cadeia
Default auto
Values transparent
opaque
auto

imageGenerationsRequest

Name Tipo Description Required Default
em segundo plano imageBackground Permite definir a transparência para o fundo da(s) imagem(s) gerada(s). Esse parâmetro é suportado apenas para modelos da série gpt-imagem-1. No auto
n inteiro O número de imagens a serem geradas. Para dall-e-3, apenas n=1 é suportado. No 1
output_compression inteiro O nível de compressão (0-100%) para as imagens geradas. Esse parâmetro é suportado apenas para modelos da série gpt-image-1 com o formato de saída jpeg. No 100
output_format imagesOutputFormat O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para modelos da série GPT-image-1. No png
solicitação cadeia Uma descrição em texto da(s) imagem(s) desejada(s). O comprimento máximo é de 32.000 caracteres para modelos da série gpt-image-1 e 4.000 caracteres para dall-e-3 Yes
quality imageQuality A qualidade da imagem que será gerada. No auto
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. Só é suportado para DALL-E-3. No url
size imageSize O tamanho das imagens geradas. No auto
estilo imageStyle O estilo das imagens geradas. Só é suportado para DALL-E-3. No vivid
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. No

imageEditsRequest

Name Tipo Description Required Default
imagem String ou array A(s) imagem(ões) a editar. Deve ser um arquivo de imagem suportado ou um array de imagens. Cada imagem deve ser um arquivo png ou jpg com menos de 25MB. Yes
máscara cadeia Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indica onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um arquivo PNG válido, com menos de 4MB, e ter as mesmas dimensões da imagem. No
n inteiro O número de imagens a serem geradas. No 1
solicitação cadeia Uma descrição em texto da(s) imagem(s) desejada(s). O comprimento máximo é de 32.000 caracteres. Yes
quality imageQuality A qualidade da imagem que será gerada. No auto
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. No url
size imageSize O tamanho das imagens geradas. No auto
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. No

generateImagesResponse

Name Tipo Description Required Default
created inteiro O carimbo de data do unix quando a operação foi criada. Yes
dados matriz Os dados de resultado da operação, se bem-sucedidos Yes
uso imageGenerationsUsage Representa detalhes de uso de tokens para solicitações de geração de imagem. Apenas para modelos da série GPT-image-1. No

imageResult

A URL da imagem ou imagem codificada se for bem-sucedida, e um erro caso contrário.

Name Tipo Description Required Default
b64_json cadeia A imagem codificada base64 No
content_filter_results dalleContentFilterResults Informações sobre os resultados do filtro de conteúdo. No
prompt_filter_results dalleFilterResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID. No
revised_prompt cadeia O prompt usado para gerar a imagem, caso houvesse alguma revisão no prompt. No
url cadeia A URL da imagem. No

imageGenerationsUsage

Representa detalhes de uso de tokens para solicitações de geração de imagem. Apenas para modelos da série GPT-image-1.

Name Tipo Description Required Default
input_tokens inteiro O número de tokens de entrada. No
input_tokens_details objeto Uma divisão detalhada dos tokens de entrada. No
└─ image_tokens inteiro O número de tokens de imagem. No
└─ text_tokens inteiro O número de tokens de texto. No
output_tokens inteiro O número de tokens de saída. No
total_tokens inteiro O número total de tokens usados. No

linha

Um objeto linha de conteúdo consistindo em uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.

Name Tipo Description Required Default
spans matriz Um array de intervalos que representam objetos detectados e suas informações de caixa delimitadora. Yes
enviar SMS cadeia Yes

span

Um objeto span que representa um objeto detectado e suas informações de caixa delimitadora.

Name Tipo Description Required Default
length inteiro O comprimento do intervalo em caracteres, medido em pontos de código Unicode. Yes
deslocamento inteiro O deslocamento do caractere dentro do texto onde o espaço começa. Esse deslocamento é definido como a posição do primeiro caractere do espaço, contando a partir do início do texto como pontos de código Unicode. Yes
polígono matriz Um array de objetos representando pontos no polígono que envolve o objeto detectado. Yes
enviar SMS cadeia O conteúdo do texto do espaço que representa o objeto detectado. Yes

runCompletionUsage

Estatísticas de uso relacionadas à corrida. Esse valor será null se a execução não estiver em estado terminal (ou seja, in_progress, queued, etc.).

Name Tipo Description Required Default
completion_tokens inteiro Número de tokens de conclusão usados ao longo da corrida. Yes
prompt_tokens inteiro Número de tokens de prompt usados ao longo da execução. Yes
total_tokens inteiro Número total de tokens usados (prompt + completão). Yes

runStepCompletionUsage

Estatísticas de uso relacionadas ao passo de corrida. Esse valor será null enquanto o status do passo de corrida for in_progress.

Name Tipo Description Required Default
completion_tokens inteiro Número de tokens de conclusão usados ao longo do passo de corrida. Yes
prompt_tokens inteiro Número de tokens de prompt usados ao longo do passo de execução. Yes
total_tokens inteiro Número total de tokens usados (prompt + completão). Yes

assistantsApiResponseFormatOption

Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.

Esse componente pode ser um dos seguintes:

assistantsApiResponseFormat

Um objeto que descreve a saída esperada do modelo. Se json_object apenas function tipos tools forem permitidos para a Corrida. Se text o modelo pode retornar texto ou qualquer valor necessário.

Name Tipo Description Required Default
tipo cadeia Deve ser um dos text ou json_object. No enviar SMS

tipo Enum: AssistentesApiRespostaFormato

Value Description
enviar SMS
json_object

assistantObject

Representa um assistant que pode chamar o modelo e usar ferramentas.

Name Tipo Description Required Default
created_at inteiro O timestamp do Unix (em segundos) indica quando o assistente foi criado. Yes
description cadeia A descrição do assistente. O comprimento máximo é de 512 caracteres.
Yes
id cadeia O identificador, que pode ser referenciado nos endpoints da API. Yes
instructions cadeia As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres.
Yes
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
modelo cadeia ID do modelo a ser usado. Yes
name cadeia O nome da assistente. O comprimento máximo é de 256 caracteres.
Yes
objeto cadeia O tipo de objeto, que é sempre assistant. Yes
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
No 1
tool_resources objeto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O ID do armazenamento vetorial associado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente.
No
tools matriz Uma lista de ferramentas ativadas no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, file_search, ou function.
Yes []
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou a temperatura, mas não ambos.
No 1

objeto Enum: AssistenteObjectType

Value Description
assistente O tipo de objeto, que é sempre assistente

createAssistantRequest

Name Tipo Description Required Default
description cadeia A descrição do assistente. O comprimento máximo é de 512 caracteres.
No
instructions cadeia As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres.
No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia Yes
name cadeia O nome da assistente. O comprimento máximo é de 256 caracteres.
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
No 1
tool_resources objeto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O armazenamento vetorial está ligado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente.
No
└─ vector_stores matriz Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente.
No
tools matriz Uma lista de ferramentas ativadas no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
No []
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou a temperatura, mas não ambos.
No 1

modifyAssistantRequest

Name Tipo Description Required Default
description cadeia A descrição do assistente. O comprimento máximo é de 512 caracteres.
No
instructions cadeia As instruções do sistema que o assistente usa. O comprimento máximo é de 32.768 caracteres.
No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia No
name cadeia O nome da assistente. O comprimento máximo é de 256 caracteres.
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
No 1
tool_resources objeto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial.
No
└─ code_interpreter objeto No
└─ file_ids matriz Sobrepõe a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz Sobrescrive o armazenamento vetorial associado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente.
No
tools matriz Uma lista de ferramentas ativadas no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
No []
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou a temperatura, mas não ambos.
No 1

deleteAssistantResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

objeto Enum: DeleteAssistantResponseState

Value Description
assistant.deleted

listAssistantsResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

assistantToolsCode

Name Tipo Description Required Default
tipo cadeia O tipo de ferramenta definida: code_interpreter Yes

tipo Enum: assistenteToolsCodeType

Value Description
code_interpreter

assistantToolsFileSearch

Name Tipo Description Required Default
file_search objeto Substituições para a ferramenta de busca de arquivos. No
└─ max_num_results inteiro O número máximo de resultados que a ferramenta de busca de arquivos deve gerar. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Esse número deve estar entre 1 e 50 inclusive.

Note que a ferramenta de busca de arquivos pode gerar menos do que max_num_results os resultados.
No
tipo cadeia O tipo de ferramenta definida: file_search Yes

tipo Enum: assistenteFerramentasFicheiroBuscaTipo

Value Description
file_search

assistantToolsFileSearchTypeOnly

Name Tipo Description Required Default
tipo cadeia O tipo de ferramenta definida: file_search Yes

tipo Enum: assistenteFerramentasFicheiroBuscaTipo

Value Description
file_search

assistantToolsFunction

Name Tipo Description Required Default
função objeto A definição da função. Yes
└─ description cadeia Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. No
└─ name cadeia O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhaduras e traços, com comprimento máximo de 64. No
└─ parameters chatCompletionFunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Veja o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato. No
tipo cadeia O tipo de ferramenta definida: function Yes

tipo Enum: assistenteFerramentasFunção

Value Description
função

truncationObject

Controles de como uma thread será truncada antes da execução. Use isso para controlar a janela de contexto inicial da execução.

Name Tipo Description Required Default
last_messages inteiro O número de mensagens mais recentes da thread ao construir o contexto para a execução. No
tipo cadeia A estratégia de truncamento a usar para a thread. O padrão é auto. Se definido como last_messages, o thread será truncado para as n mensagens mais recentes do thread. Quando definido como auto, mensagens no meio da thread serão descartadas para se ajustar ao comprimento de contexto do modelo, max_prompt_tokens. Yes

tipo Enum: TruncationType

Value Description
auto
last_messages

assistantsApiToolChoiceOption

Controle qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta. Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} forçar o modelo a chamar essa ferramenta.

Esse componente pode ser um dos seguintes:

assistantsNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.

Name Tipo Description Required Default
função objeto No
└─ name cadeia O nome da função a ser chamada. No
tipo cadeia O tipo da ferramenta. Se o tipo for function, o nome da função deve ser definido Yes

tipo Enum: AssistentesNomeadosEscolhaFerramenta

Value Description
função
code_interpreter
file_search

runObject

Representa uma execução em uma thread.

Name Tipo Description Required Default
assistant_id cadeia O ID do assistente usado para a execução dessa execução. Yes
cancelled_at inteiro O timestamp do Unix (em segundos) para quando a execução foi cancelada. Yes
completed_at inteiro O carimbo de data do Unix (em segundos) para quando a execução foi concluída. Yes
created_at inteiro O carimbo de tempo do Unix (em segundos) para quando a execução foi criada. Yes
expires_at inteiro O timestamp do Unix (em segundos) indica quando a execução vai expirar. Yes
failed_at inteiro O carimbo de data do Unix (em segundos) indica quando a execução falhou. Yes
id cadeia O identificador, que pode ser referenciado nos endpoints da API. Yes
incomplete_details objeto Detalhes sobre por que a fase está incompleta. Vai ser null se a sequência não estiver incompleta. Yes
└─ reason cadeia O motivo pelo qual a sequência está incompleta. Isso indicará qual limite específico de tokens foi atingido ao longo da execução. No
instructions cadeia As instruções que o assistente usou para essa corrida. Yes
last_error objeto O último erro associado a essa execução. Vai ser null se não houver erros. Yes
└─ code cadeia Um de server_error ou rate_limit_exceeded. No
└─ message cadeia Uma descrição legível para humanos do erro. No
max_completion_tokens inteiro O número máximo de fichas de conclusão especificado para ter sido usado ao longo da execução.
Yes
max_prompt_tokens inteiro O número máximo de tokens de prompt especificados para ter sido usados ao longo da execução.
Yes
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
modelo cadeia O modelo que o assistente usou nessa execução. Yes
objeto cadeia O tipo de objeto, que é sempre thread.run. Yes
parallel_tool_calls ParallelToolCalls Se deve ativar a chamada paralela de funções durante o uso da ferramenta. No True
required_action objeto Detalhes sobre a ação necessária para continuar a corrida. Vai ser null se não for necessário agir. Yes
└─ submit_tool_outputs objeto Detalhes sobre as saídas das ferramentas necessárias para que esta execução continue. No
└─ tool_calls matriz Uma lista das chamadas de ferramentas relevantes. No
└─ type enumeração Por enquanto, isso é sempre submit_tool_outputs.
Valores possíveis: submit_tool_outputs
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Yes
started_at inteiro O carimbo de tempo do Unix (em segundos) indica quando a execução foi iniciada. Yes
status cadeia O status da sequência, que pode ser , queuedin_progress, requires_action, cancelling, cancelledfailed, completed, , ou expired. Yes
temperature number A temperatura de amostragem utilizada nesta execução. Se não estiver ativado, o padrão é 1. No
thread_id cadeia O ID das threads que foi executado como parte dessa execução. Yes
tool_choice assistantsApiToolChoiceOption Controle qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} forçar o modelo a chamar essa ferramenta.
Yes
tools matriz A lista de ferramentas que o assistente usou para essa execução. Yes []
top_p number O valor de amostragem do núcleo usado para essa execução. Se não estiver ativado, o padrão é 1. No
truncation_strategy truncationObject Controles de como uma thread será truncada antes da execução. Use isso para controlar a janela de contexto inicial da execução. Yes
uso runCompletionUsage Estatísticas de uso relacionadas à corrida. Esse valor será null se a execução não estiver em estado terminal (ou seja, in_progress, queued, etc.). Yes

object Enum: runObjectType

Value Description
thread.run O tipo de objeto run que é sempre thread.run

status Enum: RunObjectStatus

Value Description
na fila O estado enfileirado
in_progress O estado in_progress
requires_action O estado required_action
cancelling O estado de cancelamento
cancelled O estado cancelado
failed O Estado fracassado
completed O estado concluído
expired O estado expirado

createRunRequest

Name Tipo Description Required Default
additional_instructions cadeia Adiciona instruções adicionais ao final das instruções da execução. Isso é útil para modificar o comportamento a cada execução, sem sobrescrever outras instruções. No
additional_messages matriz Adiciona mensagens adicionais ao tópico antes de criar a execução. No
assistant_id cadeia O ID do assistente para executar essa execução. Yes
instructions cadeia Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento a cada execução. No
max_completion_tokens inteiro O número máximo de fichas de conclusão que podem ser usadas ao longo da corrida. A sequência faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de conclusão especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações.
No
max_prompt_tokens inteiro O número máximo de tokens de prompt que podem ser usados ao longo da execução. A sequência faz o melhor esforço para usar apenas o número de fichas de prompt especificadas, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações.
No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia O ID do Modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Se não, o modelo associado ao assistente será usado. No
parallel_tool_calls ParallelToolCalls Se deve ativar a chamada paralela de funções durante o uso da ferramenta. No True
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
fluxo boolean Se true, retorna uma sequência de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em estado terminal com uma data: [DONE] mensagem.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
No 1
tool_choice assistantsApiToolChoiceOption Controle qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} forçar o modelo a chamar essa ferramenta.
No
tools matriz Ignore as ferramentas que o assistente pode usar nessa jogada. Isso é útil para modificar o comportamento a cada execução. No
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou a temperatura, mas não ambos.
No 1
truncation_strategy truncationObject Controles de como uma thread será truncada antes da execução. Use isso para controlar a janela de contexto inicial da execução. No

listRunsResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

modifyRunRequest

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No

submitToolOutputsRunRequest

Name Tipo Description Required Default
fluxo boolean Se true, retorna uma sequência de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em estado terminal com uma data: [DONE] mensagem.
No
tool_outputs matriz Uma lista de ferramentas para as quais os resultados estão sendo enviados. Yes

runToolCallObject

Objetos de chamada de ferramenta

Name Tipo Description Required Default
função objeto A definição da função. Yes
└─ arguments cadeia Os argumentos que o modelo espera que você passe para a função. No
└─ name cadeia O nome da função. No
id cadeia O ID da chamada de ferramenta. Esse ID deve ser referenciado quando você enviar as saídas da ferramenta usando as saídas de enviar para executar o endpoint. Yes
tipo cadeia O tipo de chamada de ferramenta para a qual a saída é necessária. Por enquanto, isso é sempre function. Yes

tipo Enum: RunToolCallObjectType

Value Description
função

createThreadAndRunRequest

Name Tipo Description Required Default
assistant_id cadeia O ID do assistente para executar essa execução. Yes
instructions cadeia Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento a cada execução. No
max_completion_tokens inteiro O número máximo de fichas de conclusão que podem ser usadas ao longo da corrida. A sequência faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de conclusão especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações.
No
max_prompt_tokens inteiro O número máximo de tokens de prompt que podem ser usados ao longo da execução. A sequência faz o melhor esforço para usar apenas o número de fichas de prompt especificadas, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações.
No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia O ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Se não, o modelo associado ao assistente será usado. No
parallel_tool_calls ParallelToolCalls Se deve ativar a chamada paralela de funções durante o uso da ferramenta. No True
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.

Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.

Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
fluxo boolean Se true, retorna uma sequência de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em estado terminal com uma data: [DONE] mensagem.
No
stream_options chatCompletionStreamOptions Opções para resposta ao streaming. Só define isso quando você define stream: true.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
No 1
conversa createThreadRequest No
tool_choice assistantsApiToolChoiceOption Controle qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} forçar o modelo a chamar essa ferramenta.
No
tool_resources objeto Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O ID do armazenamento vetorial associado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente.
No
tools matriz Ignore as ferramentas que o assistente pode usar nessa jogada. Isso é útil para modificar o comportamento a cada execução. No
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou a temperatura, mas não ambos.
No 1
truncation_strategy truncationObject Controles de como uma thread será truncada antes da execução. Use isso para controlar a janela de contexto inicial da execução. No

threadObject

Representa um thread que contém mensagens.

Name Tipo Description Required Default
created_at inteiro O carimbo de tempo do Unix (em segundos) indica quando a thread foi criada. Yes
id cadeia O identificador, que pode ser referenciado nos endpoints da API. Yes
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
objeto cadeia O tipo de objeto, que é sempre thread. Yes
tool_resources objeto Um conjunto de recursos disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial.
Yes
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O armazenamento vetorial anexado a este tópico. Pode haver no máximo 1 armazenamento vetorial anexado à thread.
No

objeto Enum: ThreadObjectType

Value Description
conversa O tipo de objeto thread que é sempre thread

createThreadRequest

Name Tipo Description Required Default
messages matriz Uma lista de mensagens para começar a conversa. No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
tool_resources objeto Um conjunto de recursos disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O armazenamento vetorial anexado a este tópico. Pode haver no máximo 1 armazenamento vetorial anexado à thread.
No
└─ vector_stores matriz Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a essa thread. Pode haver no máximo 1 armazenamento vetorial anexado à thread.
No

modifyThreadRequest

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
tool_resources objeto Um conjunto de recursos disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O armazenamento vetorial anexado a este tópico. Pode haver no máximo 1 armazenamento vetorial anexado à thread.
No

deleteThreadResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

objeto Enum: DeleteThreadResponseObjectState

Value Description
thread.deleted O estado do objeto delete thread response que é thread.deleted

listThreadsResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

messageObject

Representa uma mensagem dentro de um thread.

Name Tipo Description Required Default
assistant_id cadeia Se aplicável, o ID do assistente que escreveu esta mensagem. Yes
attachments matriz Uma lista de arquivos anexados à mensagem e as ferramentas às quais foram adicionados. Yes
completed_at inteiro O carimbo de data do Unix (em segundos) indicava quando a mensagem era concluída. Yes
conteúdo matriz O conteúdo da mensagem em conjunto de texto e/ou imagens. Yes
created_at inteiro O carimbo de data do Unix (em segundos) para quando a mensagem foi criada. Yes
id cadeia O identificador, que pode ser referenciado nos endpoints da API. Yes
incomplete_at inteiro O carimbo de data e hora do Unix (em segundos) indica quando a mensagem foi marcada como incompleta. Yes
incomplete_details objeto Em uma mensagem incompleta, detalhes sobre o motivo da mensagem estar incompleta. Yes
└─ reason cadeia A razão pela qual a mensagem está incompleta. No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
objeto cadeia O tipo de objeto, que é sempre thread.message. Yes
função cadeia A entidade que produziu a mensagem. Um de user ou assistant. Yes
run_id cadeia Se aplicável, o ID da execução associada à autoria desta mensagem. Yes
status cadeia O status da mensagem, que pode ser , in_progressincomplete, ou completed. Yes
thread_id cadeia O ID da thread ao qual essa mensagem pertence. Yes

object Enum: MessageObjectType

Value Description
thread.message O tipo de objeto mensagem que é thread.message

status Enum: MessageObjectStatus

Value Description
in_progress
incomplete
completed

role Enum: MessageObjectRole

Value Description
usuário
assistente

messageDeltaObject

Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming.

Name Tipo Description Required Default
delta objeto O delta contendo os campos que mudaram na Mensagem. Yes
└─ content matriz O conteúdo da mensagem em conjunto de texto e/ou imagens. No
└─ role cadeia A entidade que produziu a mensagem. Um de user ou assistant. No
id cadeia O identificador da mensagem, que pode ser referenciado em endpoints da API. Yes
objeto cadeia O tipo de objeto, que é sempre thread.message.delta. Yes

objeto Enum: MessageDeltaObjectType

Value Description
thread.message.delta

createMessageRequest

Name Tipo Description Required Default
attachments matriz Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. No
conteúdo cadeia O conteúdo da mensagem. Yes
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
função cadeia O papel da entidade que está criando a mensagem. Valores permitidos incluem:
- user: Indica que a mensagem foi enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.
- assistant: Indica que a mensagem foi gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.
Yes

role Enum: CreateMessageRequestRole

Value Description
usuário
assistente

modifyMessageRequest

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No

deleteMessageResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

objeto Enum: DeleteMessageResponseObject

Value Description
thread.message.deleted O estado do objeto delete message response

listMessagesResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

messageContentImageFileObject

Faz referência a um arquivo de imagem no conteúdo de uma mensagem.

Name Tipo Description Required Default
image_file objeto Yes
└─ file_id cadeia O ID do arquivo da imagem no conteúdo da mensagem. No
tipo cadeia Sempre image_file. Yes

tipo Enum: MensagemConteúdoImageImageObjectType

Value Description
image_file O tipo de arquivo de imagem do conteúdo da mensagem

messageContentTextObject

O conteúdo de texto que faz parte de uma mensagem.

Name Tipo Description Required Default
enviar SMS objeto Yes
└─ annotations matriz No
└─ value cadeia Os dados que compõem o texto. No
tipo cadeia Sempre text. Yes

tipo Enum: mensagemConteúdoTextoObjetoType

Value Description
enviar SMS O conteúdo da mensagem texto Tipo de objeto

messageContentTextAnnotationsFileCitationObject

Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta de "recuperação" para buscar arquivos.

Name Tipo Description Required Default
end_index inteiro Yes
file_citation objeto Yes
└─ file_id cadeia O ID do arquivo específico de onde a citação é atribuída. No
start_index inteiro Yes
enviar SMS cadeia O texto na mensagem que precisa ser substituído. Yes
tipo cadeia Sempre file_citation. Yes

tipo Enum: FileCitationObjectType

Value Description
file_citation O tipo de objeto de citação do arquivo

messageContentTextAnnotationsFilePathObject

Uma URL para o arquivo que é gerado quando o assistente usa a code_interpreter ferramenta para gerar um arquivo.

Name Tipo Description Required Default
end_index inteiro Yes
file_path objeto Yes
└─ file_id cadeia O ID do arquivo que foi gerado. No
start_index inteiro Yes
enviar SMS cadeia O texto na mensagem que precisa ser substituído. Yes
tipo cadeia Sempre file_path. Yes

tipo Enum: FilePathObjectType

Value Description
file_path O tipo de objeto caminho do arquivo

messageDeltaContentImageFileObject

Faz referência a um arquivo de imagem no conteúdo de uma mensagem.

Name Tipo Description Required Default
image_file objeto No
└─ file_id cadeia O ID do arquivo da imagem no conteúdo da mensagem. No
indexar inteiro O índice do conteúdo na mensagem. Yes
tipo cadeia Sempre image_file. Yes

tipo Enum: MessageDeltaContentImageFileObjectType

Value Description
image_file

messageDeltaContentTextObject

O conteúdo de texto que faz parte de uma mensagem.

Name Tipo Description Required Default
indexar inteiro O índice do conteúdo na mensagem. Yes
enviar SMS objeto No
└─ annotations matriz No
└─ value cadeia Os dados que compõem o texto. No
tipo cadeia Sempre text. Yes

tipo Enum: MessageDeltaContentTextObjectType

Value Description
enviar SMS

messageDeltaContentTextAnnotationsFileCitationObject

Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "file_search" para buscar arquivos.

Name Tipo Description Required Default
end_index inteiro No
file_citation objeto No
└─ file_id cadeia O ID do arquivo específico de onde a citação é atribuída. No
└─ quote cadeia A citação específica no arquivo. No
indexar inteiro O índice da anotação na parte de conteúdo do texto. Yes
start_index inteiro No
enviar SMS cadeia O texto na mensagem que precisa ser substituído. No
tipo cadeia Sempre file_citation. Yes

tipo Enum: MensagemDeltaConteúdoTextoAnotaçõesArquivoCitaçãoObjetoType

Value Description
file_citation

messageDeltaContentTextAnnotationsFilePathObject

Uma URL para o arquivo que é gerado quando o assistente usa a code_interpreter ferramenta para gerar um arquivo.

Name Tipo Description Required Default
end_index inteiro No
file_path objeto No
└─ file_id cadeia O ID do arquivo que foi gerado. No
indexar inteiro O índice da anotação na parte de conteúdo do texto. Yes
start_index inteiro No
enviar SMS cadeia O texto na mensagem que precisa ser substituído. No
tipo cadeia Sempre file_path. Yes

tipo Enum: MessageDeltaContentTextAnnotationsFilePathObjectType

Value Description
file_path

runStepObject

Representa um passo na execução de uma sequência.

Name Tipo Description Required Default
assistant_id cadeia O ID do assistente associado ao passo de corrida. Yes
cancelled_at inteiro O carimbo de tempo do Unix (em segundos) indica quando o passo de execução foi cancelado. Yes
completed_at inteiro O timestamp do Unix (em segundos) indica quando a etapa de execução foi concluída. Yes
created_at inteiro O carimbo de tempo do Unix (em segundos) para quando o passo de execução foi criado. Yes
expired_at inteiro O carimbo de tempo do Unix (em segundos) indica quando o passo de execução expirou. Um passo é considerado expirado se a sequência principal estiver expirada. Yes
failed_at inteiro O carimbo de tempo do Unix (em segundos) indica quando o passo de execução falhou. Yes
id cadeia O identificador do passo de execução, que pode ser referenciado nos endpoints da API. Yes
last_error objeto O último erro associado a esse passo de execução. Vai ser null se não houver erros. Yes
└─ code cadeia Um de server_error ou rate_limit_exceeded. No
└─ message cadeia Uma descrição legível para humanos do erro. No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
objeto cadeia O tipo de objeto, que é sempre assistant.run.step. Yes
run_id cadeia O ID da run da qual esse passo faz parte. Yes
status cadeia O status da sequência, que pode ser , in_progresscancelled, failed, completed, ou expired. Yes
step_details runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject Os detalhes do passo da corrida. Yes
thread_id cadeia O ID das threads que foram executadas. Yes
tipo cadeia O tipo de passo de corrida, que pode ser ou message_creationtool_calls. Yes

objeto Enum: RunStepObjectType

Value Description
assistant.run.step O tipo de objeto, que é sempre assistant.run.step

tipo Enum: RunStepObjectType

Value Description
message_creation O passo message_creation corrida
tool_calls O passo tool_calls corrida

status Enum: RunStepObjectStatus

Value Description
in_progress O status da in_progress
cancelled Status da temporada cancelada
failed Status da temporada cancelada
completed Status da temporada cancelada
expired Status da temporada cancelada

runStepDeltaObject

Representa um delta de passo de corrida, ou seja, quaisquer campos alterados em um passo de execução durante o streaming.

Name Tipo Description Required Default
delta objeto O delta contendo os campos que mudaram no passo de execução. Yes
└─ step_details runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject Os detalhes do passo da corrida. No
id cadeia O identificador do passo de execução, que pode ser referenciado nos endpoints da API. Yes
objeto cadeia O tipo de objeto, que é sempre thread.run.step.delta. Yes

object Enum: RunStepDeltaObjectType

Value Description
thread.run.step.delta

listRunStepsResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

runStepDetailsMessageCreationObject

Detalhes da criação da mensagem pelo passo de execução.

Name Tipo Description Required Default
message_creation objeto Yes
└─ message_id cadeia O ID da mensagem criada por essa etapa de execução. No
tipo cadeia Sempre message_creation. Yes

tipo Enum: RunStepDetalhesMensagemCriaçãoObjectType

Value Description
message_creation

runStepDeltaStepDetailsMessageCreationObject

Detalhes da criação da mensagem pelo passo de execução.

Name Tipo Description Required Default
message_creation objeto No
└─ message_id cadeia O ID da mensagem criada por essa etapa de execução. No
tipo cadeia Sempre message_creation. Yes

tipo Enum: RunStepDeltaStepsMessagesCreationObjectType

Value Description
message_creation

runStepDetailsToolCallsObject

Detalhes da chamada de ferramenta.

Name Tipo Description Required Default
tool_calls matriz Uma série de chamadas de ferramenta nas quais o passo de execução estava envolvido. Essas podem estar associadas a um de três tipos de ferramentas: code_interpreter, retrieval ou function.
Yes
tipo cadeia Sempre tool_calls. Yes

tipo Enum: RunStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDeltaStepDetailsToolCallsObject

Detalhes da chamada de ferramenta.

Name Tipo Description Required Default
tool_calls matriz Uma série de chamadas de ferramenta nas quais o passo de execução estava envolvido. Essas podem estar associadas a um de três tipos de ferramentas: code_interpreter, file_search ou function.
No
tipo cadeia Sempre tool_calls. Yes

tipo Enum: RunStepDeltaStepsToolCallsObjectType

Value Description
tool_calls

runStepDetailsToolCallsCodeObject

Detalhes da chamada de ferramenta Code Interpreter em que a etapa de execução estava envolvida.

Name Tipo Description Required Default
code_interpreter objeto A definição da chamada ferramenta do Interpretador de Código. Yes
└─ input cadeia A entrada para a ferramenta Code Interpreter chama. No
└─ outputs matriz As saídas da ferramenta Code Interpreter são chamadas. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. No
id cadeia O ID da chamada de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. Yes

tipo Enum: RunStepDetalhesFerramentaChamadasCodeObjectType

Value Description
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

Detalhes da chamada de ferramenta Code Interpreter em que a etapa de execução estava envolvida.

Name Tipo Description Required Default
code_interpreter objeto A definição da chamada ferramenta do Interpretador de Código. No
└─ input cadeia A entrada para a ferramenta Code Interpreter chama. No
└─ outputs matriz As saídas da ferramenta Code Interpreter são chamadas. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. No
id cadeia O ID da chamada de ferramenta. No
indexar inteiro O índice da chamada de ferramenta no array de chamadas de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. Yes

tipo Enum: RunStepDeltaStepsToolsCallsCodeObjectType

Value Description
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

A saída de texto da ferramenta Code Interpreter é chamada como parte de uma etapa de execução.

Name Tipo Description Required Default
logs cadeia A saída de texto da ferramenta Code Interpreter é chamada. Yes
tipo cadeia Sempre logs. Yes

tipo Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

A saída de texto da ferramenta Code Interpreter é chamada como parte de uma etapa de execução.

Name Tipo Description Required Default
indexar inteiro O índice da saída no array de saídas. Yes
logs cadeia A saída de texto da ferramenta Code Interpreter é chamada. No
tipo cadeia Sempre logs. Yes

tipo Enum: RunStepDeltaStepDetalhesFerramentaChamadasCodeSaídaLogsObjetTipo

Value Description
logs

runStepDetailsToolCallsCodeOutputImageObject

Name Tipo Description Required Default
imagem objeto Yes
└─ file_id cadeia O ID do arquivo da imagem. No
tipo cadeia Sempre image. Yes

tipo Enum: RunStepDetailsToolCallsCodeOutputImageObjectType

Value Description
imagem

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Name Tipo Description Required Default
imagem objeto No
└─ file_id cadeia O ID do arquivo da imagem. No
indexar inteiro O índice da saída no array de saídas. Yes
tipo cadeia Sempre image. Yes

tipo Enum: RunStepDeltaStepsToolCallsCodeOutputImageObject

Value Description
imagem

runStepDetailsToolCallsFileSearchObject

Name Tipo Description Required Default
file_search objeto Por enquanto, isso sempre será um objeto vazio. Yes
└─ results matriz Os resultados da busca no arquivo. No
id cadeia O ID da ferramenta chama objeto. Yes
tipo cadeia O tipo de chamada de ferramenta. Isso sempre será file_search para esse tipo de chamada de ferramenta. Yes

tipo Enum: RunStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFileSearchResultObject

Uma instância de resultado da busca de arquivo.

Name Tipo Description Required Default
conteúdo matriz O conteúdo do resultado que foi encontrado. O conteúdo só é incluído se solicitado via parâmetro de consulta de inclusão. No
file_id cadeia O ID do arquivo em que o resultado foi encontrado. Yes
file_name cadeia O nome do arquivo em que esse resultado foi encontrado. Yes
pontuação number A pontuação do resultado. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. Yes

runStepDeltaStepDetailsToolCallsFileSearchObject

Name Tipo Description Required Default
file_search objeto Por enquanto, isso sempre será um objeto vazio. Yes
id cadeia O ID da ferramenta chama objeto. No
indexar inteiro O índice da chamada de ferramenta no array de chamadas de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Isso sempre será retrieval para esse tipo de chamada de ferramenta. Yes

tipo Enum: RunStepDeltaStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFunctionObject

Name Tipo Description Required Default
função objeto A definição da função que foi chamada. Yes
└─ arguments cadeia Os argumentos passaram para a função. No
└─ name cadeia O nome da função. No
└─ output cadeia A saída da função. Isso acontecerá null se os resultados ainda não foram enviados. No
id cadeia O ID da ferramenta chama objeto. Yes
tipo cadeia O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. Yes

tipo Enum: RunStepDetailsToolCallsFunctionObjectType

Value Description
função

runStepDeltaStepDetailsToolCallsFunctionObject

Name Tipo Description Required Default
função objeto A definição da função que foi chamada. No
└─ arguments cadeia Os argumentos passaram para a função. No
└─ name cadeia O nome da função. No
└─ output cadeia A saída da função. Isso acontecerá null se os resultados ainda não foram enviados. No
id cadeia O ID da ferramenta chama objeto. No
indexar inteiro O índice da chamada de ferramenta no array de chamadas de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. Yes

tipo Enum: RunStepDetailsToolCallsFunctionObjectType

Value Description
função

vectorStoreExpirationAfter

A política de expiração para um armazenamento vetorial.

Name Tipo Description Required Default
âncora cadeia O carimbo de tempo da âncora após o qual a política de expiração se aplica. Âncoras suportadas: last_active_at. Yes
days inteiro O número de dias após o tempo de ancoragem em que o armazenamento vetorial expirará. Yes

âncora Enum: VectorStoreExpirationAfterAnchor

Value Description
last_active_at O carimbo de tempo da âncora após o qual a apólice de expiração se aplica.

vectorStoreObject

Um armazenamento vetorial é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta.

Name Tipo Description Required Default
created_at inteiro O carimbo de data do Unix (em segundos) para quando o armazenamento vetorial foi criado. Yes
expires_after vectorStoreExpirationAfter A política de expiração para um armazenamento vetorial. No
expires_at inteiro O carimbo de data do Unix (em segundos) indica quando o armazenamento vetorial expirará. No
file_counts objeto Yes
└─ cancelled inteiro O número de arquivos que foram cancelados. No
└─ completed inteiro O número de arquivos que foram processados com sucesso. No
└─ failed inteiro O número de arquivos que não foram processados. No
└─ in_progress inteiro O número de arquivos que estão sendo processados atualmente. No
└─ total inteiro O número total de arquivos. No
id cadeia O identificador, que pode ser referenciado nos endpoints da API. Yes
last_active_at inteiro O carimbo de tempo do Unix (em segundos) indica quando o armazenamento vetorial esteve ativo pela última vez. Yes
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
name cadeia O nome do armazenamento vetorial. Yes
objeto enumeração O tipo de objeto, que é sempre vector_store.
Valores possíveis: vector_store
Yes
status cadeia O status do armazenamento vetorial, que pode ser , expiredin_progress, ou completed. Um status de completed indica que o armazenamento vetorial está pronto para uso. Yes
usage_bytes inteiro O número total de bytes usados pelos arquivos no armazenamento vetorial. Yes

status Enum: VectorStoreObjectStatus

Value Description
expired
in_progress
completed

createVectorStoreRequest

Name Tipo Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. Aplicável apenas se file_ids estiver não vazio. No
expires_after vectorStoreExpirationAfter A política de expiração para um armazenamento vetorial. No
file_ids matriz Uma lista de IDs de arquivo que o armazenamento vetorial deve usar. Útil para ferramentas assim file_search que podem acessar arquivos. No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
name cadeia O nome do armazenamento vetorial. No

updateVectorStoreRequest

Name Tipo Description Required Default
expires_after vectorStoreExpirationAfter A política de expiração para um armazenamento vetorial. No
metadados objeto Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
name cadeia O nome do armazenamento vetorial. No

listVectorStoresResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

deleteVectorStoreResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

objeto Enum: DeleteVectorStoreResponseObject

Value Description
vector_store.deleted O estado de resposta do armazenamento vetorial delete

vectorStoreFileObject

Uma lista de arquivos anexados a um armazenamento vetorial.

Name Tipo Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. Aplicável apenas se file_ids estiver não vazio. No
created_at inteiro O carimbo de data do Unix (em segundos) para quando o arquivo de armazenamento vetorial foi criado. Yes
id cadeia O identificador, que pode ser referenciado nos endpoints da API. Yes
last_error objeto O último erro associado a este arquivo de armazenamento vetorial. Vai ser null se não houver erros. Yes
└─ code cadeia Um de server_error ou invalid_file ou unsupported_file. No
└─ message cadeia Uma descrição legível para humanos do erro. No
objeto cadeia O tipo de objeto, que é sempre vector_store.file. Yes
status cadeia O status do arquivo de armazenamento vetorial, que pode ser , in_progresscompleted, cancelled, ou failed. O status completed indica que o arquivo de armazenamento vetorial está pronto para uso. Yes
usage_bytes inteiro O uso total de vetores armazena em bytes. Note que isso pode ser diferente do tamanho original do arquivo. Yes
vector_store_id cadeia O ID do armazenamento vetorial ao qual o arquivo está anexado. Yes

objeto Enum: VectorStoreFileObjectType

Value Description
vector_store.file

status Enum: VectorStoreFileObjectStatus

Value Description
in_progress
completed
cancelled
failed

otherChunkingStrategyResponseParam

Isso é retornado quando a estratégia de fragmentação é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do chunking_strategy conceito ser introduzido na API.

Name Tipo Description Required Default
tipo cadeia Sempre other. Yes

tipo Enum: OtherChunkingStrategyResponseParamType

Value Description
other

staticChunkingStrategyResponseParam

Name Tipo Description Required Default
estático staticChunkingStrategy Yes
tipo cadeia Sempre static. Yes

tipo Enum: StaticChunkingStrategyResponseParamType

Value Description
estático

staticChunkingStrategy

Name Tipo Description Required Default
chunk_overlap_tokens inteiro O número de tokens que se sobrepõem entre blocos. O valor padrão é 400.

Note que a sobreposição não deve exceder metade de max_chunk_size_tokens.
Yes
max_chunk_size_tokens inteiro O número máximo de fichas em cada bloco. O valor padrão é 800. O valor mínimo é 100 e o valor máximo é 4096. Yes

autoChunkingStrategyRequestParam

A estratégia padrão. Essa estratégia atualmente usa um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.

Name Tipo Description Required Default
tipo enumeração Sempre auto.
Valores possíveis: auto
Yes

staticChunkingStrategyRequestParam

Name Tipo Description Required Default
estático staticChunkingStrategy Yes
tipo enumeração Sempre static.
Valores possíveis: static
Yes

chunkingStrategyRequestParam

A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia.

Esse componente pode ser um dos seguintes:

createVectorStoreFileRequest

Name Tipo Description Required Default
chunking_strategy chunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. No
file_id cadeia Um ID de arquivo que o store vetorial deve usar. Útil para ferramentas assim file_search que podem acessar arquivos. Yes

listVectorStoreFilesResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

deleteVectorStoreFileResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

objeto Enum: DeleteVectorStoreFileResponseObject

Value Description
vector_store.file.deleted

vectorStoreFileBatchObject

Um lote de arquivos anexados a um armazenamento vetorial.

Name Tipo Description Required Default
created_at inteiro O carimbo de data do Unix (em segundos) para quando os arquivos de armazenamento vetorial foram criados em lote. Yes
file_counts objeto Yes
└─ cancelled inteiro O número de arquivos que foram cancelados. No
└─ completed inteiro O número de arquivos que foram processados. No
└─ failed inteiro O número de arquivos que não foram processados. No
└─ in_progress inteiro O número de arquivos que estão sendo processados atualmente. No
└─ total inteiro O número total de arquivos. No
id cadeia O identificador, que pode ser referenciado nos endpoints da API. Yes
objeto cadeia O tipo de objeto, que é sempre vector_store.file_batch. Yes
status cadeia O status dos arquivos de armazenamento vetorial em lote, que pode ser , in_progresscompleted, cancelled ou failed. Yes
vector_store_id cadeia O ID do armazenamento vetorial ao qual o Arquivo está anexado. Yes

objeto Enum: VectorStoreFileBatchObjectType

Value Description
vector_store.files_batch

status Enum: VectorStoreFileBatchObjectStatus

Value Description
in_progress
completed
cancelled
failed

createVectorStoreFileBatchRequest

Name Tipo Description Required Default
chunking_strategy chunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. No
file_ids matriz Uma lista de IDs de arquivo que o armazenamento vetorial deve usar. Útil para ferramentas assim file_search que podem acessar arquivos. Yes

assistantStreamEvent

Representa um evento emitido ao transmitir uma Run.

Cada evento em um fluxo de eventos enviado pelo servidor possui uma event propriedade e:data

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Emitimos eventos sempre que um novo objeto é criado, faz transição para um novo estado ou está sendo transmitido em partes (deltas). Por exemplo, emitimos thread.run.created quando uma nova execução é criada, thread.run.completed quando uma execução é concluída, e assim por diante. Quando um Assistente escolhe criar uma mensagem durante uma execução, emitimos um thread.message.created event, um thread.message.in_progress evento, muitos thread.message.delta eventos e, finalmente, um thread.message.completed evento.

Podemos adicionar eventos adicionais ao longo do tempo, então recomendamos lidar com eventos desconhecidos de forma elegante no seu código.

Esse componente pode ser um dos seguintes:

threadStreamEvent

Esse componente pode ser um dos seguintes:

thread.created

Ocorre quando um novo thread é criado.

Name Tipo Description Required Default
dados threadObject Representa um thread que contém mensagens. Yes
evento cadeia Yes

Data: threadObject

Event Enum: ThreadStreamEventEnum

Value Description
thread.created O evento criado pelo fio

runStreamEvent

Esse componente pode ser um dos seguintes:

thread.run.created

Ocorre quando uma nova sequência é criada.

Name Tipo Description Required Default
dados runObject Representa uma execução em uma thread. Yes
evento cadeia Yes

Data: runObject

Evento Enum: RunStreamEventCreated

Value Description
thread.run.created

thread.run.queued

Ocorre quando uma sequência passa para um queued status.

Name Tipo Description Required Default
dados runObject Representa uma execução em uma thread. Yes
evento cadeia Yes

Data: runObject

Event Enum: RunStreamEventQueued

Value Description
thread.run.queued

thread.run.in_progress

Ocorre quando uma sequência passa para um in_progress status.

Name Tipo Description Required Default
dados runObject Representa uma execução em uma thread. Yes
evento cadeia Yes

Data: runObject

Evento Enum: RunStreamEventInProgress

Value Description
thread.run.in_progress

thread.run.requires_action

Ocorre quando uma sequência passa para um requires_action status.

Name Tipo Description Required Default
dados runObject Representa uma execução em uma thread. Yes
evento cadeia Yes

Data: runObject

Evento Enum: RunStreamEventNecessitesAction

Value Description
thread.run.requires_action

thread.run.completed

Ocorre quando uma execução é concluída.

Name Tipo Description Required Default
dados runObject Representa uma execução em uma thread. Yes
evento cadeia Yes

Data: runObject

Evento Enum: RunStreamEventConcluído

Value Description
thread.run.completed

thread.run.failed

Ocorre quando uma tentativa falha.

Name Tipo Description Required Default
dados runObject Representa uma execução em uma thread. Yes
evento cadeia Yes

Data: runObject

Evento Enum: RunStreamEventFailed

Value Description
thread.run.failed

thread.run.cancelling

Ocorre quando uma sequência passa para um cancelling status.

Name Tipo Description Required Default
dados runObject Representa uma execução em uma thread. Yes
evento cadeia Yes

Data: runObject

Evento Enum: RunStreamEventCancelling

Value Description
thread.run.cancelling

thread.run.cancelled

Ocorre quando uma corrida é cancelada.

Name Tipo Description Required Default
dados runObject Representa uma execução em uma thread. Yes
evento cadeia Yes

Data: runObject

Evento Enum: RunStreamEventCancelled

Value Description
thread.run.cancelled

thread.run.expired

Ocorre quando uma corrida expira.

Name Tipo Description Required Default
dados runObject Representa uma execução em uma thread. Yes
evento cadeia Yes

Data: runObject

Evento Enum: RunStreamEventExpired

Value Description
thread.run.expired

runStepStreamEvent

Esse componente pode ser um dos seguintes:

thread.run.step.created

Ocorre quando um passo de corrida é criado.

Name Tipo Description Required Default
dados runStepObject Representa um passo na execução de uma sequência.
Yes
evento cadeia Yes

Data: runStepObject

Evento Enum: RunStepStreamEventCreated

Value Description
thread.run.step.created

thread.run.step.in_progress

Ocorre quando um passo de corrida passa para um in_progress estado.

Name Tipo Description Required Default
dados runStepObject Representa um passo na execução de uma sequência.
Yes
evento cadeia Yes

Data: runStepObject

Evento Enum: RunStepStreamEventInProgress

Value Description
thread.run.step.in_progress

thread.run.step.delta

Ocorre quando partes de um passo de execução estão sendo transmitidas em streaming.

Name Tipo Description Required Default
dados runStepDeltaObject Representa um delta de passo de corrida, ou seja, quaisquer campos alterados em um passo de execução durante o streaming.
Yes
evento cadeia Yes

Data: runStepDeltaObject

Evento Enum: RunStepStreamEventDelta

Value Description
thread.run.step.delta

thread.run.step.completed

Ocorre quando um passo de corrida é concluído.

Name Tipo Description Required Default
dados runStepObject Representa um passo na execução de uma sequência.
Yes
evento cadeia Yes

Data: runStepObject

Evento Enum: RunStepStreamEventConcluído

Value Description
thread.run.step.completed

thread.run.step.failed

Ocorre quando um passo de corrida falha.

Name Tipo Description Required Default
dados runStepObject Representa um passo na execução de uma sequência.
Yes
evento cadeia Yes

Data: runStepObject

Evento Enum: RunStepStreamEventFailed

Value Description
thread.run.step.failed

thread.run.step.cancelled

Ocorre quando um passo de corrida é cancelado.

Name Tipo Description Required Default
dados runStepObject Representa um passo na execução de uma sequência.
Yes
evento cadeia Yes

Data: runStepObject

Evento Enum: RunStepStreamEventCancelled

Value Description
thread.run.step.cancelled

thread.run.step.expired

Ocorre quando um passo de corrida expira.

Name Tipo Description Required Default
dados runStepObject Representa um passo na execução de uma sequência.
Yes
evento cadeia Yes

Data: runStepObject

Evento Enum: RunStepStreamEventExpired

Value Description
thread.run.step.expired

messageStreamEvent

Esse componente pode ser um dos seguintes:

thread.message.created

Ocorre quando uma mensagem é criada.

Name Tipo Description Required Default
dados messageObject Representa uma mensagem dentro de um thread. Yes
evento cadeia Yes

Data: messageObject

Event Enum: MessageStreamEventCreated

Value Description
thread.message.created

thread.message.in_progress

Ocorre quando uma mensagem se move para um in_progress estado.

Name Tipo Description Required Default
dados messageObject Representa uma mensagem dentro de um thread. Yes
evento cadeia Yes

Data: messageObject

Evento Enum: MessageStreamEventInProgress

Value Description
thread.message.in_progress

thread.message.delta

Ocorre quando partes de uma mensagem estão sendo transmitidas em streaming.

Name Tipo Description Required Default
dados messageDeltaObject Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming.
Yes
evento cadeia Yes

Data: messageDeltaObject

Event Enum: MessageStreamEventDelta

Value Description
thread.message.delta

thread.message.completed

Ocorre quando uma mensagem é concluída.

Name Tipo Description Required Default
dados messageObject Representa uma mensagem dentro de um thread. Yes
evento cadeia Yes

Data: messageObject

Evento Enum: MessageStreamEventConcluído

Value Description
thread.message.completed

thread.message.incomplete

Ocorre quando uma mensagem termina antes de ser concluída.

Name Tipo Description Required Default
dados messageObject Representa uma mensagem dentro de um thread. Yes
evento cadeia Yes

Data: messageObject

Evento Enum: MensagemFluxEventoIncompleto

Value Description
thread.message.incomplete

Annotation

Esse componente pode ser um dos seguintes:

Click

Uma ação de clique.

Name Tipo Description Required Default
button enumeração Indica qual botão do mouse foi pressionado durante o clique. Um de left, right, wheel, back, ou forward.

Valores possíveis: left, right, wheel, back, forward
Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de clique, essa propriedade é sempre definida como click.

Valores possíveis: click
Yes
x inteiro A coordenada x onde ocorreu o clique.
Yes
y inteiro A coordenada y onde o clique ocorreu.
Yes

CodeInterpreterFileOutput

A saída de uma ferramenta interpretadora de código chama que é um arquivo.

Name Tipo Description Required Default
files matriz Yes
tipo enumeração O tipo de saída do arquivo do interpretador de código. Sempre files.

Valores possíveis: files
Yes

CodeInterpreterTextOutput

A saída de uma ferramenta interpretadora de código chamada é texto.

Name Tipo Description Required Default
logs cadeia Os logs da ferramenta de interpretação de código são chamados.
Yes
tipo enumeração O tipo do texto do interpretador de código sai da saída. Sempre logs.

Valores possíveis: logs
Yes

CodeInterpreterTool

Uma ferramenta que roda código.

Name Tipo Description Required Default
file_ids matriz Os IDs dos arquivos para rodar o código.
Yes
tipo enumeração O tipo da ferramenta interpretadora de código. Sempre code_interpreter.

Valores possíveis: code_interpreter
Yes

CodeInterpreterToolCall

Uma chamada de ferramenta para rodar código.

Name Tipo Description Required Default
codificar cadeia O código para rodar.
Yes
id cadeia O ID único da ferramenta interpretadora de código é chamado.
Yes
results matriz Os resultados da chamada de ferramenta interpretador de código.
Yes
status enumeração O status da ferramenta de interpretação de código chamado.

Valores possíveis: in_progress, interpreting, completed
Yes
tipo enumeração O tipo de chamada de ferramenta do interpretador de código. Sempre code_interpreter_call.

Valores possíveis: code_interpreter_call
Yes

CodeInterpreterToolOutput

Esse componente pode ser um dos seguintes:

ComparisonFilter

Um filtro usado para comparar uma chave de atributo especificada a um dado valor usando uma operação de comparação definida.

Name Tipo Description Required Default
chave cadeia A chave é comparar com o valor. Yes
tipo enumeração Especifica o operador de comparação: eq, ne, gt, gte, lt, lte.
- eq: igual a
- ne: não é igual
- gt: maior que
- gte: maior ou igual
- lt: menos que
- lte: menor que ou igual

Valores possíveis: eq, ne, gt, gte, lt, lte
Yes
value string ou número ou booleano O valor a comparar com a chave de atributos; suporta tipos de string, número ou booleanos. Yes

CompoundFilter

Combine múltiplos filtros usando and ou or.

Name Tipo Description Required Default
filters matriz Conjunto de filtros para combinar. Itens podem ser ComparisonFilter ou CompoundFilter. Yes
tipo enumeração Tipo de operação: and ou or.
Valores possíveis: and, or
Yes

ComputerAction

Esse componente pode ser um dos seguintes:

ComputerScreenshotImage

Uma imagem de captura de tela de computador usada com a ferramenta de uso de computador.

Name Tipo Description Required Default
file_id cadeia O identificador de um arquivo enviado que contém a captura de tela. No
image_url cadeia A URL da imagem capturada. No
tipo enumeração Especifica o tipo de evento. Para uma captura de tela do computador, essa propriedade está sempre definida como computer_screenshot.

Valores possíveis: computer_screenshot
Yes

ComputerTool

Uma ferramenta que controla um computador virtual.

Name Tipo Description Required Default
display_height number A altura da tela do computador.
Yes
display_width number A largura da tela do computador.
Yes
ambiente enumeração O tipo de ambiente de computador a ser controlado.

Valores possíveis: mac, windows, ubuntu, browser
Yes
tipo enumeração O tipo de ferramenta de uso do computador. Sempre computer_use_preview.

Valores possíveis: computer-use-preview
Yes

ComputerToolCall

Uma chamada de ferramenta para uma ferramenta de uso de computador.

Name Tipo Description Required Default
ação ComputerAction Yes
call_id cadeia Um identificador usado ao responder à chamada de ferramenta com saída.
Yes
id cadeia O ID único da chamada do computador. Yes
pending_safety_checks matriz As verificações de segurança pendentes para a chamada do computador.
Yes
status enumeração O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Yes
tipo enumeração O tipo de chamada no computador. Sempre computer_call.
Valores possíveis: computer_call
Yes

ComputerToolCallOutput

A saída de uma chamada de ferramenta de computador.

Name Tipo Description Required Default
acknowledged_safety_checks matriz As verificações de segurança relatadas pela API foram reconhecidas pelo desenvolvedor.
No
call_id cadeia O ID da chamada de ferramenta de computador que produziu a saída.
Yes
id cadeia O ID da saída da chamada da ferramenta de computador.
No
saída ComputerScreenshotImage Uma imagem de captura de tela de computador usada com a ferramenta de uso de computador.
Yes
status enumeração O status da mensagem de entrada. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens de entrada são retornados via API.

Valores possíveis: in_progress, completed, incomplete
No
tipo enumeração O tipo de saída da ferramenta de computador chama. Sempre computer_call_output.

Valores possíveis: computer_call_output
Yes

ComputerToolCallOutputResource

Name Tipo Description Required Default
acknowledged_safety_checks matriz As verificações de segurança relatadas pela API foram reconhecidas pelo desenvolvedor.
No
call_id cadeia O ID da chamada de ferramenta de computador que produziu a saída.
Yes
id cadeia O ID único da saída da ferramenta de chamada do computador.
Yes
saída ComputerScreenshotImage Uma imagem de captura de tela de computador usada com a ferramenta de uso de computador.
Yes
status enumeração O status da mensagem de entrada. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens de entrada são retornados via API.

Valores possíveis: in_progress, completed, incomplete
No
tipo enumeração O tipo de saída da ferramenta de computador chama. Sempre computer_call_output.

Valores possíveis: computer_call_output
Yes

ComputerToolCallSafetyCheck

Uma verificação de segurança pendente para a chamada no computador.

Name Tipo Description Required Default
codificar cadeia O tipo da verificação de segurança pendente. Yes
id cadeia A identificação da checagem de segurança pendente. Yes
mensagem cadeia Detalhes sobre a verificação de segurança pendente. Yes

Content

Conteúdo de entrada e saída multimodais.

Esse componente pode ser um dos seguintes:

Coordinate

Um par de coordenadas x/y, por exemplo, { x: 100, y: 200 }.

Name Tipo Description Required Default
x inteiro The x-coordinate.
Yes
y inteiro The y-coordinate.
Yes

CreateModelResponseProperties

Name Tipo Description Required Default
metadados Metadata Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard.

As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres.
No
modelo cadeia Modelo usado para gerar as respostas. No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p , mas não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou temperature , mas não ambos.
No 1
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a OpenAI a monitorar e detectar abusos. .
No

createResponse

Name Tipo Description Required Default
include matriz {"$ref": "#/components/schemas/includable/description"} No
entrada String ou array Entradas, texto, imagem ou arquivo para o modelo, usados para gerar uma resposta. Yes
instructions cadeia Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a próxima resposta. Isso facilita a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio.
No
parallel_tool_calls boolean Se permitir que o modelo execute chamadas de ferramenta em paralelo.
No True
previous_response_id cadeia O ID único da resposta anterior ao modelo. Use isso para criar conversas com múltiplas turnos. No
reasoning Reasoning Opções de configuração para modelos de raciocínio. No
armazenar boolean Se deve armazenar a resposta do modelo gerado para recuperação posterior via API.
No True
fluxo boolean Se configurado como true, os dados de resposta do modelo serão transmitidos ao cliente conforme são gerados usando eventos enviados pelo servidor. No False
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Learn more:
- entradas e saídas de texto
- Saídas Estruturadas
No
└─ format TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

Configurar { "type": "json_schema" } habilita Structured Outputs, que garante que o modelo corresponda ao seu esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferido para modelos que o suportam.
No
tool_choice OpçõesDeEscolhaFerramenta ou TiposDeEscolha de Ferramenta ou FunçãoDeEscolhaFerramenta Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Veja o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
No
tools matriz Uma variedade de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas integradas
No
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: Se o contexto dessa resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará o
resposta para se ajustar à janela de contexto ao colocar itens de entrada no meio da conversa.
- disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto para um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
No

DoubleClick

Um duplo clique.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de duplo clique, essa propriedade é sempre definida como double_click.

Valores possíveis: double_click
Yes
x inteiro A coordenada x onde ocorreu o duplo clique.
Yes
y inteiro A coordenada y onde ocorreu o duplo clique.
Yes

Drag

Uma ação de arrasto.

Name Tipo Description Required Default
caminho matriz Um array de coordenadas que representam o caminho da ação de arrasto. As coordenadas aparecerão como um array de objetos, por exemplo[{ x: 100, y: 200 }, { x: 200, y: 300 }] Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de arrasto, essa propriedade é sempre definida para drag.

Valores possíveis: drag
Yes

EasyInputMessage

Uma mensagem entrada no modelo com um papel indicando instruções seguindo a hierarquia. Instruções dadas com o developer papel ou system têm precedência sobre instruções dadas com o user papel. Presume-se que mensagens com a assistant função tenham sido geradas pelo modelo em interações anteriores.

Name Tipo Description Required Default
conteúdo string ou InputMessageContentList Entrada de texto, imagem ou áudio para o modelo, usada para gerar uma resposta.
Também pode conter respostas anteriores de assistentes.
Yes
função enumeração O papel da entrada da mensagem. Um de user, assistant, system, ou developer.

Valores possíveis: user, assistant, system, developer
Yes
tipo enumeração O tipo da mensagem de entrada. Sempre message.

Valores possíveis: message
No

FileCitation

Uma citação para um arquivo.

Name Tipo Description Required Default
file_id cadeia O ID do arquivo.
Yes
indexar inteiro O índice do arquivo na lista de arquivos.
Yes
tipo enumeração O tipo da citação do arquivo. Sempre file_citation.

Valores possíveis: file_citation
Yes

FilePath

Um caminho para um arquivo.

Name Tipo Description Required Default
file_id cadeia O ID do arquivo.
Yes
indexar inteiro O índice do arquivo na lista de arquivos.
Yes
tipo enumeração O tipo do caminho do arquivo. Sempre file_path.

Valores possíveis: file_path
Yes

FileSearchRanker

O ranqueador a usar para a busca de arquivos. Se não for especificado, usará o auto ranqueador.

Property Value
Description O ranqueador a usar para a busca de arquivos. Se não for especificado, usará o auto ranqueador.
Type cadeia
Values auto
default_2024_08_21

FileSearchTool

Uma ferramenta que busca conteúdo relevante a partir de arquivos enviados.

Name Tipo Description Required Default
filters Filtro de Comparação ou Filtro Composto Um filtro para aplicar baseado nos atributos do arquivo. No
max_num_results inteiro O número máximo de resultados a serem detidos. Esse número deve estar entre 1 e 50 inclusive.
No
ranking_options objeto Opções de classificação para busca. No
└─ ranker enumeração O ranqueador a usar para a busca de arquivos.
Valores possíveis: auto, default-2024-11-15
No
└─ score_threshold number O limiar de pontuação para a busca de arquivos é um número entre 0 e 1.
Números próximos de 1 tentarão devolver apenas os resultados mais relevantes, mas podem devolver menos resultados.
No 0
tipo enumeração O tipo da ferramenta de busca de arquivos. Sempre file_search.

Valores possíveis: file_search
Yes
vector_store_ids matriz Os IDs do vetor armazenam para buscar.
Yes

FileSearchToolCall

Os resultados de uma chamada de ferramenta de busca de arquivos.

Name Tipo Description Required Default
id cadeia O ID único da ferramenta de busca de arquivos é chamado.
Yes
queries matriz As consultas usadas para buscar arquivos.
Yes
results matriz Os resultados da ferramenta de busca de arquivos chamam.
No
status enumeração O status da ferramenta de busca de arquivos é chamado. Um de in_progress, searching, incomplete ou failed,

Valores possíveis: in_progress, searching, completed, incomplete, failed
Yes
tipo enumeração O tipo que a ferramenta de busca de arquivos chama. Sempre file_search_call.

Valores possíveis: file_search_call
Yes

FunctionTool

Define uma função no seu próprio código que o modelo pode escolher chamar.

Name Tipo Description Required Default
description cadeia Uma descrição da função. Usado pelo modelo para determinar se chamar ou não a função.
No
name cadeia O nome da função a ser chamada.
Yes
parameters objeto Um objeto de esquema JSON que descreve os parâmetros da função.
Yes
strict boolean Se deve aplicar validação rigorosa de parâmetros. Padrão true.
Yes
tipo enumeração O tipo da ferramenta funcional. Sempre function.

Valores possíveis: function
Yes

FunctionToolCall

Uma chamada de ferramenta para rodar uma função.

Name Tipo Description Required Default
arguments cadeia Uma sequência JSON dos argumentos a serem passados para a função.
Yes
call_id cadeia O ID único da chamada de ferramenta de função gerada pelo modelo.
Yes
id cadeia O ID único da ferramenta de função é chamado.
Yes
name cadeia O nome da função a ser executada.
Yes
status enumeração O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
No
tipo enumeração O tipo da chamada da ferramenta funcional. Sempre function_call.

Valores possíveis: function_call
Yes

FunctionToolCallOutput

A saída de uma chamada de ferramenta funcional.

Name Tipo Description Required Default
call_id cadeia O ID único da chamada de ferramenta de função gerada pelo modelo.
Yes
id cadeia O ID único da saída da chamada da ferramenta funcional. Preenchido quando esse item é retornado via API.
No
saída cadeia Uma string JSON da saída da chamada de ferramenta de função.
Yes
status enumeração O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
No
tipo enumeração O tipo da saída da ferramenta de chamada. Sempre function_call_output.

Valores possíveis: function_call_output
Yes

FunctionToolCallOutputResource

Name Tipo Description Required Default
call_id cadeia O ID único da chamada de ferramenta de função gerada pelo modelo.
Yes
id cadeia O ID único da saída da ferramenta de chamada de função.
Yes
saída cadeia Uma string JSON da saída da chamada de ferramenta de função.
Yes
status enumeração O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
No
tipo enumeração O tipo da saída da ferramenta de chamada. Sempre function_call_output.

Valores possíveis: function_call_output
Yes

includable

Especifique dados de saída adicionais para incluir na resposta do modelo. Os valores atualmente suportados são:

  • file_search_call.results: Inclua os resultados da busca da chamada de ferramenta de busca de arquivos.
  • message.input_image.image_url: Inclua URLs de imagem da mensagem de entrada.
  • computer_call_output.output.image_url: Incluir URLs de imagem da saída da chamada do computador.
Property Value
Description Especifique dados de saída adicionais para incluir na resposta do modelo. Os valores atualmente suportados são:
- file_search_call.results: Inclua os resultados da busca da chamada de ferramenta de busca de arquivos.
- message.input_image.image_url: Inclua URLs de imagem da mensagem de entrada.
- computer_call_output.output.image_url: Incluir URLs de imagem da saída da chamada do computador.
Type cadeia
Values file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

InputAudio

Uma entrada de áudio para o modelo.

Name Tipo Description Required Default
dados cadeia Dados de áudio codificados em base64.
Yes
format enumeração O formato dos dados de áudio. Os formatos atualmente suportados são mp3 e wav.

Valores possíveis: mp3, wav
Yes
tipo enumeração O tipo do item de entrada. Sempre input_audio.

Valores possíveis: input_audio
Yes

InputContent

Esse componente pode ser um dos seguintes:

InputFile

Uma entrada de arquivo para o modelo.

Name Tipo Description Required Default
file_data cadeia O conteúdo do arquivo a ser enviado ao modelo.
No
file_id cadeia O ID do arquivo a ser enviado ao modelo.
No
filename cadeia O nome do arquivo a ser enviado ao modelo.
No
tipo enumeração O tipo do item de entrada. Sempre input_file.

Valores possíveis: input_file
Yes

InputImage

Uma entrada de imagem para o modelo.

Name Tipo Description Required Default
detail enumeração O nível de detalhe da imagem a ser enviada ao modelo. Um de high, low, ou auto. O padrão é .auto

Valores possíveis: high, low, auto
Yes
file_id cadeia O ID do arquivo a ser enviado ao modelo.
No
image_url cadeia A URL da imagem a ser enviada ao modelo. Uma URL totalmente qualificada ou imagem codificada base64 em uma URL de dados.
No
tipo enumeração O tipo do item de entrada. Sempre input_image.

Valores possíveis: input_image
Yes

InputItem

Esse componente pode ser um dos seguintes:

InputMessage

Uma mensagem entrada no modelo com um papel indicando instruções seguindo a hierarquia. Instruções dadas com o developer papel ou system têm precedência sobre instruções dadas com o user papel.

Name Tipo Description Required Default
conteúdo InputMessageContentList Uma lista de um ou vários itens de entrada para o modelo, contendo diferentes conteúdos
types.
Yes
função enumeração O papel da entrada da mensagem. Um de user, system, ou developer.

Valores possíveis: user, system, developer
Yes
status enumeração O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
No
tipo enumeração O tipo da mensagem de entrada. Sempre definido para message.

Valores possíveis: message
No

InputMessageContentList

Uma lista de um ou muitos itens de entrada para o modelo, contendo diferentes tipos de conteúdo.

Nenhuma propriedade definida para esse componente.

InputMessageResource

Name Tipo Description Required Default
conteúdo InputMessageContentList Uma lista de um ou vários itens de entrada para o modelo, contendo diferentes conteúdos
types.
Yes
id cadeia O ID único da entrada da mensagem.
Yes
função enumeração O papel da entrada da mensagem. Um de user, system, ou developer.

Valores possíveis: user, system, developer
Yes
status enumeração O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
No
tipo enumeração O tipo da mensagem de entrada. Sempre definido para message.

Valores possíveis: message
No

InputText

Uma entrada de texto para o modelo.

Name Tipo Description Required Default
enviar SMS cadeia A entrada de texto no modelo.
Yes
tipo enumeração O tipo do item de entrada. Sempre input_text.

Valores possíveis: input_text
Yes

Item

Item de conteúdo usado para gerar uma resposta.

Esse componente pode ser um dos seguintes:

ItemReference

Um identificador interno para um item referenciar.

Name Tipo Description Required Default
id cadeia O ID do item para referência.
Yes
tipo enumeração O tipo de item a ser referenciado. Sempre item_reference.

Valores possíveis: item_reference
Yes

ItemResource

Item de conteúdo usado para gerar uma resposta.

Esse componente pode ser um dos seguintes:

KeyPress

Uma coleção de pressionamentos de teclas que o modelo gostaria de realizar.

Name Tipo Description Required Default
keys matriz A combinação de teclas que o modelo está solicitando para ser pressionada. É um array de cordas, cada uma representando uma tonalidade.
Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de pressionar a tecla, essa propriedade é sempre definida para keypress.

Valores possíveis: keypress
Yes

Metadata

Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard.

As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres.

Nenhuma propriedade definida para esse componente.

ModelResponseProperties

Name Tipo Description Required Default
metadados Metadata Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard.

As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres.
No
modelo cadeia Modelo usado para gerar as respostas. No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p , mas não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou temperature , mas não ambos.
No 1
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a OpenAI a monitorar e detectar abusos. .
No

Move

Uma ação de movimento de rato.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de movimento, essa propriedade é sempre definida como move.

Valores possíveis: move
Yes
x inteiro A coordenada x para se mover.
Yes
y inteiro A coordenada Y para se mover.
Yes

OutputAudio

Uma saída de áudio do modelo.

Name Tipo Description Required Default
dados cadeia Dados de áudio codificados em Base64 do modelo.
Yes
transcrição cadeia A transcrição dos dados de áudio do modelo.
Yes
tipo enumeração O tipo de áudio de saída. Sempre output_audio.

Valores possíveis: output_audio
Yes

OutputContent

Esse componente pode ser um dos seguintes:

OutputItem

Name Tipo Description Required Default
ação ComputerAction Yes
arguments cadeia Uma sequência JSON dos argumentos a serem passados para a função.
Yes
call_id cadeia Um identificador usado ao responder à chamada de ferramenta com saída.
Yes
conteúdo matriz Raciocínio do conteúdo do texto.
Yes
id cadeia O identificador único do conteúdo de raciocínio.
Yes
name cadeia O nome da função a ser executada.
Yes
pending_safety_checks matriz As verificações de segurança pendentes para a chamada do computador.
Yes
queries matriz As consultas usadas para buscar arquivos.
Yes
results matriz Os resultados da ferramenta de busca de arquivos chamam.
No
função enumeração O papel da mensagem de saída. Sempre assistant.

Valores possíveis: assistant
Yes
status enumeração O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Yes
tipo enumeração O tipo do objeto. Sempre reasoning.

Valores possíveis: reasoning
Yes

OutputMessage

Uma mensagem de saída do modelo.

Name Tipo Description Required Default
conteúdo matriz O conteúdo da mensagem de saída.
Yes
id cadeia O ID único da mensagem de saída.
Yes
função enumeração O papel da mensagem de saída. Sempre assistant.

Valores possíveis: assistant
Yes
status enumeração O status da mensagem de entrada. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens de entrada são retornados via API.

Valores possíveis: in_progress, completed, incomplete
Yes
tipo enumeração O tipo da mensagem de saída. Sempre message.

Valores possíveis: message
Yes

OutputText

Uma saída de texto do modelo.

Name Tipo Description Required Default
annotations matriz As anotações da saída do texto.
Yes
enviar SMS cadeia O texto que sai do modelo.
Yes
tipo enumeração O tipo do texto de saída. Sempre output_text.

Valores possíveis: output_text
Yes

RealtimeSessionCreateRequest

Configuração de objetos de sessão em tempo real.

Name Tipo Description Required Default
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits em taxa de amostragem de 24kHz, um único canal (mono) e ordem de bytes little-endian.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction objeto Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null desligar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo.
Filtrar o áudio pode melhorar a precisão da detecção de VAD e de curva (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a percepção do áudio de entrada.
No
└─ type enumeração Tipo de redução de ruído. near_field é para microfones de conversa próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou salas de conferência.

Valores possíveis: near_field, far_field
No
input_audio_transcription objeto Configuração para transcrição de áudio de entrada, padrão para desligado e pode ser configurado para null desligar uma vez ligado. A transcrição de áudio de entrada não é nativa do modelo, já que o modelo consome áudio diretamente. A transcrição roda assíncrona pelo endpoint de Transcrições e deve ser tratada como orientação do conteúdo de áudio de entrada, em vez do que exatamente o modelo ouviu. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, que oferecem orientação adicional ao serviço de transcrição.
No
└─ language cadeia O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência.
No
└─ model cadeia O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.
No
└─ prompt cadeia Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma sequência de texto livre, por exemplo: "espere palavras relacionadas à tecnologia".
No
instructions cadeia As instruções padrão do sistema (ou seja, mensagem do sistema) eram precedidas para as chamadas de modelo. Esse campo permite que o cliente oriente o modelo nas respostas desejadas. O modelo pode ser orientado sobre conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre comportamento áudio (por exemplo, "fale rápido", "injete emoção na sua voz", "ria frequentemente"). As instruções não são garantidas para serem seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado.

Note que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e que estiverem visíveis no session.created evento no início da sessão.
No
max_response_output_tokens inteiro ou cadeia Número máximo de tokens de saída para uma resposta de assistente único, incluindo chamadas de ferramenta. Forneça um número inteiro entre 1 e 4096 para limitar os tokens de saída, ou inf para o número máximo de tokens disponíveis para um determinado modelo. O padrão é .inf
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina isso como ["texto"].
No
modelo cadeia O nome da implantação usada para esta sessão.
No
output_audio_format enumeração O formato do áudio de saída. As opções são pcm16, g711_ulaw, ou g711_alaw.
Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
No
temperature number Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para melhor desempenho.
No 0.8
tool_choice cadeia Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função.
No auto
tools matriz Ferramentas (funções) disponíveis para o modelo. No
turn_detection objeto Configuração para detecção de turno, VAD de servidor ether ou VAD semântico. Isso pode ser configurado para null desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume do áudio e responderá ao final da fala do usuário.
O VAD semântico é mais avançado e utiliza um modelo de detecção de curva (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar, e então define dinamicamente um timeout baseado nessa probabilidade. Por exemplo, se o áudio do usuário perder o ritmo com uhhm, o modelo marcará baixa probabilidade de fim de turno e esperará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
No
└─ create_response boolean Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada VAD.
No True
└─ eagerness enumeração Usado apenas para semantic_vad o modo. A ânsia do modelo em responder. low Vai esperar mais tempo para o usuário continuar falando, high vai responder mais rápido. auto é o padrão e é equivalente a medium.

Valores possíveis: low, medium, high, auto
No
└─ interrupt_response boolean Se interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início do VAD.
No True
└─ prefix_padding_ms inteiro Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detectar a fala (em milissegundos). O padrão é 300ms.
No
└─ silence_duration_ms inteiro Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rápido, mas pode entrar em pausas curtas do usuário.
No
└─ threshold number Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este padrão é 0.5. Um limiar mais alto exigirá áudio mais alto para ativar o modelo e, portanto, pode ter melhor desempenho em ambientes barulhentos.
No
└─ type enumeração Tipo de detecção de curva.

Valores possíveis: server_vad, semantic_vad
No
voice VoiceIdsShared No

RealtimeSessionCreateResponse

Uma nova configuração de sessão em tempo real, com uma chave efêmera. O TTL padrão para as chaves é de um minuto.

Name Tipo Description Required Default
client_secret objeto Chave efêmera retornada pela API. Yes
└─ expires_at inteiro Carimbo de data e hora de expiração do token. Atualmente, todos os tokens expiram após um minuto.
No
└─ value cadeia Chave efêmera utilizável em ambientes de cliente para autenticar conexões com a API em tempo real. Use isso em ambientes do lado do cliente, em vez de um token de API padrão, que deve ser usado apenas no lado do servidor.
No
input_audio_format cadeia O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.
No
input_audio_transcription objeto Configuração para transcrição de áudio de entrada, padrão para desligado e pode ser configurado para null desligar uma vez ligado. A transcrição de áudio de entrada não é nativa do modelo, já que o modelo consome áudio diretamente. A transcrição é executada assíncrona pelo Whisper e deve ser tratada como orientação aproximada, em vez da representação compreendida pelo modelo.
No
└─ model cadeia O modelo a ser usado para transcrição whisper-1 é o único modelo atualmente suportado.
No
instructions cadeia As instruções padrão do sistema (ou seja, mensagem do sistema) eram precedidas para as chamadas de modelo. Esse campo permite que o cliente oriente o modelo nas respostas desejadas. O modelo pode ser instruído sobre conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre comportamento áudio (ex: "fale rápido", "injete emoção na sua voz", "ria frequentemente"). As instruções não são garantidas para serem seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado.
Note que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e que estiverem visíveis no session.created evento no início da sessão.
No
max_response_output_tokens inteiro ou cadeia Número máximo de tokens de saída para uma resposta de assistente único, incluindo chamadas de ferramenta. Forneça um número inteiro entre 1 e 4096 para limitar os tokens de saída, ou inf para o número máximo de tokens disponíveis para um determinado modelo. O padrão é .inf
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina isso como ["texto"].
No
output_audio_format cadeia O formato do áudio de saída. As opções são pcm16, g711_ulaw, ou g711_alaw.
No
temperature number Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. O padrão é 0,8.
No
tool_choice cadeia Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função.
No
tools matriz Ferramentas (funções) disponíveis para o modelo. No
turn_detection objeto Configuração para detecção de curva. Pode ser configurado para null desligar. O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume do áudio e responderá ao final da fala do usuário.
No
└─ prefix_padding_ms inteiro Quantidade de áudio a incluir antes do VAD detectar a fala (em milissegundos). O padrão é 300ms.
No
└─ silence_duration_ms inteiro Duração do silêncio para detectar a parada da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rápido, mas pode entrar em pausas curtas do usuário.
No
└─ threshold number Limiar de ativação para VAD (0.0 a 1.0), este padrão é 0.5. Um limiar mais alto exigirá áudio mais alto para ativar o modelo e, portanto, pode ter melhor desempenho em ambientes barulhentos.
No
└─ type cadeia Só o tipo de detecção de curva server_vad é atualmente suportado.
No
voice VoiceIdsShared No

RealtimeTranscriptionSessionCreateRequest

Configuração de objetos em tempo real para sessão de transcrição.

Name Tipo Description Required Default
include matriz O conjunto de itens a serem incluídos na transcrição. Os itens atualmente disponíveis são:
- item.input_audio_transcription.logprobs
No
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits em taxa de amostragem de 24kHz, um único canal (mono) e ordem de bytes little-endian.

Valores possíveis: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction objeto Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null desligar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo.
Filtrar o áudio pode melhorar a precisão da detecção de VAD e de curva (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a percepção do áudio de entrada.
No
└─ type enumeração Tipo de redução de ruído. near_field é para microfones de conversa próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou salas de conferência.

Valores possíveis: near_field, far_field
No
input_audio_transcription objeto Configuração para transcrição de áudio de entrada. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, que oferecem orientação adicional ao serviço de transcrição.
No
└─ language cadeia O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência.
No
└─ model enumeração O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.

Valores possíveis: gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt cadeia Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma sequência de texto livre, por exemplo: "espere palavras relacionadas à tecnologia".
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina isso como ["texto"].
No
turn_detection objeto Configuração para detecção de turno, VAD de servidor ether ou VAD semântico. Isso pode ser configurado para null desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume do áudio e responderá ao final da fala do usuário.
O VAD semântico é mais avançado e utiliza um modelo de detecção de curva (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar, e então define dinamicamente um timeout baseado nessa probabilidade. Por exemplo, se o áudio do usuário perder o ritmo com uhhm, o modelo marcará baixa probabilidade de fim de turno e esperará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
No
└─ create_response boolean Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada VAD. Não disponível para sessões de transcrição.
No True
└─ eagerness enumeração Usado apenas para semantic_vad o modo. A ânsia do modelo em responder. low Vai esperar mais tempo para o usuário continuar falando, high vai responder mais rápido. auto é o padrão e é equivalente a medium.

Valores possíveis: low, medium, high, auto
No
└─ interrupt_response boolean Se interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início do VAD. Não disponível para sessões de transcrição.
No True
└─ prefix_padding_ms inteiro Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detectar a fala (em milissegundos). O padrão é 300ms.
No
└─ silence_duration_ms inteiro Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rápido, mas pode entrar em pausas curtas do usuário.
No
└─ threshold number Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este padrão é 0.5. Um limiar mais alto exigirá áudio mais alto para ativar o modelo e, portanto, pode ter melhor desempenho em ambientes barulhentos.
No
└─ type enumeração Tipo de detecção de curva.

Valores possíveis: server_vad, semantic_vad
No

RealtimeTranscriptionSessionCreateResponse

Uma nova configuração de sessão de transcrição em tempo real.

Quando uma sessão é criada no servidor via API REST, o objeto de sessão também contém uma chave efêmera. O TTL padrão para as chaves é de um minuto. Essa propriedade não está presente quando uma sessão é atualizada via API WebSocket.

Name Tipo Description Required Default
client_secret objeto Chave efêmera retornada pela API. Só está presente quando a sessão é criada no servidor via API REST.
Yes
└─ expires_at inteiro Carimbo de data e hora de expiração do token. Atualmente, todos os tokens expiram após um minuto.
No
└─ value cadeia Chave efêmera utilizável em ambientes de cliente para autenticar conexões com a API em tempo real. Use isso em ambientes do lado do cliente, em vez de um token de API padrão, que deve ser usado apenas no lado do servidor.
No
input_audio_format cadeia O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.
No
input_audio_transcription objeto Configuração do modelo de transcrição.
No
└─ language cadeia O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência.
No
└─ model enumeração O modelo a ser usado para transcrição. Pode ser gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, ou whisper-1.

Valores possíveis: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt cadeia Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder à linguagem do áudio.
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina isso como ["texto"].
No
turn_detection objeto Configuração para detecção de curva. Pode ser configurado para null desligar. O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume do áudio e responderá ao final da fala do usuário.
No
└─ prefix_padding_ms inteiro Quantidade de áudio a incluir antes do VAD detectar a fala (em milissegundos). O padrão é 300ms.
No
└─ silence_duration_ms inteiro Duração do silêncio para detectar a parada da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rápido, mas pode entrar em pausas curtas do usuário.
No
└─ threshold number Limiar de ativação para VAD (0.0 a 1.0), este padrão é 0.5. Um limiar mais alto exigirá áudio mais alto para ativar o modelo e, portanto, pode ter melhor desempenho em ambientes barulhentos.
No
└─ type cadeia Só o tipo de detecção de curva server_vad é atualmente suportado.
No

Reasoning

Opções de configuração para modelos de raciocínio.

Name Tipo Description Required Default
Esforço ReasoningEffort Restringe o esforço no raciocínio para modelos de raciocínio.
Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
Yes meio
resumo enumeração Um resumo do raciocínio realizado pelo modelo. Isso pode ser útil para depuração e compreensão do processo de raciocínio do modelo.
Um de concise ou detailed.

Valores possíveis: concise, detailed
No

ReasoningItem

Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta.

Name Tipo Description Required Default
conteúdo matriz Raciocínio do conteúdo do texto.
Yes
id cadeia O identificador único do conteúdo de raciocínio.
Yes
status enumeração O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.

Valores possíveis: in_progress, completed, incomplete
No
tipo enumeração O tipo do objeto. Sempre reasoning.

Valores possíveis: reasoning
Yes

Refusal

Uma recusa da modelo.

Name Tipo Description Required Default
refusal cadeia A explicação da recusa do modelo.
Yes
tipo enumeração O tipo de recusa. Sempre refusal.

Valores possíveis: refusal
Yes

response

Name Tipo Description Required Default
created_at number Carimbo de tempo do Unix (em segundos) de quando essa resposta foi criada.
Yes
erro ResponseError Um objeto de erro retornado quando o modelo falha em gerar uma Resposta.
Yes
id cadeia Identificador único para esta Resposta.
Yes
incomplete_details objeto Detalhes sobre por que a resposta está incompleta.
Yes
└─ reason enumeração O motivo pelo qual a resposta está incompleta.
Valores possíveis: max_output_tokens, content_filter
No
instructions cadeia Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a próxima resposta. Isso facilita a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
Yes
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa.
No
metadados Metadata Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard.

As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres.
Yes
modelo cadeia Modelo usado para gerar as respostas. Yes
objeto enumeração O tipo de objeto desse recurso - sempre definido como response.

Valores possíveis: response
Yes
saída matriz Uma variedade de itens de conteúdo gerados pelo modelo.

- O comprimento e a ordem dos itens no output array dependem da resposta do modelo.
- Em vez de acessar o primeiro item do output array e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde suportado nos SDKs.
Yes
output_text cadeia Propriedade de conveniência apenas SDK que contém o texto agregado de saída de todos os output_text itens do output array, se houver algum.
Suportado nos SDKs de Python e JavaScript.
No
parallel_tool_calls boolean Se permitir que o modelo execute chamadas de ferramenta em paralelo.
Yes True
previous_response_id cadeia O ID único da resposta anterior ao modelo. Use isso para criar conversas com múltiplas turnos. No
reasoning Reasoning Opções de configuração para modelos de raciocínio.
No
status enumeração O status da geração de resposta. Um de completed, failed, in_progress, ou incomplete.

Valores possíveis: completed, failed, in_progress, incomplete
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p , mas não ambos.
Yes 1
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Learn more:
- entradas e saídas de texto
- Saídas Estruturadas
No
└─ format TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

Configurar { "type": "json_schema" } habilita Structured Outputs, que garante que o modelo corresponda ao seu esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferido para modelos que o suportam.
No
tool_choice OpçõesDeEscolhaFerramenta ou TiposDeEscolha de Ferramenta ou FunçãoDeEscolhaFerramenta Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Veja o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
Yes
tools matriz Uma variedade de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas integradas
Yes
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados.

Geralmente recomendamos alterar isso ou temperature , mas não ambos.
Yes 1
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: Se o contexto dessa resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, deixando de lado itens de entrada no meio da conversa.
- disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto para um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
No
uso ResponseUsage Representa detalhes de uso de tokens, incluindo tokens de entrada, tokens de saída, uma divisão dos tokens de saída e o total de tokens utilizados.
No
usuário cadeia Um identificador único representando seu usuário final, que pode ajudar a OpenAI a monitorar e detectar abusos. .
No

ResponseAudioDeltaEvent

Emitido quando há uma resposta parcial de áudio.

Name Tipo Description Required Default
delta cadeia Um pedaço de bytes de áudio de resposta codificada em Base64.
Yes
tipo enumeração O tipo de evento. Sempre response.audio.delta.

Valores possíveis: response.audio.delta
Yes

ResponseAudioDoneEvent

Emitido quando a resposta de áudio é completa.

Name Tipo Description Required Default
tipo enumeração O tipo de evento. Sempre response.audio.done.

Valores possíveis: response.audio.done
Yes

ResponseAudioTranscriptDeltaEvent

Emitido quando há uma transcrição parcial do áudio.

Name Tipo Description Required Default
delta cadeia A transcrição parcial da resposta em áudio.
Yes
tipo enumeração O tipo de evento. Sempre response.audio.transcript.delta.

Valores possíveis: response.audio.transcript.delta
Yes

ResponseAudioTranscriptDoneEvent

Emitido quando a transcrição completa do áudio é concluída.

Name Tipo Description Required Default
tipo enumeração O tipo de evento. Sempre response.audio.transcript.done.

Valores possíveis: response.audio.transcript.done
Yes

ResponseCodeInterpreterCallCodeDeltaEvent

Emitido quando um trecho parcial de código é adicionado pelo interpretador de código.

Name Tipo Description Required Default
delta cadeia O trecho parcial de código adicionado pelo interpretador de código.
Yes
output_index inteiro O índice do item de saída que o interpretador de código chama está em andamento.
Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.code.delta.

Valores possíveis: response.code_interpreter_call.code.delta
Yes

ResponseCodeInterpreterCallCodeDoneEvent

Emitido quando a saída do fragmento de código é finalizada pelo interpretador de código.

Name Tipo Description Required Default
codificar cadeia O trecho final de código produzido pelo interpretador de código.
Yes
output_index inteiro O índice do item de saída que o interpretador de código chama está em andamento.
Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.code.done.

Valores possíveis: response.code_interpreter_call.code.done
Yes

ResponseCodeInterpreterCallCompletedEvent

Emitido quando a chamada do interpretador de código é concluída.

Name Tipo Description Required Default
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para rodar código.
Yes
output_index inteiro O índice do item de saída que o interpretador de código chama está em andamento.
Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.completed.

Valores possíveis: response.code_interpreter_call.completed
Yes

ResponseCodeInterpreterCallInProgressEvent

Emitido quando uma chamada de interpretador de código está em andamento.

Name Tipo Description Required Default
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para rodar código.
Yes
output_index inteiro O índice do item de saída que o interpretador de código chama está em andamento.
Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.in_progress.

Valores possíveis: response.code_interpreter_call.in_progress
Yes

ResponseCodeInterpreterCallInterpretingEvent

Emitido quando o interpretador de código está ativamente interpretando o trecho de código.

Name Tipo Description Required Default
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para rodar código.
Yes
output_index inteiro O índice do item de saída que o interpretador de código chama está em andamento.
Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.interpreting.

Valores possíveis: response.code_interpreter_call.interpreting
Yes

ResponseCompletedEvent

Emitido quando a resposta do modelo está completa.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo de evento. Sempre response.completed.

Valores possíveis: response.completed
Yes

ResponseContentPartAddedEvent

Emitido quando uma nova parte de conteúdo é adicionada.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo que foi adicionada.
Yes
item_id cadeia O ID do item de saída ao qual a parte de conteúdo foi adicionada.
Yes
output_index inteiro O índice do item de saída ao qual a parte de conteúdo foi adicionada.
Yes
part OutputContent Yes
tipo enumeração O tipo de evento. Sempre response.content_part.added.

Valores possíveis: response.content_part.added
Yes

ResponseContentPartDoneEvent

Emitido quando uma parte de conteúdo é concluída.

Name Tipo Description Required Default
content_index inteiro O índice do conteúdo que é feito.
Yes
item_id cadeia O ID do item de saída ao qual a parte de conteúdo foi adicionada.
Yes
output_index inteiro O índice do item de saída ao qual a parte de conteúdo foi adicionada.
Yes
part OutputContent Yes
tipo enumeração O tipo de evento. Sempre response.content_part.done.

Valores possíveis: response.content_part.done
Yes

ResponseCreatedEvent

Um evento que é emitido quando uma resposta é criada.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo de evento. Sempre response.created.

Valores possíveis: response.created
Yes

ResponseError

Um objeto de erro retornado quando o modelo falha em gerar uma Resposta.

Name Tipo Description Required Default
codificar ResponseErrorCode O código de erro da resposta.
Yes
mensagem cadeia Uma descrição legível para humanos do erro.
Yes

ResponseErrorCode

O código de erro da resposta.

Property Value
Description O código de erro da resposta.
Type cadeia
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

ResponseErrorEvent

Emitido quando ocorre um erro.

Name Tipo Description Required Default
codificar cadeia O código de erro.
Yes
mensagem cadeia A mensagem de erro.
Yes
param cadeia O parâmetro de erro.
Yes
tipo enumeração O tipo de evento. Sempre error.

Valores possíveis: error
Yes

ResponseFailedEvent

Um evento que é emitido quando uma resposta falha.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo de evento. Sempre response.failed.

Valores possíveis: response.failed
Yes

ResponseFileSearchCallCompletedEvent

Emitido quando uma chamada de busca de arquivo é concluída (resultados encontrados).

Name Tipo Description Required Default
item_id cadeia O ID do item de saída que a busca de arquivo chama é iniciado.
Yes
output_index inteiro O índice do item de saída que a busca de arquivo chama é iniciado.
Yes
tipo enumeração O tipo de evento. Sempre response.file_search_call.completed.

Valores possíveis: response.file_search_call.completed
Yes

ResponseFileSearchCallInProgressEvent

Emitido quando uma chamada de busca de arquivo é iniciada.

Name Tipo Description Required Default
item_id cadeia O ID do item de saída que a busca de arquivo chama é iniciado.
Yes
output_index inteiro O índice do item de saída que a busca de arquivo chama é iniciado.
Yes
tipo enumeração O tipo de evento. Sempre response.file_search_call.in_progress.

Valores possíveis: response.file_search_call.in_progress
Yes

ResponseFileSearchCallSearchingEvent

Emitido quando uma busca de arquivo está atualmente em andamento.

Name Tipo Description Required Default
item_id cadeia O ID do item de saída que a busca de arquivo chama é iniciado.
Yes
output_index inteiro O índice do item de saída que a chamada de busca do arquivo está buscando.
Yes
tipo enumeração O tipo de evento. Sempre response.file_search_call.searching.

Valores possíveis: response.file_search_call.searching
Yes

ResponseFunctionCallArgumentsDeltaEvent

Emitido quando há um delta parcial de argumentos de chamada de função.

Name Tipo Description Required Default
delta cadeia Os argumentos de chamada de função delta que são adicionados.
Yes
item_id cadeia O ID do item de saída ao qual o delta dos argumentos de chamada de função é somado.
Yes
output_index inteiro O índice do item de saída ao qual o delta dos argumentos de chamada de função é somado.
Yes
tipo enumeração O tipo de evento. Sempre response.function_call_arguments.delta.

Valores possíveis: response.function_call_arguments.delta
Yes

ResponseFunctionCallArgumentsDoneEvent

Emitido quando os argumentos de chamada de função são finalizados.

Name Tipo Description Required Default
arguments cadeia Os argumentos de chamada de função. Yes
item_id cadeia A identificação do item. Yes
output_index inteiro O índice do item de saída. Yes
tipo enumeração
Valores possíveis: response.function_call_arguments.done
Yes

ResponseInProgressEvent

Emitido quando a resposta está em andamento.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo de evento. Sempre response.in_progress.

Valores possíveis: response.in_progress
Yes

ResponseIncompleteEvent

Um evento que é emitido quando uma resposta termina como incompleta.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo de evento. Sempre response.incomplete.

Valores possíveis: response.incomplete
Yes

responseItemList

Uma lista de itens de resposta.

Name Tipo Description Required Default
dados matriz Uma lista de itens usados para gerar essa resposta. Yes
first_id cadeia O ID do primeiro item da lista. Yes
has_more boolean Se há mais itens disponíveis. Yes
last_id cadeia O ID do último item da lista. Yes
objeto enumeração O tipo de objeto retornado deve ser list.
Valores possíveis: list
Yes

ResponseModalities

Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere tanto respostas de texto quanto de áudio, você pode usar:

["text", "audio"]

Nenhuma propriedade definida para esse componente.

ResponseModalitiesTextOnly

Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

Essa API em breve suportará outras modalidades de saída, incluindo áudio e imagens.

Nenhuma propriedade definida para esse componente.

ResponseOutputItemAddedEvent

Emitido quando um novo item de saída é adicionado.

Name Tipo Description Required Default
item OutputItem Yes
output_index inteiro O índice do item de saída que foi adicionado.
Yes
tipo enumeração O tipo de evento. Sempre response.output_item.added.

Valores possíveis: response.output_item.added
Yes

ResponseOutputItemDoneEvent

Emitido quando um item de saída é marcado como concluído.

Name Tipo Description Required Default
item OutputItem Yes
output_index inteiro O índice do item de saída marcado como concluído.
Yes
tipo enumeração O tipo de evento. Sempre response.output_item.done.

Valores possíveis: response.output_item.done
Yes

ResponseProperties

Name Tipo Description Required Default
instructions cadeia Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a próxima resposta. Isso facilita a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa.
No
previous_response_id cadeia O ID único da resposta anterior ao modelo. Use isso para criar conversas com múltiplas turnos. No
reasoning Reasoning Opções de configuração para modelos de raciocínio.
No
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Learn more:
- entradas e saídas de texto
- Saídas Estruturadas
No
└─ format TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

Configurar { "type": "json_schema" } habilita Structured Outputs, que garante que o modelo corresponda ao seu esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferido para modelos que o suportam.
No
tool_choice OpçõesDeEscolhaFerramenta ou TiposDeEscolha de Ferramenta ou FunçãoDeEscolhaFerramenta Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Veja o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
No
tools matriz Uma variedade de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas integradas
No
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: Se o contexto dessa resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, deixando de lado itens de entrada no meio da conversa.
- disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto para um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
No

ResponseRefusalDeltaEvent

Emitido quando há um texto de recusa parcial.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo à qual o texto de recusa é adicionado.
Yes
delta cadeia O texto de recusa que é adicionado.
Yes
item_id cadeia O ID do item de saída ao qual o texto de recusa é adicionado.
Yes
output_index inteiro O índice do item de saída ao qual o texto de recusa é adicionado.
Yes
tipo enumeração O tipo de evento. Sempre response.refusal.delta.

Valores possíveis: response.refusal.delta
Yes

ResponseRefusalDoneEvent

Emitido quando o texto de recusa é finalizado.

Name Tipo Description Required Default
content_index inteiro O índice do conteúdo da parte onde o texto da recusa está finalizado.
Yes
item_id cadeia O ID do item de saída em que o texto de recusa está finalizado.
Yes
output_index inteiro O índice do item de saída onde o texto de recusa está finalizado.
Yes
refusal cadeia O texto de recusa que está finalizado.
Yes
tipo enumeração O tipo de evento. Sempre response.refusal.done.

Valores possíveis: response.refusal.done
Yes

responseStreamEvent

Name Tipo Description Required Default
anotação Annotation Yes
annotation_index inteiro O índice da anotação que foi adicionada.
Yes
arguments cadeia Os argumentos de chamada de função. Yes
codificar cadeia O código de erro.
Yes
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para rodar código.
Yes
content_index inteiro O índice da parte do conteúdo onde o texto está finalizado.
Yes
delta cadeia O texto que foi adicionado.
Yes
item OutputItem O item de saída que foi marcado como concluído.
Yes
item_id cadeia O ID do item de saída em que o conteúdo do texto foi finalizado.
Yes
mensagem cadeia A mensagem de erro.
Yes
output_index inteiro O índice do item de saída onde o conteúdo do texto foi finalizado.
Yes
param cadeia O parâmetro de erro.
Yes
part OutputContent A parte do conteúdo que está feita.
Yes
refusal cadeia O texto de recusa que está finalizado.
Yes
response response A resposta que estava incompleta.
Yes
enviar SMS cadeia O conteúdo do texto que é finalizado.
Yes
tipo enumeração O tipo de evento. Sempre response.output_text.done.

Valores possíveis: response.output_text.done
Yes

ResponseTextAnnotationDeltaEvent

Emitido quando uma anotação de texto é adicionada.

Name Tipo Description Required Default
anotação Annotation Yes
annotation_index inteiro O índice da anotação que foi adicionada.
Yes
content_index inteiro O índice da parte de conteúdo à qual a anotação de texto foi adicionada.
Yes
item_id cadeia O ID do item de saída ao qual a anotação de texto foi adicionada.
Yes
output_index inteiro O índice do item de saída ao qual a anotação de texto foi adicionada.
Yes
tipo enumeração O tipo de evento. Sempre response.output_text.annotation.added.

Valores possíveis: response.output_text.annotation.added
Yes

ResponseTextDeltaEvent

Emitido quando há um delta adicional de texto.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo à qual o delta de texto foi adicionado.
Yes
delta cadeia O texto que foi adicionado.
Yes
item_id cadeia O ID do item de saída ao qual o delta de texto foi adicionado.
Yes
output_index inteiro O índice do item de saída ao qual o delta de texto foi adicionado.
Yes
tipo enumeração O tipo de evento. Sempre response.output_text.delta.

Valores possíveis: response.output_text.delta
Yes

ResponseTextDoneEvent

Emitido quando o conteúdo do texto é finalizado.

Name Tipo Description Required Default
content_index inteiro O índice da parte do conteúdo onde o texto está finalizado.
Yes
item_id cadeia O ID do item de saída em que o conteúdo do texto foi finalizado.
Yes
output_index inteiro O índice do item de saída onde o conteúdo do texto foi finalizado.
Yes
enviar SMS cadeia O conteúdo do texto que é finalizado.
Yes
tipo enumeração O tipo de evento. Sempre response.output_text.done.

Valores possíveis: response.output_text.done
Yes

ResponseUsage

Representa detalhes de uso de tokens, incluindo tokens de entrada, tokens de saída, uma divisão dos tokens de saída e o total de tokens utilizados.

Name Tipo Description Required Default
input_tokens inteiro O número de tokens de entrada. Yes
output_tokens inteiro O número de tokens de saída. Yes
output_tokens_details objeto Uma análise detalhada dos tokens de saída. Yes
└─ reasoning_tokens inteiro O número de tokens de raciocínio. No
total_tokens inteiro O número total de tokens usados. Yes

Screenshot

Uma ação de captura de tela.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de captura de tela, essa propriedade está sempre definida como screenshot.

Valores possíveis: screenshot
Yes

Scroll

Uma ação de rolo.

Name Tipo Description Required Default
scroll_x inteiro A distância do rolo horizontal.
Yes
scroll_y inteiro A distância de rolagem vertical.
Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de rolamento, essa propriedade é sempre definida como scroll.

Valores possíveis: scroll
Yes
x inteiro A coordenada x onde o rolo ocorreu.
Yes
y inteiro A coordenada y onde o scroll ocorreu.
Yes

StopConfiguration

Até 4 sequências em que a API para de gerar mais tokens. O texto retornado não conterá a sequência de paradas.

Esse componente pode ser um dos seguintes:

TextResponseFormatConfiguration

Um objeto que especifica o formato que o modelo deve gerar.

Configurar { "type": "json_schema" } habilita Saídas Estruturadas, que garantem que o modelo corresponda ao seu esquema JSON fornecido.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para gpt-4o e modelos mais recentes:

Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferido para modelos que o suportam.

Esse componente pode ser um dos seguintes:

TextResponseFormatJsonSchema

Formato de resposta do esquema JSON. Usado para gerar respostas JSON estruturadas. Saiba mais sobre Saídas Estruturadas.

Name Tipo Description Required Default
description cadeia Uma descrição do que serve o formato de resposta, usada pelo modelo para determinar como responder no formato.
No
name cadeia O nome do formato da resposta. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhaduras e traços, com comprimento máximo de 64.
No
esquema ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de Esquema JSON. Yes
strict boolean Se deve ativar a adesão estrita ao esquema ao gerar a saída.
Se definido como verdadeiro, o modelo sempre seguirá exatamente o esquema definido no schema campo. Apenas um subconjunto do Esquema JSON é suportado quando strict é true.
No False
tipo enumeração O tipo de formato de resposta que está sendo definido. Sempre json_schema.
Valores possíveis: json_schema
Yes

Tool

Esse componente pode ser um dos seguintes:

ToolChoiceFunction

Use essa opção para forçar o modelo a chamar uma função específica.

Name Tipo Description Required Default
name cadeia O nome da função a ser chamada. Yes
tipo enumeração Para chamadas de função, o tipo é sempre function.
Valores possíveis: function
Yes

ToolChoiceOptions

Controle qual (se houver) ferramenta é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.

Property Value
Description Controle qual (se houver) ferramenta é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.
Type cadeia
Values none
auto
required

ToolChoiceTypes

Indica que o modelo deve usar uma ferramenta embutida para gerar uma resposta.

Name Tipo Description Required Default
tipo enumeração O tipo de ferramenta hospedada que o modelo deve usar. Os valores permitidos são:
- file_search
- computer_use_preview

Valores possíveis: file_search, computer_use_preview
Yes

Tipo

Uma ação para digitar texto.

Name Tipo Description Required Default
enviar SMS cadeia O texto para digitar.
Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de tipo, essa propriedade é sempre definida como type.

Valores possíveis: type
Yes

UpdateVectorStoreFileAttributesRequest

Name Tipo Description Required Default
attributes VectorStoreFileAttributes Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard. As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres, booleanos ou números.
Yes

UrlCitation

Uma citação para um recurso web usado para gerar uma resposta de modelo.

Name Tipo Description Required Default
end_index inteiro O índice do último caractere da citação da URL na mensagem.
Yes
start_index inteiro O índice do primeiro caractere da citação da URL na mensagem.
Yes
title cadeia O título do recurso web.
Yes
tipo enumeração O tipo da citação da URL. Sempre url_citation.

Valores possíveis: url_citation
Yes
url cadeia A URL do recurso web.
Yes

VectorStoreFileAttributes

Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard. As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres, booleanos ou números.

Nenhuma propriedade definida para esse componente.

VectorStoreFileContentResponse

Representa o conteúdo analisado de um arquivo de armazenamento vetorial.

Name Tipo Description Required Default
dados matriz Conteúdo analisado do arquivo. Yes
has_more boolean Indica se há mais páginas de conteúdo para buscar. Yes
next_page cadeia O token para a próxima página, se houver. Yes
objeto enumeração O tipo de objeto, que é sempre vector_store.file_content.page
Valores possíveis: vector_store.file_content.page
Yes

VectorStoreSearchRequest

Name Tipo Description Required Default
filters Filtro de Comparação ou Filtro Composto Um filtro para aplicar baseado nos atributos do arquivo. No
max_num_results inteiro O número máximo de resultados a serem detidos. Esse número deve estar entre 1 e 50 inclusive. No 10
consulta String ou array Uma string de consulta para uma busca Yes
ranking_options objeto Opções de classificação para busca. No
└─ ranker enumeração Valores possíveis: auto, default-2024-11-15 No
└─ score_threshold number No 0
rewrite_query boolean Se reescrever a consulta em linguagem natural para busca vetorial. No False

VectorStoreSearchResultContentObject

Name Tipo Description Required Default
enviar SMS cadeia O conteúdo do texto retornou da busca. Yes
tipo enumeração O tipo de conteúdo.
Valores possíveis: text
Yes

VectorStoreSearchResultItem

Name Tipo Description Required Default
attributes VectorStoreFileAttributes Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard. As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres, booleanos ou números.
Yes
conteúdo matriz Pedaços de conteúdo do arquivo. Yes
file_id cadeia O ID do arquivo de armazenamento vetorial. Yes
filename cadeia O nome do arquivo de armazenamento vetorial. Yes
pontuação number A pontuação de similaridade para o resultado. Yes

VectorStoreSearchResultsPage

Name Tipo Description Required Default
dados matriz A lista de itens de resultados de busca. Yes
has_more boolean Indica se há mais resultados para buscar. Yes
next_page cadeia O token para a próxima página, se houver. Yes
objeto enumeração O tipo de objeto, que é sempre vector_store.search_results.page
Valores possíveis: vector_store.search_results.page
Yes
search_query matriz Yes

VoiceIdsShared

Nenhuma propriedade definida para esse componente.

Wait

Uma ação de espera.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de espera, essa propriedade é sempre definida como wait.

Valores possíveis: wait
Yes

ReasoningEffort

Restringe o esforço no raciocínio para modelos de raciocínio. Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.

Property Value
Description Restringe o esforço no raciocínio para modelos de raciocínio.
Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
Type cadeia
Default meio
Values low
medium
high

errorEvent

Ocorre quando ocorre um erro. Isso pode acontecer devido a um erro interno do servidor ou a um tempo de espera.

Name Tipo Description Required Default
dados error Yes
evento cadeia Yes

event Enum: ErrorEventEnum

Value Description
erro

doneEvent

Ocorre quando um stream termina.

Name Tipo Description Required Default
dados cadeia Yes
evento cadeia Yes

evento Enum: DoneEventEnum

Value Description
done

data Enum: DoneEventDataEnum

Value Description
[DONE]

Next steps

Aprenda sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos underlying que alimentam Azure OpenAI.