Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Dit artikel geeft details over de inferentie REST API-eindpunten voor Azure OpenAI.
API specs
Het beheren en interageren met Azure OpenAI-modellen en -middelen is verdeeld over drie primaire API-oppervlakken:
- Control plane
- Datavlak - authoring
- Datavlak - inferentie
Elke API-oppervlakte/specificatie bevat een andere set Azure OpenAI-mogelijkheden. Elke API heeft zijn eigen unieke set preview- en stabiele/algemeen beschikbare (GA) API-releases. Preview-releases volgen momenteel meestal een maandelijkse cadens.
Important
Er is nu een nieuwe preview inferensie-API. Lees meer in onze gids voor de API-levenscyclus.
| API | Laatste preview-release | Laatste GA-release | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | De control plane API wordt gebruikt voor operaties zoals het aanmaken van resources, modelimplementatie en andere taken op hoger niveau resource management. Het controlevlak bepaalt ook wat mogelijk is met mogelijkheden zoals Azure Resource Manager, Bicep, Terraform en Azure CLI. |
| Data plane | v1 preview |
v1 |
Spec files | De data plane API beheert inferentie- en auteursoperaties. |
Authentication
Azure OpenAI biedt twee methoden voor authenticatie. Je kunt API Keys of Microsoft Entra ID gebruiken.
API-sleutelauthenticatie: Voor dit type authenticatie moeten alle API-verzoeken de API-sleutel in de
api-keyHTTP-header bevatten. De Quickstart geeft instructies over hoe je met dit type authenticatie oproepen kunt voeren.Microsoft Entra ID authenticatie: Je kunt een API-aanroep authenticeren met een Microsoft Entra-token. Authenticatietokens worden opgenomen in een verzoek als header
Authorization. Het gegeven token moet voorafgegaan worden doorBearer, bijvoorbeeldBearer YOUR_AUTH_TOKEN. Je kunt onze handleiding lezen over authenticatie met Microsoft Entra ID.
REST API-versiebeheer
De service-API's zijn versiegevaagd met behulp van de api-version queryparameter. Alle versies volgen de YYYY-MM-DD datumstructuur. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Datavlak-inferentie
De rest van het artikel behandelt de GA-release van de Azure OpenAI data plane inference specification, 2024-10-21.
Als je op zoek bent naar documentatie over de nieuwste preview API-release, raadpleeg dan de nieuwste preview data plane inference API
Completions
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Maakt een voltooiing aan voor de gegeven prompt, parameters en gekozen model.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Ondersteund Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com. Vervang "aoairesource" door de naam van je Azure OpenAI-resource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Implementatie-ID van het model dat is uitgerold. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Geef hier de Azure OpenAI API-sleutel |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string of array | De prompt(s) om voltooiingen te genereren voor, gecodeerd als een string, array van strings, array tokens of array van token-arrays. Let op dat <|endoftext|> de documentscheider is die het model tijdens de training ziet, dus als er geen prompt wordt gespecificeerd, genereert het model alsof het begint met een nieuw document. |
Yes | |
| best_of | integer | Genereert best_of voltooiingen aan serverzijde en geeft de "beste" terug (degene met de hoogste logkans per token). Resultaten kunnen niet worden gestreamd.Wanneer gebruikt met n, best_of controleert het aantal kandidaat-voltooiingen en n specificeert hoeveel er teruggegeven moeten worden â€" best_of moet groter zijn dan n.Opmerking: Omdat deze parameter veel voltooiingen genereert, kan hij snel je tokenquota verbruiken. Gebruik het zorgvuldig en zorg dat je redelijke instellingen hebt voor max_tokens en stop. |
No | 1 |
| echo | boolean | Echo de prompt naast de voltooiing |
No | False |
| frequency_penalty | number | Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van hun huidige frequentie in de tekst tot nu toe, waardoor de kans dat het model dezelfde regel letterlijk herhaalt afneemt. |
No | 0 |
| logit_bias | object | Pas de kans aan dat bepaalde tokens verschijnen in de voltooiing. Accepteert een JSON-object dat tokens (gespecificeerd door hun token-ID in de GPT-tokenizer) mappt aan een bijbehorende biaswaarde van -100 tot 100. Wiskundig wordt de bias toegevoegd aan de logits die het model vóór de steekproef genereert. Het exacte effect zal per model verschillen, maar waarden tussen -1 en 1 zouden de kans op selectie moeten verkleinen of vergroten; Waarden zoals -100 of 100 zouden moeten leiden tot een ban of exclusieve selectie van de betreffende token. Als voorbeeld kun je passen {"50256": -100} om te voorkomen dat het <|endoftext|> token wordt gegenereerd. |
No | None |
| logprobs | integer | Neem de logkansen op op de logprobs meest waarschijnlijke outputtokens, evenals de gekozen tokens. Als logprobs bijvoorbeeld 5 is, zal de API een lijst teruggeven van de vijf meest waarschijnlijke tokens. De API zal altijd de logprob van het gesamplede token teruggeven, dus er kunnen tot elementen logprobs+1 in het antwoord zitten.De maximale waarde voor logprobs is 5. |
No | None |
| max_tokens | integer | Het maximale aantal tokens dat tijdens de voltooiing kan worden gegenereerd. Het aantal tokens van je prompt plus max_tokens mag de contextlengte van het model niet overschrijden. |
No | 16 |
| n | integer | Hoeveel voltooiingen je moet genereren voor elke prompt. Opmerking: Omdat deze parameter veel voltooiingen genereert, kan hij snel je tokenquota verbruiken. Gebruik het zorgvuldig en zorg dat je redelijke instellingen hebt voor max_tokens en stop. |
No | 1 |
| presence_penalty | number | Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van of ze tot nu toe in de tekst voorkomen, waardoor de kans op het model om over nieuwe onderwerpen te praten toeneemt. |
No | 0 |
| seed | integer | Indien gespecificeerd, zal ons systeem zijn best doen om deterministisch te samplen, zodat herhaalde verzoeken met dezelfde seed parameters hetzelfde resultaat zouden moeten opleveren.Determinisme is niet gegarandeerd, en je moet de system_fingerprint responsparameter raadplegen om veranderingen in de backend te monitoren. |
No | |
| stop | string of array | Tot vier sequenties waarbij de API stopt met het genereren van verdere tokens. De teruggestuurde tekst bevat de stopvolgorde niet. |
No | |
| stream | boolean | Of ik gedeeltelijke voortgang moet terugstreamen. Indien ingesteld, worden tokens verzonden als data-only servergestuurde events zodra ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
No | False |
| suffix | string | Het achtervoegsel dat komt na het voltooien van de ingevoegde tekst. Deze parameter wordt alleen ondersteund voor gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Welke bemonsteringstemperatuur moet je gebruiken, tussen 0 en 2. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken. We raden over het algemeen aan om dit te veranderen, of top_p niet beide. |
No | 1 |
| top_p | number | Een alternatief voor bemonstering met temperatuur, genaamd kernbemonstering, waarbij het model de resultaten van de tokens met top_p waarschijnlijkheidsmassa beschouwt. Dus 0,1 betekent dat alleen de tokens die de top 10% kansmassa vormen worden meegenomen. We raden over het algemeen aan om dit te veranderen, of temperature niet beide. |
No | 1 |
| user | string | Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse | Vertegenwoordigt een voltooiingsantwoord van de API. Let op: zowel de gestreamde als niet-gestreamde responsobjecten hebben dezelfde vorm (in tegenstelling tot het chat-eindpunt). |
Statuscode: standaard
Beschrijving: Dienst niet beschikbaar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Maakt een voltooiing aan voor de gegeven prompt, parameters en gekozen model.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Reacties: Statuscode: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Verkrijg een vectorrepresentatie van een gegeven invoer die gemakkelijk kan worden gebruikt door machine learning-modellen en algoritmen.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Ondersteund Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com. Vervang "aoairesource" door de naam van je Azure OpenAI-resource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Geef hier de Azure OpenAI API-sleutel |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string of array | Voer tekst in om in te sluiten, gecodeerd als een string of array van tokens. Om meerdere invoer in één verzoek in te sluiten, geef je een array van strings of een array van tokenarrays door. De invoer mag het maximale aantal invoertokens voor het model niet overschrijden (8.192 tokens voor text-embedding-ada-002), mag geen lege string zijn, en elke array moet 2.048 dimensies of minder zijn. |
Yes | |
| user | string | Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik. | No | |
| input_type | string | Invoertype van embeddingzoekopdracht om te gebruiken | No | |
| encoding_format | string | Het formaat om de embeddings terug te geven. Kan het een of andere floatbase64zijn. Standaard is .float |
No | |
| dimensions | integer | Het aantal dimensies dat de resulterende output-embeddings moeten hebben. Alleen ondersteund in text-embedding-3 en latere modellen. |
No |
Responses
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| object | string | Yes | ||
| model | string | Yes | ||
| data | array | Yes | ||
| usage | object | Yes |
Eigenschappen voor gebruik
prompt_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| prompt_tokens | integer |
total_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| total_tokens | integer |
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Geef de embeddings terug voor een gegeven prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Reacties: Statuscode: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chat completions
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Maakt een voltooiing aan voor het chatbericht
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Ondersteund Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com. Vervang "aoairesource" door de naam van je Azure OpenAI-resource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Implementatie-ID van het model dat is uitgerold. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Geef hier de Azure OpenAI API-sleutel |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Welke bemonsteringstemperatuur moet je gebruiken, tussen 0 en 2. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken. We raden over het algemeen aan om dit te veranderen, of top_p niet beide. |
No | 1 |
| top_p | number | Een alternatief voor bemonstering met temperatuur, genaamd kernbemonstering, waarbij het model de resultaten van de tokens met top_p waarschijnlijkheidsmassa beschouwt. Dus 0,1 betekent dat alleen de tokens die de top 10% kansmassa vormen worden meegenomen. We raden over het algemeen aan om dit te veranderen, of temperature niet beide. |
No | 1 |
| stream | boolean | Als deze is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als data-only servergestuurde events zodra ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
No | False |
| stop | string of array | Tot vier sequenties waarbij de API stopt met het genereren van verdere tokens. |
No | |
| max_tokens | integer | Het maximale aantal tokens dat kan worden gegenereerd tijdens de chatvoltooiing. De totale lengte van invoertokens en gegenereerde tokens wordt beperkt door de contextlengte van het model. |
No | |
| max_completion_tokens | integer | Een bovengrens voor het aantal tokens dat kan worden gegenereerd voor een voltooiing, inclusief zichtbare uitvoertokens en redeneringstokens. | No | |
| presence_penalty | number | Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van of ze tot nu toe in de tekst voorkomen, waardoor de kans op het model om over nieuwe onderwerpen te praten toeneemt. |
No | 0 |
| frequency_penalty | number | Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van hun huidige frequentie in de tekst tot nu toe, waardoor de kans dat het model dezelfde regel letterlijk herhaalt afneemt. |
No | 0 |
| logit_bias | object | Pas de kans aan dat bepaalde tokens verschijnen in de voltooiing. Accepteert een JSON-object dat tokens (gespecificeerd door hun token-ID in de tokenizer) koppelt aan een bijbehorende biaswaarde van -100 tot 100. Wiskundig wordt de bias toegevoegd aan de logits die het model vóór de steekproef genereert. Het exacte effect zal per model verschillen, maar waarden tussen -1 en 1 zouden de kans op selectie moeten verkleinen of vergroten; Waarden zoals -100 of 100 zouden moeten leiden tot een ban of exclusieve selectie van de betreffende token. |
No | None |
| user | string | Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik. |
No | |
| messages | array | Een lijst met berichten die tot nu toe het gesprek vormen. | Yes | |
| data_sources | array | De configuratie-entries voor Azure OpenAI chatextensies die ze gebruiken. Deze extra specificatie is alleen compatibel met Azure OpenAI. |
No | |
| logprobs | boolean | Of logkansen van de outputtokens worden teruggegeven of niet. Als waar is, geeft de log-kansen van elk outputtoken dat in de van messagewordt content teruggegeven, terug. |
No | False |
| top_logprobs | integer | Een geheel getal tussen 0 en 20 dat het aantal meest waarschijnlijke tokens aangeeft dat op elke tokenpositie moet terugkeren, elk met een bijbehorende logkans.
logprobs moet worden ingesteld op true als deze parameter wordt gebruikt. |
No | |
| n | integer | Hoeveel keuzes voor het voltooien van de chat moet worden gegenereerd voor elk invoerbericht. Let op: je wordt belast op basis van het aantal gegenereerde tokens in alle keuzes. Houd de 1 kosten n zo laag mogelijk bij elkaar. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Of parallelle functieaanroep tijdens het gebruik van het gereedschap moet worden ingeschakeld. | No | True |
| response_format | ResponseFormatText of ResponseFormatJsonObject of ResponseFormatJsonSchema | Een object dat het formaat specificeert dat het model moet uitvoeren. Compatibel met GPT-4o, GPT-4o mini, GPT-4 Turbo en alle GPT-3.5 Turbo modellen die nieuwer zijn dan gpt-3.5-turbo-1106.Instellen op { "type": "json_schema", "json_schema": {...} } schakelt gestructureerde uitvoeren in, waarmee wordt gegarandeerd dat het model overeenkomt met je geleverde JSON-schema.Instellen op { "type": "json_object" } schakelt de JSON-modus in, die garandeert dat het bericht dat het model genereert geldig JSON is.Belangrijk: bij het gebruik van JSON-modus moet je het model ook instrueren om zelf JSON te produceren via een systeem- of gebruikersbericht. Zonder dit kan het model een eindeloze stroom witruimte genereren totdat de generatie de tokenlimiet bereikt, wat resulteert in een langlopend en schijnbaar "vastzittend" verzoek. Let ook op dat de inhoud van het bericht gedeeltelijk kan worden afgesneden als finish_reason="length", wat aangeeft dat de generatie is overschreden max_tokens of het gesprek de maximale contextlengte heeft overschreden. |
No | |
| seed | integer | Deze functie bevindt zich in bèta. Indien gespecificeerd, zal ons systeem zijn best doen om deterministisch te samplen, zodat herhaalde verzoeken met dezelfde seed parameters hetzelfde resultaat zouden moeten opleveren.Determinisme is niet gegarandeerd, en je moet de system_fingerprint responsparameter raadplegen om veranderingen in de backend te monitoren. |
No | |
| tools | array | Een lijst van gereedschappen die het model kan aanroepen. Momenteel worden alleen functies als hulpmiddel ondersteund. Gebruik dit om een lijst te geven van functies waarvoor het model JSON-invoer kan genereren. Maximaal 128 functies worden ondersteund. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Bepaalt welk (indien aanwezig) gereedschap door het model wordt aangeroepen.
none betekent dat het model geen tool aanroept maar in plaats daarvan een bericht genereert.
auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een of meer tools.
required betekent dat het model één of meer tools moet aanroepen. Het specificeren van een bepaald hulpmiddel via {"type": "function", "function": {"name": "my_function"}} dwingt het model om dat hulpmiddel aan te roepen.
none is de standaard wanneer er geen gereedschap aanwezig is.
auto is de standaard als er tools aanwezig zijn. |
No | |
| function_call | string of chatCompletionFunctionCallOption | Vervallen ten gunste van tool_choice.Bepaalt welke (indien aanwezig) functie door het model wordt aangeroepen. none betekent dat het model geen functie aanroept maar in plaats daarvan een bericht genereert.auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een functie.Het specificeren van een bepaalde functie via {"name": "my_function"} dwingt het model om die functie aan te roepen.none is de standaard wanneer er geen functies aanwezig zijn.
auto is de standaard als functies aanwezig zijn. |
No | |
| functions | array | Vervallen ten gunste van tools.Een lijst van functies waarvoor het model JSON-invoer kan genereren. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createChatCompletionResponse of createChatCompletionStreamResponse |
Statuscode: standaard
Beschrijving: Dienst niet beschikbaar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Maakt een voltooiing aan voor de gegeven prompt, parameters en gekozen model.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Reacties: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Maakt een voltooiing op basis van Azure Search-gegevens en systeem-toegewezen beheerde identiteit.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Reacties: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Maakt een voltooiing op basis van Azure Search vectorgegevens, een eerdere assistent-melding en door de gebruiker toegewezen beheerde identiteit.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Reacties: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Maakt een completion aan voor de meegeleverde Azure Cosmos DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Reacties: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcripties - Maak
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Transcribeert audio naar de invoertaal.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Ondersteund Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com. Vervang "aoairesource" door de naam van je Azure OpenAI-resource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Deployment ID van het spraak-naar-tekstmodel. Voor informatie over ondersteunde modellen, zie [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Geef hier de Azure OpenAI API-sleutel |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Het audiobestand object dat getranscribeerd moet worden. | Yes | |
| prompt | string | Een optionele tekst om de stijl van het model te sturen of een eerder audiosegment voort te zetten. De prompt moet overeenkomen met de audiotaal. | No | |
| response_format | audioResponseFormat | Definieert het formaat van de uitvoer. | No | |
| temperature | number | De bemonsteringstemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken. Als het op 0 wordt gezet, gebruikt het model logaritmische waarschijnlijkheid om de temperatuur automatisch te verhogen totdat bepaalde drempels zijn bereikt. | No | 0 |
| language | string | De taal van de invoeraudio. Het leveren van de invoertaal in ISO-639-1-formaat zal de nauwkeurigheid en latentie verbeteren. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse of audioVerboseResponse | |
| text/plain | string | Getranscribeerde tekst in het uitvoerformaat (wanneer response_format een tekstformaat was, vtt of srt). |
Examples
Example
Krijgt getranscribeerde tekst en bijbehorende metadata van de geleverde gesproken audiogegevens.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Reacties: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Krijgt getranscribeerde tekst en bijbehorende metadata van de geleverde gesproken audiogegevens.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Reacties: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Vertalingen - Creatie
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Transcribeert en vertaalt invoeraudio naar Engelse tekst.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Ondersteund Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com. Vervang "aoairesource" door de naam van je Azure OpenAI-resource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Implementatie-ID van het whispermodel dat werd uitgerold. Voor informatie over ondersteunde modellen, zie [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Geef hier de Azure OpenAI API-sleutel |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Het audiobestand om te vertalen. | Yes | |
| prompt | string | Een optionele tekst om de stijl van het model te sturen of een eerder audiosegment voort te zetten. De prompt moet in het Engels zijn. | No | |
| response_format | audioResponseFormat | Definieert het formaat van de uitvoer. | No | |
| temperature | number | De bemonsteringstemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken. Als het op 0 wordt gezet, gebruikt het model logaritmische waarschijnlijkheid om de temperatuur automatisch te verhogen totdat bepaalde drempels zijn bereikt. | No | 0 |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse of audioVerboseResponse | |
| text/plain | string | Getranscribeerde tekst in het uitvoerformaat (wanneer response_format een tekstformaat was, vtt of srt). |
Examples
Example
Krijgt Engelstalige getranscribeerde tekst en bijbehorende metadata van de aangeleverde gesproken audiogegevens.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Reacties: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Krijgt Engelstalige getranscribeerde tekst en bijbehorende metadata van de aangeleverde gesproken audiogegevens.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Reacties: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Image generation
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Genereert een batch afbeeldingen uit een tekstbijschrift bij een gegeven dall-e modelimplementatie
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Ondersteund Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com. Vervang "aoairesource" door de naam van je Azure OpenAI-resource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Deployment ID van het dall-e model dat werd uitgerold. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Geef hier de Azure OpenAI API-sleutel |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | Een tekstbeschrijving van de gewenste afbeelding(en). De maximale lengte is 4.000 tekens. | Yes | |
| n | integer | Het aantal te genereren afbeeldingen. | No | 1 |
| size | imageSize | De grootte van de gegenereerde afbeeldingen. | No | 1024x1024 |
| response_format | imagesResponseFormat | Het formaat waarin de gegenereerde afbeeldingen worden teruggegeven. | No | url |
| user | string | Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik. | No | |
| quality | imageQuality | De kwaliteit van de afbeelding die wordt gegenereerd. | No | standard |
| style | imageStyle | De stijl van de gegenereerde afbeeldingen. | No | vivid |
Responses
Statuscode: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Statuscode: standaard
Beschrijving: Er is een fout opgetreden.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Maakt afbeeldingen aan die een prompt krijgen.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Reacties: Statuscode: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | innerError | Interne fout met extra details. | No |
innerError
Interne fout met extra details.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Foutcodes voor het binnenste foutobject. | No | |
| content_filter_results | contentFilterPromptResults | Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over jailbreak-inhoud en vloeken, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan. | No |
innerErrorCode
Foutcodes voor het binnenste foutobject.
Beschrijving: Foutcodes voor het binnenste foutobject.
Type: string
Default:
Naam: InnerErrorCode
Enum Values:
| Value | Description |
|---|---|
| ResponsibleAIPolicyViolation | De prompt overtrad een van meer contentfilterregels. |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | dalleInnerError | Interne fout met extra details. | No |
dalleInnerError
Interne fout met extra details.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Foutcodes voor het binnenste foutobject. | No | |
| content_filter_results | dalleFilterResults | Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over jailbreak-inhoud en vloeken, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan. | No | |
| revised_prompt | string | De prompt die werd gebruikt om de afbeelding te genereren, als er een revisie van de prompt was. | No |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| detected | boolean | No |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No |
Eigenschappen voor citatie
URL
| Name | Type | Description | Default |
|---|---|---|---|
| URL | string |
license
| Name | Type | Description | Default |
|---|---|---|---|
| license | string |
contentFilterResultsBase
Informatie over de contentfilterresultaten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No |
contentFilterPromptResults
Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over jailbreak-inhoud en vloeken, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| jailbreak | contentFilterDetectedResult | No |
contentFilterChoiceResults
Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over tekst en vloekwoorden van derden, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No |
promptFilterResult
Contentfiltering resulteert voor één enkele prompt in het verzoek.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_index | integer | No | ||
| content_filter_results | contentFilterPromptResults | Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over jailbreak-inhoud en vloeken, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan. | No |
promptFilterResults
Contentfiltering resulteert voor nul of meer prompts in het verzoek. Bij een streamingverzoek kunnen resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende volgorde binnenkomen.
Geen eigenschappen gedefinieerd voor deze component.
dalleContentFilterResults
Informatie over de contentfilterresultaten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No |
dalleFilterResults
Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over jailbreak-inhoud en vloeken, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Welke bemonsteringstemperatuur moet je gebruiken, tussen 0 en 2. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken. We raden over het algemeen aan om dit te veranderen, of top_p niet beide. |
No | 1 |
| top_p | number | Een alternatief voor bemonstering met temperatuur, genaamd kernbemonstering, waarbij het model de resultaten van de tokens met top_p waarschijnlijkheidsmassa beschouwt. Dus 0,1 betekent dat alleen de tokens die de top 10% kansmassa vormen worden meegenomen. We raden over het algemeen aan om dit te veranderen, of temperature niet beide. |
No | 1 |
| stream | boolean | Als deze is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als data-only servergestuurde events zodra ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
No | False |
| stop | string of array | Tot vier sequenties waarbij de API stopt met het genereren van verdere tokens. | No | |
| max_tokens | integer | Het maximale aantal tokens dat was toegestaan voor het gegenereerde antwoord. Standaard is het aantal tokens dat het model kan teruggeven (4096 - prompttokens). Deze waarde is nu verouderd ten gunste van max_completion_tokens, en is niet compatibel met O1-serie modellen. |
No | 4096 |
| max_completion_tokens | integer | Een bovengrens voor het aantal tokens dat kan worden gegenereerd voor een voltooiing, inclusief zichtbare uitvoertokens en redeneringstokens. | No | |
| presence_penalty | number | Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van of ze tot nu toe in de tekst voorkomen, waardoor de kans op het model om over nieuwe onderwerpen te praten toeneemt. | No | 0 |
| frequency_penalty | number | Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van hun huidige frequentie in de tekst tot nu toe, waardoor de kans dat het model dezelfde regel letterlijk herhaalt afneemt. | No | 0 |
| logit_bias | object | Pas de kans aan dat bepaalde tokens verschijnen in de voltooiing. Accepteert een json-object dat tokens (gespecificeerd door hun token-ID in de tokenizer) mappt aan een bijbehorende biaswaarde van -100 tot 100. Wiskundig wordt de bias toegevoegd aan de logits die het model vóór de steekproef genereert. Het exacte effect zal per model verschillen, maar waarden tussen -1 en 1 zouden de kans op selectie moeten verkleinen of vergroten; Waarden zoals -100 of 100 zouden moeten leiden tot een ban of exclusieve selectie van de betreffende token. | No | |
| user | string | Een unieke identificatie die je eindgebruiker vertegenwoordigt, die Azure OpenAI kan helpen om misbruik te monitoren en te detecteren. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string of array | De prompt(s) om voltooiingen te genereren voor, gecodeerd als een string, array van strings, array tokens of array van token-arrays. Let op dat <|endoftext|> de documentscheider is die het model tijdens de training ziet, dus als er geen prompt wordt gespecificeerd, genereert het model alsof het begint met een nieuw document. |
Yes | |
| best_of | integer | Genereert best_of voltooiingen aan serverzijde en geeft de "beste" terug (degene met de hoogste logkans per token). Resultaten kunnen niet worden gestreamd.Wanneer gebruikt met n, best_of controleert het aantal kandidaat-voltooiingen en n specificeert hoeveel er teruggegeven moeten worden â€" best_of moet groter zijn dan n.Opmerking: Omdat deze parameter veel voltooiingen genereert, kan hij snel je tokenquota verbruiken. Gebruik het zorgvuldig en zorg dat je redelijke instellingen hebt voor max_tokens en stop. |
No | 1 |
| echo | boolean | Echo de prompt naast de voltooiing |
No | False |
| frequency_penalty | number | Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van hun huidige frequentie in de tekst tot nu toe, waardoor de kans dat het model dezelfde regel letterlijk herhaalt afneemt. |
No | 0 |
| logit_bias | object | Pas de kans aan dat bepaalde tokens verschijnen in de voltooiing. Accepteert een JSON-object dat tokens (gespecificeerd door hun token-ID in de GPT-tokenizer) mappt aan een bijbehorende biaswaarde van -100 tot 100. Wiskundig wordt de bias toegevoegd aan de logits die het model vóór de steekproef genereert. Het exacte effect zal per model verschillen, maar waarden tussen -1 en 1 zouden de kans op selectie moeten verkleinen of vergroten; Waarden zoals -100 of 100 zouden moeten leiden tot een ban of exclusieve selectie van de betreffende token. Als voorbeeld kun je passen {"50256": -100} om te voorkomen dat het <|endoftext|> token wordt gegenereerd. |
No | None |
| logprobs | integer | Neem de logkansen op op de logprobs meest waarschijnlijke outputtokens, evenals de gekozen tokens. Als logprobs bijvoorbeeld 5 is, zal de API een lijst teruggeven van de vijf meest waarschijnlijke tokens. De API zal altijd de logprob van het gesamplede token teruggeven, dus er kunnen tot elementen logprobs+1 in het antwoord zitten.De maximale waarde voor logprobs is 5. |
No | None |
| max_tokens | integer | Het maximale aantal tokens dat tijdens de voltooiing kan worden gegenereerd. Het aantal tokens van je prompt plus max_tokens mag de contextlengte van het model niet overschrijden. |
No | 16 |
| n | integer | Hoeveel voltooiingen je moet genereren voor elke prompt. Opmerking: Omdat deze parameter veel voltooiingen genereert, kan hij snel je tokenquota verbruiken. Gebruik het zorgvuldig en zorg dat je redelijke instellingen hebt voor max_tokens en stop. |
No | 1 |
| presence_penalty | number | Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van of ze tot nu toe in de tekst voorkomen, waardoor de kans op het model om over nieuwe onderwerpen te praten toeneemt. |
No | 0 |
| seed | integer | Indien gespecificeerd, zal ons systeem zijn best doen om deterministisch te samplen, zodat herhaalde verzoeken met dezelfde seed parameters hetzelfde resultaat zouden moeten opleveren.Determinisme is niet gegarandeerd, en je moet de system_fingerprint responsparameter raadplegen om veranderingen in de backend te monitoren. |
No | |
| stop | string of array | Tot vier sequenties waarbij de API stopt met het genereren van verdere tokens. De teruggestuurde tekst bevat de stopvolgorde niet. |
No | |
| stream | boolean | Of ik gedeeltelijke voortgang moet terugstreamen. Indien ingesteld, worden tokens verzonden als data-only servergestuurde events zodra ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
No | False |
| suffix | string | Het achtervoegsel dat komt na het voltooien van de ingevoegde tekst. Deze parameter wordt alleen ondersteund voor gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Welke bemonsteringstemperatuur moet je gebruiken, tussen 0 en 2. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken. We raden over het algemeen aan om dit te veranderen, of top_p niet beide. |
No | 1 |
| top_p | number | Een alternatief voor bemonstering met temperatuur, genaamd kernbemonstering, waarbij het model de resultaten van de tokens met top_p waarschijnlijkheidsmassa beschouwt. Dus 0,1 betekent dat alleen de tokens die de top 10% kansmassa vormen worden meegenomen. We raden over het algemeen aan om dit te veranderen, of temperature niet beide. |
No | 1 |
| user | string | Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik. |
No |
createCompletionResponse
Vertegenwoordigt een voltooiingsantwoord van de API. Let op: zowel de gestreamde als niet-gestreamde responsobjecten hebben dezelfde vorm (in tegenstelling tot het chat-eindpunt).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Een unieke identificatie voor de voltooiing. | Yes | |
| choices | array | De lijst met completion choices die het model genereerde voor de invoerprompt. | Yes | |
| created | integer | De Unix-tijdstempel (in seconden) van het moment waarop de voltooiing werd gemaakt. | Yes | |
| model | string | Het model dat voor de voltooiing wordt gebruikt. | Yes | |
| prompt_filter_results | promptFilterResults | Contentfiltering resulteert voor nul of meer prompts in het verzoek. Bij een streamingverzoek kunnen resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende volgorde binnenkomen. | No | |
| system_fingerprint | string | Deze vingerafdruk vertegenwoordigt de backendconfiguratie waarmee het model draait. Kan samen met de seed request-parameter worden gebruikt om te begrijpen wanneer backend-wijzigingen zijn doorgevoerd die determinisme kunnen beïnvloeden. |
No | |
| object | enum | Het objecttype, dat altijd "text_completion" is. Mogelijke waarden: text_completion |
Yes | |
| usage | completionUsage | Gebruiksstatistieken voor het voltooiingsverzoek. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Welke bemonsteringstemperatuur moet je gebruiken, tussen 0 en 2. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken. We raden over het algemeen aan om dit te veranderen, of top_p niet beide. |
No | 1 |
| top_p | number | Een alternatief voor bemonstering met temperatuur, genaamd kernbemonstering, waarbij het model de resultaten van de tokens met top_p waarschijnlijkheidsmassa beschouwt. Dus 0,1 betekent dat alleen de tokens die de top 10% kansmassa vormen worden meegenomen. We raden over het algemeen aan om dit te veranderen, of temperature niet beide. |
No | 1 |
| stream | boolean | Als deze is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als data-only servergestuurde events zodra ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. |
No | False |
| stop | string of array | Tot vier sequenties waarbij de API stopt met het genereren van verdere tokens. |
No | |
| max_tokens | integer | Het maximale aantal tokens dat kan worden gegenereerd tijdens de chatvoltooiing. De totale lengte van invoertokens en gegenereerde tokens wordt beperkt door de contextlengte van het model. |
No | |
| max_completion_tokens | integer | Een bovengrens voor het aantal tokens dat kan worden gegenereerd voor een voltooiing, inclusief zichtbare uitvoertokens en redeneringstokens. | No | |
| presence_penalty | number | Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van of ze tot nu toe in de tekst voorkomen, waardoor de kans op het model om over nieuwe onderwerpen te praten toeneemt. |
No | 0 |
| frequency_penalty | number | Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van hun huidige frequentie in de tekst tot nu toe, waardoor de kans dat het model dezelfde regel letterlijk herhaalt afneemt. |
No | 0 |
| logit_bias | object | Pas de kans aan dat bepaalde tokens verschijnen in de voltooiing. Accepteert een JSON-object dat tokens (gespecificeerd door hun token-ID in de tokenizer) koppelt aan een bijbehorende biaswaarde van -100 tot 100. Wiskundig wordt de bias toegevoegd aan de logits die het model vóór de steekproef genereert. Het exacte effect zal per model verschillen, maar waarden tussen -1 en 1 zouden de kans op selectie moeten verkleinen of vergroten; Waarden zoals -100 of 100 zouden moeten leiden tot een ban of exclusieve selectie van de betreffende token. |
No | None |
| user | string | Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik. |
No | |
| messages | array | Een lijst met berichten die tot nu toe het gesprek vormen. | Yes | |
| data_sources | array | De configuratie-entries voor Azure OpenAI chatextensies die ze gebruiken. Deze extra specificatie is alleen compatibel met Azure OpenAI. |
No | |
| logprobs | boolean | Of logkansen van de outputtokens worden teruggegeven of niet. Als waar is, geeft de log-kansen van elk outputtoken dat in de van messagewordt content teruggegeven, terug. |
No | False |
| top_logprobs | integer | Een geheel getal tussen 0 en 20 dat het aantal meest waarschijnlijke tokens aangeeft dat op elke tokenpositie moet terugkeren, elk met een bijbehorende logkans.
logprobs moet worden ingesteld op true als deze parameter wordt gebruikt. |
No | |
| n | integer | Hoeveel keuzes voor het voltooien van de chat moet worden gegenereerd voor elk invoerbericht. Let op: je wordt belast op basis van het aantal gegenereerde tokens in alle keuzes. Houd de 1 kosten n zo laag mogelijk bij elkaar. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Of parallelle functieaanroep tijdens het gebruik van het gereedschap moet worden ingeschakeld. | No | True |
| response_format | ResponseFormatText of ResponseFormatJsonObject of ResponseFormatJsonSchema | Een object dat het formaat specificeert dat het model moet uitvoeren. Compatibel met GPT-4o, GPT-4o mini, GPT-4 Turbo en alle GPT-3.5 Turbo modellen die nieuwer zijn dan gpt-3.5-turbo-1106.Instellen op { "type": "json_schema", "json_schema": {...} } schakelt gestructureerde uitvoeren in, waarmee wordt gegarandeerd dat het model overeenkomt met je geleverde JSON-schema.Instellen op { "type": "json_object" } schakelt de JSON-modus in, die garandeert dat het bericht dat het model genereert geldig JSON is.Belangrijk: bij het gebruik van JSON-modus moet je het model ook instrueren om zelf JSON te produceren via een systeem- of gebruikersbericht. Zonder dit kan het model een eindeloze stroom witruimte genereren totdat de generatie de tokenlimiet bereikt, wat resulteert in een langlopend en schijnbaar "vastzittend" verzoek. Let ook op dat de inhoud van het bericht gedeeltelijk kan worden afgesneden als finish_reason="length", wat aangeeft dat de generatie is overschreden max_tokens of het gesprek de maximale contextlengte heeft overschreden. |
No | |
| seed | integer | Deze functie bevindt zich in bèta. Indien gespecificeerd, zal ons systeem zijn best doen om deterministisch te samplen, zodat herhaalde verzoeken met dezelfde seed parameters hetzelfde resultaat zouden moeten opleveren.Determinisme is niet gegarandeerd, en je moet de system_fingerprint responsparameter raadplegen om veranderingen in de backend te monitoren. |
No | |
| tools | array | Een lijst van gereedschappen die het model kan aanroepen. Momenteel worden alleen functies als hulpmiddel ondersteund. Gebruik dit om een lijst te geven van functies waarvoor het model JSON-invoer kan genereren. Maximaal 128 functies worden ondersteund. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Bepaalt welk (indien aanwezig) gereedschap door het model wordt aangeroepen.
none betekent dat het model geen tool aanroept maar in plaats daarvan een bericht genereert.
auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een of meer tools.
required betekent dat het model één of meer tools moet aanroepen. Het specificeren van een bepaald hulpmiddel via {"type": "function", "function": {"name": "my_function"}} dwingt het model om dat hulpmiddel aan te roepen.
none is de standaard wanneer er geen gereedschap aanwezig is.
auto is de standaard als er tools aanwezig zijn. |
No | |
| function_call | string of chatCompletionFunctionCallOption | Vervallen ten gunste van tool_choice.Bepaalt welke (indien aanwezig) functie door het model wordt aangeroepen. none betekent dat het model geen functie aanroept maar in plaats daarvan een bericht genereert.auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een functie.Het specificeren van een bepaalde functie via {"name": "my_function"} dwingt het model om die functie aan te roepen.none is de standaard wanneer er geen functies aanwezig zijn.
auto is de standaard als functies aanwezig zijn. |
No | |
| functions | array | Vervallen ten gunste van tools.Een lijst van functies waarvoor het model JSON-invoer kan genereren. |
No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Een beschrijving van wat de functie doet, gebruikt door het model om te kiezen wanneer en hoe de functie wordt aangeroepen. | No | |
| name | string | De naam van de functie die genoemd moet worden. Moet a-z, A-Z, 0-9 zijn, of onderscores en streepjes bevatten, met een maximale lengte van 64. | Yes | |
| parameters | FunctionParameters | De parameters die de functie accepteert, worden beschreven als een JSON Schema-object.
Zie de gids voor voorbeelden en de JSON Schema-referentie voor documentatie over het formaat. Weglaten parameters definieert een functie met een lege parameterlijst. |
No |
chatCompletionFunctionCallOption
Het specificeren van een bepaalde functie via {"name": "my_function"} dwingt het model om die functie aan te roepen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | De naam van de functie die je moet aanroepen. | Yes |
chatCompletionRequestMessage
Deze component kan een van de volgende zijn:
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string of array | De inhoud van het systeembericht. | Yes | |
| role | enum | De rol van de berichtenauteur, in dit geval system.Mogelijke waarden: systeem |
Yes | |
| name | string | Een optionele naam voor de deelnemer. Biedt modelinformatie om onderscheid te maken tussen deelnemers met dezelfde rol. | No |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string of array | De inhoud van het gebruikersbericht. |
Yes | |
| role | enum | De rol van de berichtenauteur, in dit geval user.Mogelijke waarden: gebruiker |
Yes | |
| name | string | Een optionele naam voor de deelnemer. Biedt modelinformatie om onderscheid te maken tussen deelnemers met dezelfde rol. | No |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string of array | De inhoud van het assistentbericht. Verplicht tenzij tool_calls of function_call gespecificeerd. |
No | |
| refusal | string | Het weigeringsbericht van de assistent. | No | |
| role | enum | De rol van de berichtenauteur, in dit geval assistant.Mogelijke waarden: assistent |
Yes | |
| name | string | Een optionele naam voor de deelnemer. Biedt modelinformatie om onderscheid te maken tussen deelnemers met dezelfde rol. | No | |
| tool_calls | chatCompletionMessageToolCalls | De toolaanroepen die door het model worden gegenereerd, zoals functieaanroepen. | No | |
| function_call | object | Verouderd en vervangen door tool_calls. De naam en argumenten van een functie die aangeroepen moet worden, zoals gegenereerd door het model. |
No |
Eigenschappen voor function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | De argumenten waarmee de functie wordt aangeroepen, zoals gegenereerd door het model in JSON-formaat. Let op dat het model niet altijd geldige JSON genereert, en parameters kan genereren die niet door je functieschema zijn gedefinieerd. Valideer de argumenten in je code voordat je je functie aanroept. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | De naam van de functie die je moet aanroepen. |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | De rol van de berichtenauteur, in dit geval tool.Mogelijke waarden: tool |
Yes | |
| content | string of array | De inhoud van het toolbericht. | Yes | |
| tool_call_id | string | Toolcall waarop dit bericht reageert. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | De rol van de berichtenauteur, in dit geval function.Mogelijke waarden: functie |
Yes | |
| content | string | De inhoud van het functiebericht. | Yes | |
| name | string | De naam van de functie die je moet aanroepen. | Yes |
chatCompletionRequestSystemMessageContentPart
Deze component kan een van de volgende zijn:
chatCompletionRequestUserMessageContentPart
Deze component kan een van de volgende zijn:
chatCompletionRequestAssistantMessageContentPart
Deze component kan een van de volgende zijn:
chatCompletionRequestToolMessageContentPart
Deze component kan een van de volgende zijn:
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Het type inhoud. Mogelijke waarden: tekst |
Yes | |
| text | string | De tekstinhoud. | Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Het type inhoud. Mogelijke waarden: image_url |
Yes | |
| image_url | object | Yes |
Eigenschappen voor image_url
url
| Name | Type | Description | Default |
|---|---|---|---|
| url | string | Ofwel een URL van de afbeelding, of de base64-gecodeerde afbeeldingsgegevens. |
detail
| Name | Type | Description | Default |
|---|---|---|---|
| detail | string | Specificeert het detailniveau van de afbeelding. Lees meer in de Vision-gids. | auto |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Het type inhoud. Mogelijke waarden: weigering |
Yes | |
| refusal | string | Het weigeringsbericht dat door het model wordt gegenereerd. | Yes |
azureChatExtensionConfiguration
Een representatie van configuratiegegevens voor één enkele Azure OpenAI-chatextensie. Dit wordt gebruikt door een verzoek om chatvoltooiingen dat Azure OpenAI-chatextensies zou moeten gebruiken om het responsgedrag te versterken. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Een representatie van configuratiegegevens voor één enkele Azure OpenAI-chatextensie. Dit wordt gebruikt door een chat voltooiingen verzoeken dat Azure OpenAI chatextensies gebruikt om het responsgedrag te versterken. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI. |
Yes |
azureChatExtensionType
Een representatie van configuratiegegevens voor één enkele Azure OpenAI-chatextensie. Dit wordt gebruikt door een verzoek om chatvoltooiingen dat Azure OpenAI-chatextensies zou moeten gebruiken om het responsgedrag te versterken. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.
Beschrijving: Een representatie van configuratiegegevens voor één enkele Azure OpenAI-chatextensie. Dit wordt gebruikt door een verzoek om chatvoltooiingen dat Azure OpenAI-chatextensies zou moeten gebruiken om het responsgedrag te versterken. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.
Type: string
Default:
Enum Naam: AzureChatExtensionType
Enum Values:
| Value | Description |
|---|---|
| azure_search | Vertegenwoordigt het gebruik van Azure Search als een Azure OpenAI chatextensie. |
| azure_cosmos_db | Vertegenwoordigt het gebruik van Azure Cosmos DB als een Azure OpenAI chatextensie. |
azureSearchChatExtensionConfiguration
Een specifieke weergave van configureerbare opties voor Azure Search wanneer het wordt gebruikt als een Azure OpenAI chatextensie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Een representatie van configuratiegegevens voor één enkele Azure OpenAI-chatextensie. Dit wordt gebruikt door een chat voltooiingen verzoeken dat Azure OpenAI chatextensies gebruikt om het responsgedrag te versterken. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI. |
Yes | |
| parameters | azureSearchChatExtensionParameters | Parameters voor Azure Search wanneer gebruikt als een Azure OpenAI chatextensie. | No |
azureSearchChatExtensionParameters
Parameters voor Azure Search wanneer gebruikt als een Azure OpenAI chatextensie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptions of onYourDataSystemAssignedManagedIdentityAuthenticationOptions of onYourDataUserAssignedManagedIdentityAuthenticationOptions of onYourDataUserAssignedManagedIdentityAuthenticationOptions | Yes | ||
| top_n_documents | integer | Het geconfigureerde hoogste aantal documenten dat voor de geconfigureerde query beschikbaar is. | No | |
| in_scope | boolean | Of queries beperkt moeten worden tot het gebruik van geïndexeerde data. | No | |
| strictness | integer | De geconfigureerde strengheid van de zoekrelevantiefiltering. Hoe strenger, hoe nauwkeuriger maar minder reconcreet het antwoord. | No | |
| role_information | string | Geef het model instructies over hoe het zich moet gedragen en welke context het moet verwijzen bij het genereren van een antwoord. Je kunt de persoonlijkheid van de assistent beschrijven en vertellen hoe hij antwoorden moet opmaken. Er is een limiet van 100 tokens voor en het telt mee tegen de totale tokenlimiet. | No | |
| endpoint | string | Het absolute eindpunt pad voor de Azure Search-bron om te gebruiken. | Yes | |
| index_name | string | De naam van de index die gebruikt moet worden zoals beschikbaar in de verwezen Azure Search-bron. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Optionele instellingen om te bepalen hoe velden worden verwerkt bij gebruik van een geconfigureerde Azure Search-bron. | No | |
| query_type | azureSearchQueryType | Het type Azure Search retrieval query dat uitgevoerd moet worden wanneer het wordt gebruikt als een Azure OpenAI chatextensie. | No | |
| semantic_configuration | string | De extra semantische configuratie voor de query. | No | |
| filter | string | Search filter. | No | |
| embedding_dependency | onYourDataEndpointVectorizationSource of onYourDataDeploymentNameVectorizationSource | No |
azureSearchIndexFieldMappingOptions
Optionele instellingen om te bepalen hoe velden worden verwerkt bij gebruik van een geconfigureerde Azure Search-bron.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | De naam van het indexveld dat als titel gebruikt moet worden. | No | |
| url_field | string | De naam van het indexveld om als URL te gebruiken. | No | |
| filepath_field | string | De naam van het indexveld dat als bestandspad gebruikt moet worden. | No | |
| content_fields | array | De namen van indexvelden die als inhoud behandeld moeten worden. | No | |
| content_fields_separator | string | Het scheidingspatroon dat inhoudsvelden zouden moeten gebruiken. | No | |
| vector_fields | array | De namen van velden die vectorgegevens weergeven. | No |
azureSearchQueryType
Het type Azure Search retrieval query dat uitgevoerd moet worden wanneer het wordt gebruikt als een Azure OpenAI chatextensie.
Beschrijving: Het type Azure Search retrieval query dat uitgevoerd moet worden wanneer het wordt gebruikt als een Azure OpenAI-chatextensie.
Type: string
Default:
Enum Name: AzureSearchQueryType
Enum Values:
| Value | Description |
|---|---|
| simple | Vertegenwoordigt de standaard, eenvoudige queryparser. |
| semantic | Vertegenwoordigt de semantische queryparser voor geavanceerde semantische modellering. |
| vector | Stelt vectorzoekopdracht voor over berekende data. |
| vector_simple_hybrid | Vertegenwoordigt een combinatie van de eenvoudige querystrategie met vectordata. |
| vector_semantic_hybrid | Vertegenwoordigt een combinatie van semantisch zoeken en vectorgegevensquery. |
azureCosmosDBChatExtensionConfiguration
Een specifieke weergave van configureerbare opties voor Azure Cosmos DB wanneer het wordt gebruikt als een Azure OpenAI chatextensie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Een representatie van configuratiegegevens voor één enkele Azure OpenAI-chatextensie. Dit wordt gebruikt door een chat voltooiingen verzoeken dat Azure OpenAI chatextensies gebruikt om het responsgedrag te versterken. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI. |
Yes | |
| parameters | azureCosmosDBChatExtensionParameters | Parameters om te gebruiken bij het configureren van Azure OpenAI On Your Data chatextensies bij het gebruik van Azure Cosmos DB voor MongoDB vCore. |
No |
azureCosmosDBChatExtensionParameters
Parameters om te gebruiken bij het configureren van Azure OpenAI On Your Data chatextensies bij het gebruik van Azure Cosmos DB voor MongoDB vCore.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataConnectionStringAuthenticationOptions | De authenticatieopties voor Azure OpenAI op uw gegevens wanneer u een verbindingsreeks gebruikt. | Yes | |
| top_n_documents | integer | Het geconfigureerde hoogste aantal documenten dat voor de geconfigureerde query beschikbaar is. | No | |
| in_scope | boolean | Of queries beperkt moeten worden tot het gebruik van geïndexeerde data. | No | |
| strictness | integer | De geconfigureerde strengheid van de zoekrelevantiefiltering. Hoe strenger, hoe nauwkeuriger maar minder reconcreet het antwoord. | No | |
| role_information | string | Geef het model instructies over hoe het zich moet gedragen en welke context het moet verwijzen bij het genereren van een antwoord. Je kunt de persoonlijkheid van de assistent beschrijven en vertellen hoe hij antwoorden moet opmaken. Er is een limiet van 100 tokens voor en het telt mee tegen de totale tokenlimiet. | No | |
| database_name | string | De naam van de MongoDB vCore database om te gebruiken met Azure Cosmos DB. | Yes | |
| container_name | string | De naam van de Azure Cosmos DB resource container. | Yes | |
| index_name | string | De naam van de MongoDB vCore-index om te gebruiken met Azure Cosmos DB. | Yes | |
| fields_mapping | azureCosmosDBFieldMappingOptions | Optionele instellingen om te bepalen hoe velden worden verwerkt bij het gebruik van een geconfigureerde Azure Cosmos DB-bron. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource of onYourDataDeploymentNameVectorizationSource | Yes |
azureCosmosDBFieldMappingOptions
Optionele instellingen om te bepalen hoe velden worden verwerkt bij het gebruik van een geconfigureerde Azure Cosmos DB-bron.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | De naam van het indexveld dat als titel gebruikt moet worden. | No | |
| url_field | string | De naam van het indexveld om als URL te gebruiken. | No | |
| filepath_field | string | De naam van het indexveld dat als bestandspad gebruikt moet worden. | No | |
| content_fields | array | De namen van indexvelden die als inhoud behandeld moeten worden. | Yes | |
| content_fields_separator | string | Het scheidingspatroon dat inhoudsvelden zouden moeten gebruiken. | No | |
| vector_fields | array | De namen van velden die vectorgegevens weergeven. | Yes |
onYourDataAuthenticationOptions
De authenticatieopties voor Azure OpenAI op uw gegevens.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | De authenticatietypen worden ondersteund met Azure OpenAI On Your Data. | Yes |
onYourDataAuthenticationType
De authenticatietypen worden ondersteund met Azure OpenAI On Your Data.
Beschrijving: De authenticatietypen die worden ondersteund met Azure OpenAI On Your Data.
Type: string
Default:
Naam: OnYourDataAuthenticationType
Enum Values:
| Value | Description |
|---|---|
| api_key | Authenticatie via API-sleutel. |
| connection_string | Authenticatie via verbindingsreeks. |
| system_assigned_managed_identity | Authenticatie via systeem-toegewezen beheerde identiteit. |
| user_assigned_managed_identity | Authenticatie via door de gebruiker toegewezen beheerde identiteit. |
onYourDataApiKeyAuthenticationOptions
De authenticatieopties voor Azure OpenAI op uw gegevens wanneer u een API-sleutel gebruikt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | De authenticatietypen worden ondersteund met Azure OpenAI On Your Data. | Yes | |
| key | string | De API-sleutel om te gebruiken voor authenticatie. | No |
onYourDataConnectionStringAuthenticationOptions
De authenticatieopties voor Azure OpenAI op uw gegevens wanneer u een verbindingsreeks gebruikt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | De authenticatietypen worden ondersteund met Azure OpenAI On Your Data. | Yes | |
| connection_string | string | De verbindingsreeks om te gebruiken voor authenticatie. | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
De authenticatieopties voor Azure OpenAI On Your Data wanneer je een systeem-toegewezen beheerde identiteit gebruikt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | De authenticatietypen worden ondersteund met Azure OpenAI On Your Data. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
De authenticatieopties voor Azure OpenAI On Your Data wanneer je een door de gebruiker toegewezen beheerde identiteit gebruikt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | De authenticatietypen worden ondersteund met Azure OpenAI On Your Data. | Yes | |
| managed_identity_resource_id | string | De resource-ID van de door de gebruiker toegewezen beheerde identiteit om te gebruiken voor authenticatie. | No |
onYourDataVectorizationSource
Een abstracte representatie van een vectorisatiebron voor Azure OpenAI On Your Data met vectorzoekopdracht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Vertegenwoordigt de beschikbare bronnen die Azure OpenAI On Your Data kan gebruiken om vectorisatie van data te configureren voor gebruik met vector search. |
Yes |
onYourDataVectorizationSourceType
Geeft de beschikbare bronnen weer die Azure OpenAI On Your Data kan gebruiken om vectorisatie van data te configureren voor gebruik met vectorzoek.
Beschrijving: Geeft de beschikbare bronnen weer Azure OpenAI On Your Data kan gebruiken om vectorisatie van data te configureren voor gebruik met
vector search.
Type: string
Default:
Naam van het enum: OnYourDataVectorizationSourceType
Enum Values:
| Value | Description |
|---|---|
| endpoint | Vertegenwoordigt vectorisatie uitgevoerd door publieke serviceoproepen aan een Azure OpenAI-embeddingmodel. |
| deployment_name | Vertegenwoordigt een Ada-model-implementatienaam om te gebruiken. Deze modelimplementatie moet in dezelfde Azure OpenAI-resource zitten, maar On Your Data gebruikt deze modelimplementatie via een interne aanroep in plaats van een publieke, wat vector mogelijk maakt Zoek zelfs in privénetwerken. |
onYourDataDeploymentNameVectorizationSource
De details van een vectorisatiebron, gebruikt door Azure OpenAI On Your Data bij het toepassen van vectorzoekopdrachten, die gebaseerd is op een interne embeddingsmodel-implementatienaam in dezelfde Azure OpenAI-bron.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Vertegenwoordigt de beschikbare bronnen die Azure OpenAI On Your Data kan gebruiken om vectorisatie van data te configureren voor gebruik met vector search. |
Yes | |
| deployment_name | string | Specificeert de naam van de modelimplementatie die gebruikt moet worden voor vectorisatie. Deze modelimplementatie moet in dezelfde Azure OpenAI-bron plaatsvinden, maar On Your Data zal deze modelimplementatie via een interne oproep gebruiken in plaats van een publieke, wat vectorzoekopdrachten mogelijk maakt zelfs in privénetwerken. | No |
onYourDataEndpointVectorizationSource
De details van een vectorisatiebron, gebruikt door Azure OpenAI On Your Data bij het toepassen van vectorzoekopdrachten, die gebaseerd is op een publieke Azure OpenAI-endpointoproep voor embeddings.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Vertegenwoordigt de beschikbare bronnen die Azure OpenAI On Your Data kan gebruiken om vectorisatie van data te configureren voor gebruik met vector search. |
Yes | |
| authentication | onYourDataApiKeyAuthenticationOptions | De authenticatieopties voor Azure OpenAI op uw gegevens wanneer u een API-sleutel gebruikt. | No | |
| endpoint | string | Specificeert het eindpunt dat gebruikt moet worden voor vectorisatie. Dit eindpunt moet zich in dezelfde Azure OpenAI-bron bevinden, maar On Your Data zal dit eindpunt via een interne aanroep gebruiken in plaats van een publieke, wat vectorzoekopdrachten mogelijk maakt, zelfs in privénetwerken. | No |
azureChatExtensionsMessageContext
Een representatie van de extra contextinformatie die beschikbaar is wanneer Azure OpenAI-chatextensies betrokken zijn bij het genereren van een bijbehorende chatvoltooiingsreactie. Deze contextinformatie wordt alleen ingevuld wanneer een Azure OpenAI-verzoek wordt gebruikt dat is geconfigureerd om een bijpassende extensie te gebruiken.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citations | array | Het resultaat van het ophalen van de gegevensbron, gebruikt om het assistentbericht in het antwoord te genereren. | No | |
| intent | string | De gedetecteerde intentie uit de chatgeschiedenis werd gebruikt om door te geven naar de volgende beurt om de context over te dragen. | No |
citation
Citatie-informatie voor een chat-complete-antwoordbericht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | De inhoud van de bron. | Yes | |
| title | string | De titel van de onderscheiding. | No | |
| url | string | De URL van de bron. | No | |
| filepath | string | Het bestandspad van de bron. | No | |
| chunk_id | string | De chunk-ID van de boete. | No |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | De ID van de tooloproep. | Yes | |
| type | toolCallType | Het type gereedschapsoproep, in dit geval function. |
Yes | |
| function | object | De functie die het model aanriep. | Yes |
Eigenschappen voor functie
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | De naam van de functie die je moet aanroepen. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | De argumenten waarmee de functie wordt aangeroepen, zoals gegenereerd door het model in JSON-formaat. Let op dat het model niet altijd geldige JSON genereert, en parameters kan genereren die niet door je functieschema zijn gedefinieerd. Valideer de argumenten in je code voordat je je functie aanroept. |
toolCallType
Het type gereedschapsoproep, in dit geval function.
Beschrijving: Het type gereedschapsoproep, in dit geval function.
Type: string
Default:
Naam: ToolCallType
Enum Values:
| Value | Description |
|---|---|
| function | Het type toolcall is functie. |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_call_id | string | Toolcall waarop dit bericht reageert. | No | |
| content | string | De inhoud van het bericht. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | De rol van de berichtenauteur, in dit geval function.Mogelijke waarden: functie |
No | |
| name | string | De inhoud van het bericht. | No | |
| content | string | De inhoud van het bericht. | No |
createChatCompletionResponse
Vertegenwoordigt een chatvoltooiingsantwoord dat door het model wordt teruggegeven, gebaseerd op de gegeven invoer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Een unieke identificatie voor het voltooien van de chat. | Yes | |
| prompt_filter_results | promptFilterResults | Contentfiltering resulteert voor nul of meer prompts in het verzoek. Bij een streamingverzoek kunnen resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende volgorde binnenkomen. | No | |
| choices | array | Een lijst met keuzes om de chat af te ronden. Kan meer dan één zijn als n groter dan 1 is. |
Yes | |
| created | integer | De Unix-tijdstempel (in seconden) van wanneer de chatvoltooiing werd aangemaakt. | Yes | |
| model | string | Het model dat wordt gebruikt voor het afronden van de gesprek. | Yes | |
| system_fingerprint | string | Deze vingerafdruk vertegenwoordigt de backendconfiguratie waarmee het model draait. Kan samen met de seed request-parameter worden gebruikt om te begrijpen wanneer backend-wijzigingen zijn doorgevoerd die determinisme kunnen beïnvloeden. |
No | |
| object | enum | Het objecttype, dat altijd chat.completionis .Mogelijke waarden: chat.completion |
Yes | |
| usage | completionUsage | Gebruiksstatistieken voor het voltooiingsverzoek. | No |
createChatCompletionStreamResponse
Vertegenwoordigt een gestreamd stuk van een chatvoltooiingsantwoord dat door het model wordt teruggegeven, gebaseerd op de gegeven input.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Een unieke identificatie voor het voltooien van de chat. Elke chunk heeft dezelfde ID. | Yes | |
| choices | array | Een lijst met keuzes om de chat af te ronden. Kan meer dan één element bevatten als n groter is dan 1. |
Yes | |
| created | integer | De Unix-tijdstempel (in seconden) van wanneer de chatvoltooiing werd aangemaakt. Elke chunk heeft dezelfde tijdstempel. | Yes | |
| model | string | Het model om de voltooiing te genereren. | Yes | |
| system_fingerprint | string | Deze vingerafdruk vertegenwoordigt de backendconfiguratie waarmee het model draait. Kan samen met de seed request-parameter worden gebruikt om te begrijpen wanneer backend-wijzigingen zijn doorgevoerd die determinisme kunnen beïnvloeden. |
No | |
| object | enum | Het objecttype, dat altijd chat.completion.chunkis .Mogelijke waarden: chat.completion.chunk |
Yes |
chatCompletionStreamResponseDelta
Een chatvoltooiingsdelta gegenereerd door gestreamde modelreacties.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | De inhoud van het stukbericht. | No | |
| function_call | object | Verouderd en vervangen door tool_calls. De naam en argumenten van een functie die aangeroepen moet worden, zoals gegenereerd door het model. |
No | |
| tool_calls | array | No | ||
| role | enum | De rol van de auteur van deze boodschap. Mogelijke waarden: systeem, gebruiker, assistent, tool |
No | |
| refusal | string | Het weigeringsbericht dat door het model wordt gegenereerd. | No |
Eigenschappen voor function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | De argumenten waarmee de functie wordt aangeroepen, zoals gegenereerd door het model in JSON-formaat. Let op dat het model niet altijd geldige JSON genereert, en parameters kan genereren die niet door je functieschema zijn gedefinieerd. Valideer de argumenten in je code voordat je je functie aanroept. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | De naam van de functie die je moet aanroepen. |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Yes | ||
| id | string | De ID van de tooloproep. | No | |
| type | enum | Het type gereedschap. Momenteel wordt alleen function ondersteund.Mogelijke waarden: functie |
No | |
| function | object | No |
Eigenschappen voor functie
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | De naam van de functie die je moet aanroepen. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | De argumenten waarmee de functie wordt aangeroepen, zoals gegenereerd door het model in JSON-formaat. Let op dat het model niet altijd geldige JSON genereert, en parameters kan genereren die niet door je functieschema zijn gedefinieerd. Valideer de argumenten in je code voordat je je functie aanroept. |
chatCompletionStreamOptions
Opties voor streaming response. Stel dit alleen in wanneer je stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Als ingesteld, wordt er een extra chunk gestreamd vóór het data: [DONE] bericht. Het usage veld op dit chunk toont de tokengebruiksstatistieken voor het gehele verzoek, en het choices veld zal altijd een lege array zijn. Alle andere chunks bevatten ook een usage veld, maar dan met een nulwaarde. |
No |
chatCompletionChoiceLogProbs
Log waarschijnlijkheidsinformatie voor de keuze.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Een lijst van berichtinhoudstoken met logkansinformatie. | Yes | |
| refusal | array | Een lijst van berichtweigeringstokens met logkansinformatie. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| token | string | The token. | Yes | |
| logprob | number | De log-waarschijnlijkheid van dit token. | Yes | |
| bytes | array | Een lijst van gehele getallen die de UTF-8 bytes representatie van het token vertegenwoordigen. Handig in gevallen waarin tekens worden weergegeven door meerdere tokens en hun byte-representaties gecombineerd moeten worden om de juiste tekstrepresentatie te genereren. Kan als null er geen bytesrepresentatie voor de token is. |
Yes | |
| top_logprobs | array | Lijst van de meest waarschijnlijke tokens en hun log-waarschijnlijkheid, op deze tokenpositie. In zeldzame gevallen kunnen er minder zijn dan het aantal geverzoekte top_logprobs geretourneerde. |
Yes |
chatCompletionResponseMessage
Een bericht over het voltooien van de chat dat door het model wordt gegenereerd.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | chatCompletionResponseMessageRole | De rol van de auteur van het antwoordbericht. | Yes | |
| refusal | string | Het weigeringsbericht dat door het model wordt gegenereerd. | Yes | |
| content | string | De inhoud van het bericht. | Yes | |
| tool_calls | array | De toolaanroepen die door het model worden gegenereerd, zoals functieaanroepen. | No | |
| function_call | chatCompletionFunctionCall | Verouderd en vervangen door tool_calls. De naam en argumenten van een functie die aangeroepen moet worden, zoals gegenereerd door het model. |
No | |
| context | azureChatExtensionsMessageContext | Een weergave van de extra contextinformatie die beschikbaar is wanneer Azure OpenAI-chatextensies betrokken zijn bij het genereren van een bijbehorend antwoord op chatvoltooiingen. Deze contextinformatie wordt alleen ingevuld wanneer met een Azure OpenAI-verzoek dat is geconfigureerd om een bijpassende extensie te gebruiken. |
No |
chatCompletionResponseMessageRole
De rol van de auteur van het antwoordbericht.
Beschrijving: De rol van de auteur van het antwoordbericht.
Type: string
Default:
Enum Values:
- assistant
chatCompletionToolChoiceOption
Bepaalt welk (indien aanwezig) gereedschap door het model wordt aangeroepen.
none betekent dat het model geen tool aanroept maar in plaats daarvan een bericht genereert.
auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een of meer tools.
required betekent dat het model één of meer tools moet aanroepen. Het specificeren van een bepaald hulpmiddel via {"type": "function", "function": {"name": "my_function"}} dwingt het model om dat hulpmiddel aan te roepen.
none is de standaard wanneer er geen gereedschap aanwezig is.
auto is de standaard als er tools aanwezig zijn.
Deze component kan een van de volgende zijn:
chatCompletionNamedToolChoice
Specificeert een tool die het model moet gebruiken. Gebruik om het model te dwingen een specifieke functie aan te roepen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Het type gereedschap. Momenteel wordt alleen function ondersteund.Mogelijke waarden: functie |
Yes | |
| function | object | Yes |
Eigenschappen voor functie
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | De naam van de functie die je moet aanroepen. |
ParallelToolCalls
Of parallelle functieaanroep tijdens het gebruik van het gereedschap moet worden ingeschakeld.
Geen eigenschappen gedefinieerd voor deze component.
chatCompletionMessageToolCalls
De toolaanroepen die door het model worden gegenereerd, zoals functieaanroepen.
Geen eigenschappen gedefinieerd voor deze component.
chatCompletionFunctionCall
Verouderd en vervangen door tool_calls. De naam en argumenten van een functie die aangeroepen moet worden, zoals gegenereerd door het model.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | De naam van de functie die je moet aanroepen. | Yes | |
| arguments | string | De argumenten waarmee de functie wordt aangeroepen, zoals gegenereerd door het model in JSON-formaat. Let op dat het model niet altijd geldige JSON genereert, en parameters kan genereren die niet door je functieschema zijn gedefinieerd. Valideer de argumenten in je code voordat je je functie aanroept. | Yes |
completionUsage
Gebruiksstatistieken voor het voltooiingsverzoek.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_tokens | integer | Aantal tokens in de prompt. | Yes | |
| completion_tokens | integer | Aantal tokens in de gegenereerde voltooiing. | Yes | |
| total_tokens | integer | Totaal aantal tokens gebruikt in het verzoek (prompt + voltooiing). | Yes | |
| completion_tokens_details | object | Uitsplitsing van tokens die in een voltooiing worden gebruikt. | No |
Eigenschappen voor completion_tokens_details
reasoning_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| reasoning_tokens | integer | Tokens gegenereerd door het model voor redenering. |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Het type gereedschap. Momenteel wordt alleen function ondersteund.Mogelijke waarden: functie |
Yes | |
| function | FunctionObject | Yes |
FunctionParameters
De parameters die de functie accepteert, worden beschreven als een JSON Schema-object. Zie de gids voor voorbeelden en de JSON Schema-referentie voor documentatie over het formaat.
Weglaten parameters definieert een functie met een lege parameterlijst.
Geen eigenschappen gedefinieerd voor deze component.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Een beschrijving van wat de functie doet, gebruikt door het model om te kiezen wanneer en hoe de functie wordt aangeroepen. | No | |
| name | string | De naam van de functie die genoemd moet worden. Moet a-z, A-Z, 0-9 zijn, of onderscores en streepjes bevatten, met een maximale lengte van 64. | Yes | |
| parameters | FunctionParameters | De parameters die de functie accepteert, worden beschreven als een JSON Schema-object.
Zie de gids voor voorbeelden en de JSON Schema-referentie voor documentatie over het formaat. Weglaten parameters definieert een functie met een lege parameterlijst. |
No | |
| strict | boolean | Of strikte schema-naleving wordt ingeschakeld bij het genereren van de functieaanroep. Als het op waar wordt gezet, volgt het model het exacte schema dat in het parameters veld is gedefinieerd. Slechts een deelverzameling van het JSON-schema wordt ondersteund wanneer strict is true. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Het type responsformaat dat wordt gedefinieerd: textMogelijke waarden: tekst |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Het type responsformaat dat wordt gedefinieerd: json_objectMogelijke waarden: json_object |
Yes |
ResponseFormatJsonSchemaSchema
Het schema voor het responsformaat, beschreven als een JSON Schema-object.
Geen eigenschappen gedefinieerd voor deze component.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Het type responsformaat dat wordt gedefinieerd: json_schemaMogelijke waarden: json_schema |
Yes | |
| json_schema | object | Yes |
Eigenschappen voor json_schema
description
| Name | Type | Description | Default |
|---|---|---|---|
| description | string | Een beschrijving van waar het responsformaat voor bedoeld is, gebruikt door het model om te bepalen hoe in het formaat te reageren. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | De naam van het responsformaat. Moet a-z, A-Z, 0-9 zijn, of onderscores en streepjes bevatten, met een maximale lengte van 64. |
schema
| Name | Type | Description | Default |
|---|---|---|---|
| schema | ResponseFormatJsonSchemaSchema | Het schema voor het responsformaat, beschreven als een JSON Schema-object. |
strict
| Name | Type | Description | Default |
|---|---|---|---|
| strict | boolean | Of strikte schema-naleving wordt ingeschakeld bij het genereren van de uitvoer. Als het op waar wordt gezet, volgt het model altijd het exacte schema dat in het schema veld is gedefinieerd. Slechts een deelverzameling van het JSON-schema wordt ondersteund wanneer strict is true. |
False |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | No | ||
| finish_reason | string | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Het audiobestand om te vertalen. | Yes | |
| prompt | string | Een optionele tekst om de stijl van het model te sturen of een eerder audiosegment voort te zetten. De prompt moet in het Engels zijn. | No | |
| response_format | audioResponseFormat | Definieert het formaat van de uitvoer. | No | |
| temperature | number | De bemonsteringstemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken. Als het op 0 wordt gezet, gebruikt het model logaritmische waarschijnlijkheid om de temperatuur automatisch te verhogen totdat bepaalde drempels zijn bereikt. | No | 0 |
audioResponse
Vertaling of transcriptierespons wanneer response_format JSON was
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Vertaalde of getranscribeerde tekst. | Yes |
audioVerboseResponse
Vertaling of transcriptierespons wanneer response_format verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Vertaalde of getranscribeerde tekst. | Yes | |
| task | string | Soort audiotaak. | No | |
| language | string | Language. | No | |
| duration | number | Duration. | No | |
| segments | array | No |
audioResponseFormat
Definieert het formaat van de uitvoer.
Beschrijving: Definieert het formaat van de uitvoer.
Type: string
Default:
Enum Values:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Het audiobestand object dat getranscribeerd moet worden. | Yes | |
| prompt | string | Een optionele tekst om de stijl van het model te sturen of een eerder audiosegment voort te zetten. De prompt moet overeenkomen met de audiotaal. | No | |
| response_format | audioResponseFormat | Definieert het formaat van de uitvoer. | No | |
| temperature | number | De bemonsteringstemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken. Als het op 0 wordt gezet, gebruikt het model logaritmische waarschijnlijkheid om de temperatuur automatisch te verhogen totdat bepaalde drempels zijn bereikt. | No | 0 |
| language | string | De taal van de invoeraudio. Het leveren van de invoertaal in ISO-639-1-formaat zal de nauwkeurigheid en latentie verbeteren. | No |
audioSegment
Transcriptie- of vertaalsegment.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | integer | Segment identifier. | No | |
| seek | number | Verplaatsing van het segment. | No | |
| start | number | Segment start offset uit. | No | |
| end | number | Segment-eindoffset is verschoven. | No | |
| text | string | Segment text. | No | |
| tokens | array | Tokens van de tekst. | No | |
| temperature | number | Temperature. | No | |
| avg_logprob | number | Gemiddelde logkans. | No | |
| compression_ratio | number | Compression ratio. | No | |
| no_speech_prob | number | Waarschijnlijkheid van no speech. |
No |
imageQuality
De kwaliteit van de afbeelding die wordt gegenereerd.
Beschrijving: De kwaliteit van de afbeelding die wordt gegenereerd.
Type: string
Default: standard
Enum Naam: Kwaliteit
Enum Values:
| Value | Description |
|---|---|
| standard | Standaardkwaliteit levert beelden met standaardkwaliteit op. |
| hd | HD-kwaliteit zorgt voor beelden met fijnere details en grotere consistentie over het hele beeld. |
imagesResponseFormat
Het formaat waarin de gegenereerde afbeeldingen worden teruggegeven.
Beschrijving: Het formaat waarin de gegenereerde afbeeldingen worden teruggestuurd.
Type: string
Default: url
Naam: ImagesResponseFormat
Enum Values:
| Value | Description |
|---|---|
| url | De URL die tijdelijke toegang biedt om de gegenereerde afbeeldingen te downloaden. |
| b64_json | De gegenereerde afbeeldingen worden teruggegeven als base64-gecodeerde string. |
imageSize
De grootte van de gegenereerde afbeeldingen.
Beschrijving: De grootte van de gegenereerde afbeeldingen.
Type: string
Default: 1024x1024
Enum Naam: Grootte
Enum Values:
| Value | Description |
|---|---|
| 1792x1024 | De gewenste grootte van de gegenereerde afbeelding is 1792x1024 pixels. |
| 1024x1792 | De gewenste grootte van de gegenereerde afbeelding is 1024x1792 pixels. |
| 1024x1024 | De gewenste grootte van de gegenereerde afbeelding is 1024x1024 pixels. |
imageStyle
De stijl van de gegenereerde afbeeldingen.
Beschrijving: De stijl van de gegenereerde afbeeldingen.
Type: string
Default: vivid
Enum Naam: Stijl
Enum Values:
| Value | Description |
|---|---|
| vivid | Vivid creëert beelden die hyperrealistisch en dramatisch zijn. |
| natural | Natuurlijk creëert beelden die natuurlijker en minder hyperrealistisch zijn. |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | Een tekstbeschrijving van de gewenste afbeelding(en). De maximale lengte is 4.000 tekens. | Yes | |
| n | integer | Het aantal te genereren afbeeldingen. | No | 1 |
| size | imageSize | De grootte van de gegenereerde afbeeldingen. | No | 1024x1024 |
| response_format | imagesResponseFormat | Het formaat waarin de gegenereerde afbeeldingen worden teruggegeven. | No | url |
| user | string | Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik. | No | |
| quality | imageQuality | De kwaliteit van de afbeelding die wordt gegenereerd. | No | standard |
| style | imageStyle | De stijl van de gegenereerde afbeeldingen. | No | vivid |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | De unix-tijdstempel toen de operatie werd gemaakt. | Yes | |
| data | array | De resultaatgegevens van de operatie, indien succesvol | Yes |
imageResult
De afbeeldings-url of gecodeerde afbeelding als het lukt, en een foutmelding anders.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| url | string | De afbeeldings-url. | No | |
| b64_json | string | Het base64-gecodeerde beeld | No | |
| content_filter_results | dalleContentFilterResults | Informatie over de contentfilterresultaten. | No | |
| revised_prompt | string | De prompt die werd gebruikt om de afbeelding te genereren, als er een revisie van de prompt was. | No | |
| prompt_filter_results | dalleFilterResults | Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over jailbreak-inhoud en vloeken, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan. | No |
Completions extensions
Completions-extensies maken geen deel uit van de nieuwste GA-versie van de Azure OpenAI data plane inference spec.
Chatmessage
Het Chat-berichtobject maakt geen deel uit van de nieuwste GA-versie van de Azure OpenAI data plane inference spec.
Tekst-naar-spraak (Preview)
Maakt momenteel geen deel uit van de nieuwste Azure OpenAI GA-versie van de Azure OpenAI dataplane inference spec. Raadpleeg de nieuwste versie van preview voor deze functionaliteit.
Next steps
Leer over modellen en fijn afstemmen met de REST API. Meer informatie over de onderliggende modellen die gebruikmaken van Azure OpenAI.