Indexes - Get
Recupera uma definição de índice.
GET {endpoint}/indexes('{indexName}')?api-version=2026-04-01
Parâmetros do URI
| Name | Em | Necessário | Tipo | Description |
|---|---|---|---|---|
|
endpoint
|
path | True |
string (uri) |
A URL do ponto de extremidade do serviço de pesquisa. |
|
index
|
path | True |
string |
O nome do índice. |
|
api-version
|
query | True |
string minLength: 1 |
A versão da API a utilizar para esta operação. |
Cabeçalho do Pedido
| Name | Necessário | Tipo | Description |
|---|---|---|---|
| Accept |
O cabeçalho Aceitar. |
||
| x-ms-client-request-id |
string (uuid) |
Um identificador de string opaco, globalmente único e gerado pelo cliente para o pedido. |
Respostas
| Name | Tipo | Description |
|---|---|---|
| 200 OK |
O pedido foi bem-sucedido. |
|
| Other Status Codes |
Uma resposta de erro inesperada. |
Segurança
api-key
Tipo:
apiKey
Em:
header
OAuth2Auth
Tipo:
oauth2
Fluxo:
implicit
URL de Autorização:
https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbitos
| Name | Description |
|---|---|
| https://search.azure.com/.default |
Exemplos
SearchServiceGetIndex
Pedido de amostra
GET https://exampleservice.search.windows.net/indexes('example-index')?api-version=2026-04-01
Resposta da amostra
{
"@odata.etag": "0x1234568AE7E58A1",
"name": "example-index",
"description": "description",
"defaultScoringProfile": "stringFieldBoost",
"fields": [
{
"name": "id",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": true,
"synonymMaps": []
},
{
"name": "vector1",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 20,
"vectorSearchProfile": "config1",
"synonymMaps": []
},
{
"name": "vector1b",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 10,
"vectorSearchProfile": "config2",
"synonymMaps": []
},
{
"name": "vector2",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 5,
"vectorSearchProfile": "config3",
"synonymMaps": []
},
{
"name": "vector3",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 5,
"vectorSearchProfile": "config3",
"synonymMaps": []
},
{
"name": "vector22",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 10,
"vectorSearchProfile": "config2",
"synonymMaps": []
},
{
"name": "vector4",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 32,
"vectorSearchProfile": "config4",
"synonymMaps": []
},
{
"name": "name",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "description",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "standard.lucene",
"synonymMaps": []
},
{
"name": "category",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "ownerId",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "price",
"type": "Edm.Double",
"searchable": false,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"synonymMaps": []
}
],
"scoringProfiles": [
{
"name": "stringFieldBoost",
"functionAggregation": "sum",
"text": {
"weights": {
"name": 3,
"description": 1,
"category": 2,
"ownerId": 1
}
},
"functions": [
{
"fieldName": "category",
"interpolation": "linear",
"type": "tag",
"boost": 2,
"tag": {
"tagsParameter": "categoryTag"
}
}
]
}
],
"corsOptions": {
"allowedOrigins": [
"https://www.example.com/foo"
],
"maxAgeInSeconds": 10
},
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"category",
"ownerId"
]
}
],
"analyzers": [
{
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"name": "tagsAnalyzer",
"tokenizer": "standard_v2",
"tokenFilters": [
"common_grams"
],
"charFilters": [
"html_strip"
]
}
],
"normalizers": [
{
"@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
"name": "my_normalizer",
"tokenFilters": [
"my_tokenFilter"
],
"charFilters": [
"my_mapping"
]
}
],
"tokenizers": [
{
"@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
"name": "my_tokenizer",
"maxTokenLength": 100
}
],
"tokenFilters": [
{
"@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
"name": "my_tokenFilter",
"preserveOriginal": false
}
],
"charFilters": [
{
"@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
"name": "my_mapping",
"mappings": [
".=>,",
"_=>-"
]
}
],
"similarity": {
"@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
"k1": 10,
"b": 0.1
},
"semantic": {
"defaultConfiguration": "testconfig",
"configurations": [
{
"name": "testconfig",
"rankingOrder": "BoostedRerankerScore",
"prioritizedFields": {
"titleField": {
"fieldName": "category"
},
"prioritizedContentFields": [
{
"fieldName": "description"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "ownerId"
}
]
}
}
]
},
"vectorSearch": {
"algorithms": [
{
"name": "cosine",
"kind": "hnsw",
"hnswParameters": {
"metric": "cosine",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "euclidean",
"kind": "hnsw",
"hnswParameters": {
"metric": "euclidean",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "dotProduct",
"kind": "hnsw",
"hnswParameters": {
"metric": "dotProduct",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
}
],
"profiles": [
{
"name": "config1",
"algorithm": "cosine",
"vectorizer": "openai",
"compression": "mySQ8"
},
{
"name": "config2",
"algorithm": "euclidean",
"vectorizer": "custom-web-api",
"compression": "mySQ8"
},
{
"name": "config3",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQC"
},
{
"name": "config4",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQWithoutOriginals"
}
],
"vectorizers": [
{
"name": "openai",
"kind": "azureOpenAI",
"azureOpenAIParameters": {
"resourceUri": "https://test-sample.openai.azure.com",
"deploymentId": "model",
"apiKey": "<redacted>",
"modelName": "text-embedding-3-large"
}
},
{
"name": "custom-web-api",
"kind": "customWebApi",
"customWebApiParameters": {
"httpMethod": "POST",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
"httpHeaders": {
"header1": "value1",
"header2": "value2"
},
"authIdentity": {
"@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
}
}
},
{
"name": "aml",
"kind": "aml",
"amlParameters": {
"resourceId": "aml resource id",
"region": "aml region",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
}
},
{
"name": "aml-cohere",
"kind": "aml",
"amlParameters": {
"resourceId": "aml resource id",
"region": "aml region",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"modelName": "Cohere-embed-v4"
}
}
],
"compressions": [
{
"name": "mySQ8",
"kind": "scalarQuantization",
"truncationDimension": 2,
"scalarQuantizationParameters": {
"quantizedDataType": "int8"
},
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
}
},
{
"name": "myBQC",
"kind": "binaryQuantization",
"truncationDimension": 2,
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
}
},
{
"name": "myBQWithoutOriginals",
"kind": "binaryQuantization",
"truncationDimension": 2,
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "discardOriginals"
}
}
]
}
}
Definições
| Name | Description |
|---|---|
| Accept |
O cabeçalho Aceitar. |
|
AIFoundry |
O nome do modelo de embedding do Azure AI Foundry Catalog que será chamado. |
| AMLParameters |
Especifica as propriedades para conexão a um vetorizador AML. |
| AMLVectorizer |
Especifica um endpoint Azure Machine Learning implementado através do Azure AI Foundry Model Catalog para gerar a incorporação vetorial de uma cadeia de consulta. |
|
Ascii |
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Este filtro de token é implementado usando Apache Lucene. |
|
Azure |
O nome do modelo de IA aberta do Azure que será chamado. |
|
Azure |
Especifica o recurso do Azure OpenAI usado para vetorizar uma cadeia de caracteres de consulta. |
|
Azure |
Especifica os parâmetros para se conectar ao recurso OpenAI do Azure. |
|
Binary |
Contém opções de configuração específicas para o método de compactação de quantização binária usado durante a indexação e consulta. |
|
BM25Similarity |
Função de classificação baseada no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1'). |
|
Char |
Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa. |
|
Cjk |
Forma bigramas de termos CJK que são gerados a partir do tokenizador padrão. Este filtro de token é implementado usando Apache Lucene. |
|
Cjk |
Scripts que podem ser ignorados por CjkBigramTokenFilter. |
|
Classic |
Algoritmo de similaridade legado que usa a implementação Lucene TFIDFSimilarity do TF-IDF. Esta variação de TF-IDF introduz a normalização estática do comprimento do documento, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas. |
|
Classic |
Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Este tokenizador é implementado usando Apache Lucene. |
|
Common |
Construa bigramas para termos frequentes durante a indexação. Os termos isolados também continuam a ser indexados, com bigramas sobrepostos. Este filtro de token é implementado usando Apache Lucene. |
|
Cors |
Define opções para controlar o CORS (Cross-Origin Resource Sharing) para um índice. |
|
Custom |
Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizador predefinido e um ou mais filtros. O tokenizador é responsável por dividir o texto em tokens, e os filtros para modificar tokens emitidos pelo tokenizador. |
|
Custom |
Permite configurar a normalização para campos filtráveis, classificáveis e facetable, que, por padrão, operam com correspondência estrita. Esta é uma configuração definida pelo usuário que consiste em pelo menos um ou mais filtros, que modificam o token armazenado. |
|
Dictionary |
Decompõe palavras compostas encontradas em muitas línguas germânicas. Este filtro de token é implementado usando Apache Lucene. |
|
Distance |
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica. |
|
Distance |
Fornece valores de parâmetros para uma função de pontuação de distância. |
|
Edge |
Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene. |
|
Edge |
Especifica de que lado da entrada um n-grama deve ser gerado. |
|
Edge |
Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene. |
|
Edge |
Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) determinado(s). Este tokenizador é implementado usando Apache Lucene. |
|
Elision |
Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Este filtro de token é implementado usando Apache Lucene. |
|
Error |
O erro de gerenciamento de recursos informações adicionais. |
|
Error |
O detalhe do erro. |
|
Error |
Resposta de erro comum para todas as APIs do Azure Resource Manager devolver detalhes de erro para operações falhadas. (Isso também segue o formato de resposta de erro OData.) |
|
Exhaustive |
Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetorial. |
|
Exhaustive |
Contém os parâmetros específicos para o algoritmo KNN exaustivo. |
|
Freshness |
Define uma função que aumenta as pontuações com base no valor de um campo de data e hora. |
|
Freshness |
Fornece valores de parâmetro para uma função de pontuação de frescor. |
|
Hnsw |
Contém opções de configuração específicas para o algoritmo de vizinhos aproximados mais próximos do HNSW usado durante a indexação e consulta. O algoritmo HNSW oferece um compromisso ajustável entre velocidade e precisão de pesquisa. |
|
Hnsw |
Contém os parâmetros específicos para o algoritmo HNSW. |
|
Keep |
Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Este filtro de token é implementado usando Apache Lucene. |
|
Keyword |
Marca termos como palavras-chave. Este filtro de token é implementado usando Apache Lucene. |
|
Keyword |
Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene. |
|
Keyword |
Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene. |
|
Length |
Remove palavras muito longas ou curtas. Este filtro de token é implementado usando Apache Lucene. |
|
Lexical |
Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa. |
|
Lexical |
Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa. |
|
Lexical |
Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa. |
|
Limit |
Limita o número de tokens durante a indexação. Este filtro de token é implementado usando Apache Lucene. |
|
Lucene |
Analisador Apache Lucene padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro stop. |
|
Lucene |
Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene. |
|
Lucene |
Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene. |
|
Magnitude |
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico. |
|
Magnitude |
Fornece valores de parâmetros para uma função de pontuação de magnitude. |
|
Mapping |
Um filtro de caracteres que aplica mapeamentos definidos com a opção mapeamentos. A correspondência é gananciosa (a correspondência do padrão mais longo num dado ponto vence). A substituição pode ser a cadeia de caracteres vazia. Este filtro de caracteres é implementado usando Apache Lucene. |
|
Microsoft |
Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas base. |
|
Microsoft |
Divide o texto usando regras específicas do idioma. |
|
Microsoft |
Lista as linguagens suportadas pelo tokenizador de stemming de linguagem da Microsoft. |
|
Microsoft |
Lista as linguagens suportadas pelo tokenizador de linguagem da Microsoft. |
|
NGram |
Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene. |
|
NGram |
Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene. |
|
NGram |
Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Este tokenizador é implementado usando Apache Lucene. |
|
Path |
Tokenizador para hierarquias semelhantes a caminhos. Este tokenizador é implementado usando Apache Lucene. |
|
Pattern |
Separa o texto de forma flexível em termos através de um padrão de expressão regular. Este analisador é implementado usando Apache Lucene. |
|
Pattern |
Usa regexes Java para emitir vários tokens - um para cada grupo de captura em um ou mais padrões. Este filtro de token é implementado usando Apache Lucene. |
|
Pattern |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de caracteres é implementado usando Apache Lucene. |
|
Pattern |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de token é implementado usando Apache Lucene. |
|
Pattern |
Tokenizador que usa a correspondência de padrões regex para construir tokens distintos. Este tokenizador é implementado usando Apache Lucene. |
|
Phonetic |
Identifica o tipo de codificador fonético a ser usado com um PhoneticTokenFilter. |
|
Phonetic |
Crie tokens para correspondências fonéticas. Este filtro de token é implementado usando Apache Lucene. |
|
Ranking |
Representa a pontuação a ser usada para a ordem de classificação dos documentos. |
|
Rescoring |
Contém as opções para pontuação. |
|
Scalar |
Contém opções de configuração específicas para o método de compressão de quantização escalar usado durante a indexação e consulta. |
|
Scalar |
Contém os parâmetros específicos da Quantização Escalar. |
|
Scoring |
Define a função de agregação usada para combinar os resultados de todas as funções de pontuação em um perfil de pontuação. |
|
Scoring |
Define a função usada para interpolar o aumento da pontuação em uma variedade de documentos. |
|
Scoring |
Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa. |
|
Search |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
|
Search |
Define o tipo de dados de um campo em um índice de pesquisa. |
|
Search |
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice. |
|
Search |
Limpa a propriedade identity de uma fonte de dados. |
|
Search |
Especifica a identidade a ser usada por uma fonte de dados. |
|
Search |
Uma chave de criptografia gerenciada pelo cliente no Cofre de Chaves do Azure. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso, como índices e mapas de sinônimos. |
|
Search |
Define como a API Sugerir deve ser aplicada a um grupo de campos no índice. |
|
Semantic |
Define uma configuração específica a ser usada no contexto de recursos semânticos. |
|
Semantic |
Um campo que é usado como parte da configuração semântica. |
|
Semantic |
Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, destaques e respostas. |
|
Semantic |
Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos. |
|
Shingle |
Cria combinações de tokens como um único token. Este filtro de token é implementado usando Apache Lucene. |
|
Snowball |
Um filtro que deriva palavras usando um lematizador gerado por Bola-de-Neve. Este filtro de token é implementado usando Apache Lucene. |
|
Snowball |
O idioma a ser usado para um filtro de token do Snowball. |
|
Stemmer |
Fornece a capacidade de substituir outros filtros de derivação com derivação personalizada baseada em dicionário. Quaisquer termos dicionários serão marcados como palavras-chave para que não sejam engessados com lematizadores ao longo da cadeia. Deve ser colocado antes de quaisquer filtros de derivação. Este filtro de token é implementado usando Apache Lucene. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html |
|
Stemmer |
Filtro de derivação específico da linguagem. Este filtro de token é implementado usando Apache Lucene. Veja https://dotnet.territoriali.olinfo.it/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters |
|
Stemmer |
A linguagem a ser usada para um filtro de token de lematizador. |
|
Stop |
Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Este analisador é implementado usando Apache Lucene. |
|
Stopwords |
Identifica uma lista predefinida de palavras paradas específicas do idioma. |
|
Stopwords |
Remove palavras irrelevantes de um fluxo de tokens. Este filtro de token é implementado usando Apache Lucene. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html |
|
Synonym |
Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Este filtro de token é implementado usando Apache Lucene. |
|
Tag |
Define uma função que aumenta pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de tags. |
|
Tag |
Fornece valores de parâmetro para uma função de pontuação de tag. |
|
Text |
Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa. |
|
Token |
Representa classes de caracteres nas quais um filtro de token pode operar. |
|
Token |
Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa. |
|
Truncate |
Trunca os termos até um comprimento específico. Este filtro de token é implementado usando Apache Lucene. |
|
Uax |
Tokeniza URLs e e-mails como um único token. Este tokenizador é implementado usando Apache Lucene. |
|
Unique |
Filtra tokens com o mesmo texto do token anterior. Este filtro de token é implementado usando Apache Lucene. |
|
Vector |
O formato de codificação para interpretar o conteúdo do campo vetorial. |
|
Vector |
Contém opções de configuração relacionadas à pesquisa vetorial. |
|
Vector |
O algoritmo usado para indexação e consulta. |
|
Vector |
A métrica de semelhança a ser usada para comparações vetoriais. Recomenda-se escolher a mesma métrica de semelhança em que o modelo de incorporação foi treinado. |
|
Vector |
O método de compactação usado para indexação e consulta. |
|
Vector |
O tipo de dados quantizados de valores vetoriais compactados. |
|
Vector |
Define uma combinação de configurações a serem usadas com a pesquisa vetorial. |
|
Vector |
O método de vetorização a ser usado durante o tempo de consulta. |
|
Web |
Especifica um vetorizador definido pelo usuário para gerar a incorporação vetorial de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface personalizada da API Web de um conjunto de habilidades. |
|
Web |
Especifica as propriedades para conexão a um vetorizador definido pelo usuário. |
|
Word |
Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras. Este filtro de token é implementado usando Apache Lucene. |
Accept
O cabeçalho Aceitar.
| Valor | Description |
|---|---|
| application/json;odata.metadata=minimal |
AIFoundryModelCatalogName
O nome do modelo de embedding do Azure AI Foundry Catalog que será chamado.
| Valor | Description |
|---|---|
| OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
| OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336 |
OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336 |
| Facebook-DinoV2-Image-Embeddings-ViT-Base |
Facebook-DinoV2-Image-Embeddings-ViT-Base |
| Facebook-DinoV2-Image-Embeddings-ViT-Giant |
Facebook-DinoV2-Image-Embeddings-ViT-Giant |
| Cohere-embed-v3-english |
Cohere-embed-v3-english |
| Cohere-embed-v3-multilingual |
Cohere-embed-v3-multilingual |
| Cohere-embed-v4 |
Cohere incorpora o modelo v4 para gerar incorporações a partir de texto e imagens. |
AMLParameters
Especifica as propriedades para conexão a um vetorizador AML.
| Name | Tipo | Description |
|---|---|---|
| key |
string |
(Necessário para autenticação de chave) A chave para o serviço AML. |
| modelName |
O nome do modelo de embedding do Azure AI Foundry Catalog que está implementado no endpoint fornecido. |
|
| region |
string |
(Opcional para autenticação de token). A região em que o serviço AML está implantado. |
| resourceId |
string |
(Necessário para autenticação de token). O ID de recurso do Azure Resource Manager do serviço AML. Deve estar no formato subscriptions/{guid}/resourceGroups/{resource-group-name}/Microsoft. MachineLearningServices/workspaces/{workspace-name}/services/{service_name}. |
| timeout |
string (duration) |
(Opcional) Quando especificado, indica o tempo limite para o cliente http que faz a chamada de API. |
| uri |
string (uri) |
(Necessário para nenhuma autenticação ou autenticação de chave) O URI de pontuação do serviço AML para o qual a carga JSON será enviada. Somente o esquema de URI https é permitido. |
AMLVectorizer
Especifica um endpoint Azure Machine Learning implementado através do Azure AI Foundry Model Catalog para gerar a incorporação vetorial de uma cadeia de consulta.
| Name | Tipo | Description |
|---|---|---|
| amlParameters |
Especifica as propriedades do vetorizador AML. |
|
| kind |
string:
aml |
Tipo de VetorizadorPesquisa. |
| name |
string |
O nome a ser associado a esse método de vetorização específico. |
AsciiFoldingTokenFilter
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| preserveOriginal |
boolean |
False |
Um valor que indica se o token original será mantido. O valor predefinido é falso. |
AzureOpenAIModelName
O nome do modelo de IA aberta do Azure que será chamado.
| Valor | Description |
|---|---|
| text-embedding-ada-002 |
Modelo TextEmbeddingAda002. |
| text-embedding-3-large |
TextEmbedding3 Modelo grande. |
| text-embedding-3-small |
TextEmbedding3Small model. |
| gpt-5-mini |
Modelo Gpt5Mini. |
| gpt-5-nano |
Modelo Gpt5Nano. |
| gpt-5.4-mini |
Modelo Gpt54Mini. |
| gpt-5.4-nano |
Modelo Gpt54Nano. |
AzureOpenAIVectorizer
Especifica o recurso do Azure OpenAI usado para vetorizar uma cadeia de caracteres de consulta.
| Name | Tipo | Description |
|---|---|---|
| azureOpenAIParameters |
Contém os parâmetros específicos para a vetorização de incorporação do Azure OpenAI. |
|
| kind |
string:
azure |
Tipo de VetorizadorPesquisa. |
| name |
string |
O nome a ser associado a esse método de vetorização específico. |
AzureOpenAIVectorizerParameters
Especifica os parâmetros para se conectar ao recurso OpenAI do Azure.
| Name | Tipo | Description |
|---|---|---|
| apiKey |
string |
Chave de API do recurso OpenAI do Azure designado. |
| authIdentity | SearchIndexerDataIdentity: |
A identidade gerenciada atribuída pelo usuário usada para conexões de saída. |
| deploymentId |
string |
ID da implantação do modelo OpenAI do Azure no recurso designado. |
| modelName |
O nome do modelo de incorporação implantado no caminho deploymentId fornecido. |
|
| resourceUri |
string (uri) |
O URI do recurso Azure OpenAI. |
BinaryQuantizationCompression
Contém opções de configuração específicas para o método de compactação de quantização binária usado durante a indexação e consulta.
| Name | Tipo | Description |
|---|---|---|
| kind |
string:
binary |
Tipo de Pesquisa VetorialCompressão. |
| name |
string |
O nome a ser associado a essa configuração específica. |
| rescoringOptions |
Contém as opções para pontuação. |
|
| truncationDimension |
integer (int32) |
O número de dimensões para truncar os vetores. Truncar os vetores reduz o tamanho dos vetores e a quantidade de dados que precisam ser transferidos durante a pesquisa. Isso pode economizar custos de armazenamento e melhorar o desempenho da pesquisa às custas da recuperação. Ele só deve ser usado para incorporações treinadas com Matryoshka Representation Learning (MRL), como OpenAI text-embedding-3-large (small). O valor padrão é null, o que significa que não há truncamento. |
BM25SimilarityAlgorithm
Função de classificação baseada no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1').
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
| b |
number (double) |
Esta propriedade controla como o comprimento de um documento afeta a pontuação de relevância. Por padrão, um valor de 0,75 é usado. Um valor de 0,0 significa que nenhuma normalização de comprimento é aplicada, enquanto um valor de 1,0 significa que a pontuação é totalmente normalizada pelo comprimento do documento. |
| k1 |
number (double) |
Esta propriedade controla a função de dimensionamento entre a frequência de termo de cada termo correspondente e a pontuação de relevância final de um par documento-consulta. Por padrão, um valor de 1,2 é usado. Um valor de 0,0 significa que a pontuação não escala com um aumento na frequência de termo. |
CharFilterName
Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa.
| Valor | Description |
|---|---|
| html_strip |
Um filtro de caracteres que tenta remover construções HTML. Veja https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilter
Forma bigramas de termos CJK que são gerados a partir do tokenizador padrão. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| ignoreScripts |
Os scripts a serem ignorados. |
||
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| outputUnigrams |
boolean |
False |
Um valor que indica se os unigramas e bigramas devem ser produzidos (se verdadeiro) ou apenas bigramas (se falso). O valor predefinido é falso. |
CjkBigramTokenFilterScripts
Scripts que podem ser ignorados por CjkBigramTokenFilter.
| Valor | Description |
|---|---|
| han |
Ignore o script Han ao formar bigramas de termos CJK. |
| hiragana |
Ignore o script Hiragana ao formar bigramas de termos CJK. |
| katakana |
Ignore o script Katakana ao formar bigramas de termos CJK. |
| hangul |
Ignore o script Hangul ao formar bigramas de termos CJK. |
ClassicSimilarityAlgorithm
Algoritmo de similaridade legado que usa a implementação Lucene TFIDFSimilarity do TF-IDF. Esta variação de TF-IDF introduz a normalização estática do comprimento do documento, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas.
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
ClassicTokenizer
Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Este tokenizador é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
| name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
CommonGramTokenFilter
Construa bigramas para termos frequentes durante a indexação. Os termos isolados também continuam a ser indexados, com bigramas sobrepostos. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| commonWords |
string[] |
O conjunto de palavras comuns. |
|
| ignoreCase |
boolean |
False |
Um valor que indica se a correspondência de palavras comuns não diferenciará maiúsculas de minúsculas. O valor predefinido é falso. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| queryMode |
boolean |
False |
Um valor que indica se o filtro de token está no modo de consulta. Quando no modo de consulta, o filtro de token gera bigramas e, em seguida, remove palavras comuns e termos únicos seguidos por uma palavra comum. O valor predefinido é falso. |
CorsOptions
Define opções para controlar o CORS (Cross-Origin Resource Sharing) para um índice.
| Name | Tipo | Description |
|---|---|---|
| allowedOrigins |
string[] |
A lista de origens a partir das quais o código JavaScript terá acesso ao seu índice. Pode conter uma lista de hosts do formato {protocol}://{fully-qualified-domain-name}[:{port#}], ou um único '*' para permitir todas as origens (não recomendado). |
| maxAgeInSeconds |
integer (int64) |
A duração durante a qual os navegadores devem armazenar em cache as respostas de comprovação do CORS. O padrão é 5 minutos. |
CustomAnalyzer
Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizador predefinido e um ou mais filtros. O tokenizador é responsável por dividir o texto em tokens, e os filtros para modificar tokens emitidos pelo tokenizador.
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
| charFilters |
Uma lista de filtros de caracteres usados para preparar o texto de entrada antes de ser processado pelo tokenizador. Por exemplo, eles podem substituir certos caracteres ou símbolos. Os filtros são executados na ordem em que são listados. |
|
| name |
string |
O nome do analisador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
| tokenFilters |
Uma lista de filtros de token usados para filtrar ou modificar os tokens gerados por um tokenizador. Por exemplo, você pode especificar um filtro minúsculo que converta todos os caracteres em minúsculas. Os filtros são executados na ordem em que são listados. |
|
| tokenizer |
O nome do tokenizador a ser usado para dividir o texto contínuo em uma sequência de tokens, como quebrar uma frase em palavras. |
CustomNormalizer
Permite configurar a normalização para campos filtráveis, classificáveis e facetable, que, por padrão, operam com correspondência estrita. Esta é uma configuração definida pelo usuário que consiste em pelo menos um ou mais filtros, que modificam o token armazenado.
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
| charFilters |
Uma lista de filtros de caracteres usados para preparar o texto de entrada antes de ser processado. Por exemplo, eles podem substituir certos caracteres ou símbolos. Os filtros são executados na ordem em que são listados. |
|
| name |
string |
O nome do filtro char. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
| tokenFilters |
Uma lista de filtros de token usados para filtrar ou modificar o token de entrada. Por exemplo, você pode especificar um filtro minúsculo que converta todos os caracteres em minúsculas. Os filtros são executados na ordem em que são listados. |
DictionaryDecompounderTokenFilter
Decompõe palavras compostas encontradas em muitas línguas germânicas. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| maxSubwordSize |
integer (int32) maximum: 300 |
15 |
O tamanho máximo da subpalavra. Apenas subpalavras mais curtas do que isso são produzidas. O padrão é 15. O máximo é de 300. |
| minSubwordSize |
integer (int32) maximum: 300 |
2 |
O tamanho mínimo da subpalavra. Apenas subpalavras maiores do que isso são produzidas. O padrão é 2. O máximo é de 300. |
| minWordSize |
integer (int32) maximum: 300 |
5 |
O tamanho mínimo da palavra. Apenas palavras mais longas do que isso são processadas. O padrão é 5. O máximo é de 300. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| onlyLongestMatch |
boolean |
False |
Um valor que indica se apenas a subpalavra correspondente mais longa deve ser adicionada à saída. O valor predefinido é falso. |
| wordList |
string[] |
A lista de palavras contra as quais corresponder. |
DistanceScoringFunction
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica.
| Name | Tipo | Description |
|---|---|---|
| boost |
number (double) |
Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0. |
| distance |
Valores de parâmetros para a função de pontuação de distância. |
|
| fieldName |
string |
O nome do campo usado como entrada para a função de pontuação. |
| interpolation |
Um valor que indica como o impulsionamento será interpolado entre as pontuações dos documentos; o padrão é "Linear". |
|
| type |
string:
distance |
Tipo de Função de Pontuação. |
DistanceScoringParameters
Fornece valores de parâmetros para uma função de pontuação de distância.
| Name | Tipo | Description |
|---|---|---|
| boostingDistance |
number (double) |
A distância em quilómetros do local de referência onde termina o alcance de reforço. |
| referencePointParameter |
string |
O nome do parâmetro passado em consultas de pesquisa para especificar o local de referência. |
EdgeNGramTokenFilter
Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| maxGram |
integer (int32) |
2 |
O comprimento máximo de n-gramas. O padrão é 2. |
| minGram |
integer (int32) |
1 |
O comprimento mínimo de n-gramas. A predefinição é 1. Deve ser menor que o valor de maxGram. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| side | front |
Especifica de que lado da entrada o n-grama deve ser gerado. O padrão é "frontal". |
EdgeNGramTokenFilterSide
Especifica de que lado da entrada um n-grama deve ser gerado.
| Valor | Description |
|---|---|
| front |
Especifica que o n-grama deve ser gerado a partir da frente da entrada. |
| back |
Especifica que o n-grama deve ser gerado a partir da parte traseira da entrada. |
EdgeNGramTokenFilterV2
Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
O comprimento máximo de n-gramas. O padrão é 2. O máximo é de 300. |
| minGram |
integer (int32) maximum: 300 |
1 |
O comprimento mínimo de n-gramas. A predefinição é 1. O máximo é de 300. Deve ser menor que o valor de maxGram. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| side | front |
Especifica de que lado da entrada o n-grama deve ser gerado. O padrão é "frontal". |
EdgeNGramTokenizer
Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) determinado(s). Este tokenizador é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
O comprimento máximo de n-gramas. O padrão é 2. O máximo é de 300. |
| minGram |
integer (int32) maximum: 300 |
1 |
O comprimento mínimo de n-gramas. A predefinição é 1. O máximo é de 300. Deve ser menor que o valor de maxGram. |
| name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| tokenChars |
Classes de caracteres para manter nos tokens. |
ElisionTokenFilter
Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
| articles |
string[] |
O conjunto de artigos a remover. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
ErrorAdditionalInfo
O erro de gerenciamento de recursos informações adicionais.
| Name | Tipo | Description |
|---|---|---|
| info |
As informações adicionais. |
|
| type |
string |
O tipo de informação adicional. |
ErrorDetail
O detalhe do erro.
| Name | Tipo | Description |
|---|---|---|
| additionalInfo |
O erro informações adicionais. |
|
| code |
string |
O código de erro. |
| details |
Os detalhes do erro. |
|
| message |
string |
A mensagem de erro. |
| target |
string |
O alvo do erro. |
ErrorResponse
Resposta de erro comum para todas as APIs do Azure Resource Manager devolver detalhes de erro para operações falhadas. (Isso também segue o formato de resposta de erro OData.)
| Name | Tipo | Description |
|---|---|---|
| error |
O objeto de erro. |
ExhaustiveKnnAlgorithmConfiguration
Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetorial.
| Name | Tipo | Description |
|---|---|---|
| exhaustiveKnnParameters |
Contém os parâmetros específicos para o algoritmo KNN exaustivo. |
|
| kind |
string:
exhaustive |
Tipo de AlgoritmoPesquisa VetorialConfiguração. |
| name |
string |
O nome a ser associado a essa configuração específica. |
ExhaustiveKnnParameters
Contém os parâmetros específicos para o algoritmo KNN exaustivo.
| Name | Tipo | Description |
|---|---|---|
| metric |
A métrica de semelhança a ser usada para comparações vetoriais. |
FreshnessScoringFunction
Define uma função que aumenta as pontuações com base no valor de um campo de data e hora.
| Name | Tipo | Description |
|---|---|---|
| boost |
number (double) |
Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0. |
| fieldName |
string |
O nome do campo usado como entrada para a função de pontuação. |
| freshness |
Valores de parâmetros para a função de pontuação de frescor. |
|
| interpolation |
Um valor que indica como o impulsionamento será interpolado entre as pontuações dos documentos; o padrão é "Linear". |
|
| type |
string:
freshness |
Tipo de Função de Pontuação. |
FreshnessScoringParameters
Fornece valores de parâmetro para uma função de pontuação de frescor.
| Name | Tipo | Description |
|---|---|---|
| boostingDuration |
string (duration) |
O período de expiração após o qual o impulsionamento será interrompido para um documento específico. |
HnswAlgorithmConfiguration
Contém opções de configuração específicas para o algoritmo de vizinhos aproximados mais próximos do HNSW usado durante a indexação e consulta. O algoritmo HNSW oferece um compromisso ajustável entre velocidade e precisão de pesquisa.
| Name | Tipo | Description |
|---|---|---|
| hnswParameters |
Contém os parâmetros específicos do algoritmo HNSW. |
|
| kind |
string:
hnsw |
Tipo de AlgoritmoPesquisa VetorialConfiguração. |
| name |
string |
O nome a ser associado a essa configuração específica. |
HnswParameters
Contém os parâmetros específicos para o algoritmo HNSW.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| efConstruction |
integer (int32) minimum: 100maximum: 1000 |
400 |
O tamanho da lista dinâmica que contém os vizinhos mais próximos, que é usada durante o tempo de índice. O aumento deste parâmetro pode melhorar a qualidade do índice, em detrimento do aumento do tempo de indexação. A certa altura, o aumento deste parâmetro leva a uma diminuição dos retornos. |
| efSearch |
integer (int32) minimum: 100maximum: 1000 |
500 |
O tamanho da lista dinâmica que contém os vizinhos mais próximos, que é usada durante o tempo de pesquisa. Aumentar este parâmetro pode melhorar os resultados da pesquisa, em detrimento de uma pesquisa mais lenta. A certa altura, o aumento deste parâmetro leva a uma diminuição dos retornos. |
| m |
integer (int32) minimum: 4maximum: 10 |
4 |
O número de ligações bidirecionais criadas para cada novo elemento durante a construção. Aumentar esse valor de parâmetro pode melhorar a recuperação e reduzir os tempos de recuperação para conjuntos de dados com alta dimensionalidade intrínseca às custas do aumento do consumo de memória e do tempo de indexação mais longo. |
| metric |
A métrica de semelhança a ser usada para comparações vetoriais. |
KeepTokenFilter
Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| keepWords |
string[] |
A lista de palavras a manter. |
|
| keepWordsCase |
boolean |
False |
Um valor que indica se todas as palavras devem ser minúsculas primeiro. O valor predefinido é falso. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
KeywordMarkerTokenFilter
Marca termos como palavras-chave. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| ignoreCase |
boolean |
False |
Um valor que indica se as maiúsculas e minúsculas devem ser ignoradas. Se verdadeiro, todas as palavras são convertidas em minúsculas primeiro. O valor predefinido é falso. |
| keywords |
string[] |
Uma lista de palavras para marcar como palavras-chave. |
|
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
KeywordTokenizer
Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| bufferSize |
integer (int32) |
256 |
O tamanho do buffer de leitura em bytes. O padrão é 256. |
| name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
KeywordTokenizerV2
Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
256 |
O comprimento máximo do token. O padrão é 256. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
| name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
LengthTokenFilter
Remove palavras muito longas ou curtas. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| max |
integer (int32) maximum: 300 |
300 |
O comprimento máximo em caracteres. O padrão e máximo é 300. |
| min |
integer (int32) maximum: 300 |
0 |
O comprimento mínimo em caracteres. O padrão é 0. O máximo é de 300. Deve ser menor que o valor de max. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
LexicalAnalyzerName
Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa.
| Valor | Description |
|---|---|
| ar.microsoft |
Analisador Microsoft para árabe. |
| ar.lucene |
Analisador de Lucene para árabe. |
| hy.lucene |
Analisador de Lucene para arménio. |
| bn.microsoft |
Analisador Microsoft para Bangla. |
| eu.lucene |
Analisador Lucene para basco. |
| bg.microsoft |
Analisador Microsoft para búlgaro. |
| bg.lucene |
Lucene analisador para búlgaro. |
| ca.microsoft |
Analisador Microsoft para catalão. |
| ca.lucene |
Lucene analisador para catalão. |
| zh-Hans.microsoft |
Analisador Microsoft para chinês (Simplificado). |
| zh-Hans.lucene |
Analisador Lucene para chinês (simplificado). |
| zh-Hant.microsoft |
Analisador Microsoft para chinês (tradicional). |
| zh-Hant.lucene |
Analisador de Lucene para chinês (tradicional). |
| hr.microsoft |
Analisador Microsoft para croata. |
| cs.microsoft |
Analisador Microsoft para checo. |
| cs.lucene |
Lucene analisador para checo. |
| da.microsoft |
Analisador Microsoft para dinamarquês. |
| da.lucene |
Lucene analisador para dinamarquês. |
| nl.microsoft |
Analisador Microsoft para holandês. |
| nl.lucene |
Analisador Lucene para holandês. |
| en.microsoft |
Analisador Microsoft para inglês. |
| en.lucene |
Analisador Lucene para Inglês. |
| et.microsoft |
Analisador Microsoft para estónio. |
| fi.microsoft |
Analisador Microsoft para finlandês. |
| fi.lucene |
Analisador de Lucene para finlandês. |
| fr.microsoft |
Analisador Microsoft para francês. |
| fr.lucene |
Analisador Lucene para francês. |
| gl.lucene |
Lucene analisador para galego. |
| de.microsoft |
Analisador Microsoft para alemão. |
| de.lucene |
Lucene analisador para alemão. |
| el.microsoft |
Analisador Microsoft para grego. |
| el.lucene |
Analisador de Lucene para grego. |
| gu.microsoft |
Analisador Microsoft para Gujarati. |
| he.microsoft |
Analisador Microsoft para hebraico. |
| hi.microsoft |
Analisador Microsoft para Hindi. |
| hi.lucene |
Analisador de Lucene para Hindi. |
| hu.microsoft |
Analisador Microsoft para húngaro. |
| hu.lucene |
Lucene analisador para húngaro. |
| is.microsoft |
Analisador Microsoft para islandês. |
| id.microsoft |
Analisador Microsoft para Indonésio (Bahasa). |
| id.lucene |
Analisador de Lucene para indonésio. |
| ga.lucene |
Lucene analisador para irlandês. |
| it.microsoft |
Analisador Microsoft para italiano. |
| it.lucene |
Analisador Lucene para italiano. |
| ja.microsoft |
Analisador Microsoft para japonês. |
| ja.lucene |
Analisador Lucene para japonês. |
| kn.microsoft |
Analisador Microsoft para Kannada. |
| ko.microsoft |
Analisador Microsoft para coreano. |
| ko.lucene |
Analisador Lucene para coreano. |
| lv.microsoft |
Analisador Microsoft para letão. |
| lv.lucene |
Analisador Lucene para letão. |
| lt.microsoft |
Analisador Microsoft para lituano. |
| ml.microsoft |
Analisador Microsoft para malaiala. |
| ms.microsoft |
Analisador Microsoft para malaio (latim). |
| mr.microsoft |
Analisador Microsoft para Marathi. |
| nb.microsoft |
Microsoft analyzer for Norwegian (Bokmål). |
| no.lucene |
Analisador Lucene para norueguês. |
| fa.lucene |
Analisador de Lucene para persa. |
| pl.microsoft |
Analisador Microsoft para polaco. |
| pl.lucene |
Analisador de Lucene para polaco. |
| pt-BR.microsoft |
Analisador Microsoft para português (Brasil). |
| pt-BR.lucene |
Analisador Lucene para Português (Brasil). |
| pt-PT.microsoft |
Analisador Microsoft para português (Portugal). |
| pt-PT.lucene |
Analisador de Lucene para Português (Portugal). |
| pa.microsoft |
Analisador Microsoft para Punjabi. |
| ro.microsoft |
Analisador Microsoft para romeno. |
| ro.lucene |
Lucene analisador para romeno. |
| ru.microsoft |
Analisador Microsoft para russo. |
| ru.lucene |
Lucene analisador para russo. |
| sr-cyrillic.microsoft |
Analisador Microsoft para sérvio (cirílico). |
| sr-latin.microsoft |
Analisador Microsoft para sérvio (latim). |
| sk.microsoft |
Analisador Microsoft para eslovaco. |
| sl.microsoft |
Analisador Microsoft para esloveno. |
| es.microsoft |
Analisador Microsoft para espanhol. |
| es.lucene |
Analisador Lucene para espanhol. |
| sv.microsoft |
Analisador Microsoft para sueco. |
| sv.lucene |
Lucene analisador para sueco. |
| ta.microsoft |
Analisador Microsoft para tâmil. |
| te.microsoft |
Analisador Microsoft para Telugu. |
| th.microsoft |
Analisador Microsoft para tailandês. |
| th.lucene |
Lucene analisador para tailandês. |
| tr.microsoft |
Analisador Microsoft para turco. |
| tr.lucene |
Lucene analisador para turco. |
| uk.microsoft |
Analisador Microsoft para ucraniano. |
| ur.microsoft |
Analisador Microsoft para urdu. |
| vi.microsoft |
Analisador Microsoft para vietnamita. |
| standard.lucene |
Analisador Lucene padrão. |
| standardasciifolding.lucene |
Analisador padrão ASCII Folding Lucene. Veja https://dotnet.territoriali.olinfo.it/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers |
| keyword |
Trata todo o conteúdo de um campo como um único token. Isso é útil para dados como códigos postais, ids e alguns nomes de produtos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html |
| pattern |
Separa o texto de forma flexível em termos através de um padrão de expressão regular. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
| simple |
Divide o texto em letras não escritas e converte-as em minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html |
| stop |
Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
| whitespace |
Um analisador que utiliza o tokenizador de espaços em branco. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html |
LexicalNormalizerName
Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa.
LexicalTokenizerName
Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa.
LimitTokenFilter
Limita o número de tokens durante a indexação. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| consumeAllTokens |
boolean |
False |
Um valor que indica se todos os tokens da entrada devem ser consumidos, mesmo que maxTokenCount seja atingido. O valor predefinido é falso. |
| maxTokenCount |
integer (int32) |
1 |
O número máximo de tokens a produzir. A predefinição é 1. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
LuceneStandardAnalyzer
Analisador Apache Lucene padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro stop.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
| name |
string |
O nome do analisador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| stopwords |
string[] |
Uma lista de palavras-chave. |
LuceneStandardTokenizer
Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| maxTokenLength |
integer (int32) |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. |
| name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
LuceneStandardTokenizerV2
Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
| name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
MagnitudeScoringFunction
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico.
| Name | Tipo | Description |
|---|---|---|
| boost |
number (double) |
Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0. |
| fieldName |
string |
O nome do campo usado como entrada para a função de pontuação. |
| interpolation |
Um valor que indica como o impulsionamento será interpolado entre as pontuações dos documentos; o padrão é "Linear". |
|
| magnitude |
Valores de parâmetros para a função de pontuação de magnitude. |
|
| type |
string:
magnitude |
Tipo de Função de Pontuação. |
MagnitudeScoringParameters
Fornece valores de parâmetros para uma função de pontuação de magnitude.
| Name | Tipo | Description |
|---|---|---|
| boostingRangeEnd |
number (double) |
O valor de campo no qual o impulsionamento termina. |
| boostingRangeStart |
number (double) |
O valor do campo no qual o impulsionamento começa. |
| constantBoostBeyondRange |
boolean |
Um valor que indica se deve ser aplicado um impulso constante para valores de campo além do valor final do intervalo; O padrão é false. |
MappingCharFilter
Um filtro de caracteres que aplica mapeamentos definidos com a opção mapeamentos. A correspondência é gananciosa (a correspondência do padrão mais longo num dado ponto vence). A substituição pode ser a cadeia de caracteres vazia. Este filtro de caracteres é implementado usando Apache Lucene.
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
| mappings |
string[] |
Uma lista de mapeamentos do seguinte formato: "a=>b" (todas as ocorrências do caractere "a" serão substituídas pelo caractere "b"). |
| name |
string |
O nome do filtro char. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
MicrosoftLanguageStemmingTokenizer
Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas base.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| isSearchTokenizer |
boolean |
False |
Um valor que indica como o tokenizador é usado. Defina como true se usado como o tokenizador de pesquisa, defina como false se usado como o tokenizador de indexação. O valor predefinido é falso. |
| language |
A língua a utilizar. O padrão é inglês. |
||
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
O comprimento máximo do token. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Tokens com mais de 300 caracteres são primeiro divididos em tokens de comprimento 300 e, em seguida, cada um desses tokens é dividido com base no conjunto de comprimento máximo do token. O padrão é 255. |
| name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
MicrosoftLanguageTokenizer
Divide o texto usando regras específicas do idioma.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| isSearchTokenizer |
boolean |
False |
Um valor que indica como o tokenizador é usado. Defina como true se usado como o tokenizador de pesquisa, defina como false se usado como o tokenizador de indexação. O valor predefinido é falso. |
| language |
A língua a utilizar. O padrão é inglês. |
||
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
O comprimento máximo do token. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Tokens com mais de 300 caracteres são primeiro divididos em tokens de comprimento 300 e, em seguida, cada um desses tokens é dividido com base no conjunto de comprimento máximo do token. O padrão é 255. |
| name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
MicrosoftStemmingTokenizerLanguage
Lista as linguagens suportadas pelo tokenizador de stemming de linguagem da Microsoft.
| Valor | Description |
|---|---|
| arabic |
Seleciona o tokenizador stemming da Microsoft para árabe. |
| bangla |
Seleciona o tokenizador stemming da Microsoft para o Bangla. |
| bulgarian |
Seleciona o tokenizador stemming da Microsoft para búlgaro. |
| catalan |
Seleciona o tokenizador stemming da Microsoft para catalão. |
| croatian |
Seleciona o tokenizador stemming da Microsoft para croata. |
| czech |
Seleciona o tokenizador stemming da Microsoft para checo. |
| danish |
Seleciona o tokenizador de stemming da Microsoft para dinamarquês. |
| dutch |
Seleciona o tokenizador stemming da Microsoft para holandês. |
| english |
Seleciona o tokenizador stemming da Microsoft para inglês. |
| estonian |
Seleciona o tokenizador stemming da Microsoft para o estónio. |
| finnish |
Seleciona o tokenizador stemming da Microsoft para finlandês. |
| french |
Seleciona o tokenizador stemming da Microsoft para francês. |
| german |
Seleciona o tokenizador stemming da Microsoft para alemão. |
| greek |
Seleciona o tokenizador stemming da Microsoft para grego. |
| gujarati |
Seleciona o tokenizador stemming da Microsoft para Gujarati. |
| hebrew |
Seleciona o tokenizador stemming da Microsoft para hebraico. |
| hindi |
Seleciona o tokenizador stemming da Microsoft para hindi. |
| hungarian |
Seleciona o tokenizador stemming da Microsoft para húngaro. |
| icelandic |
Seleciona o tokenizador stemming da Microsoft para islandês. |
| indonesian |
Seleciona o tokenizador stemming da Microsoft para indonésio. |
| italian |
Seleciona o tokenizador stemming da Microsoft para italiano. |
| kannada |
Seleciona o tokenizador de stemming da Microsoft para canarês. |
| latvian |
Seleciona o tokenizador stemming da Microsoft para o letão. |
| lithuanian |
Seleciona o tokenizador stemming da Microsoft para o lituano. |
| malay |
Seleciona o tokenizador de stemming da Microsoft para o malaio. |
| malayalam |
Seleciona o tokenizador stemming da Microsoft para Malayalam. |
| marathi |
Seleciona o tokenizador stemming da Microsoft para o marata. |
| norwegianBokmaal |
Seleciona o Microsoft stemming tokenizer para norueguês (Bokmål). |
| polish |
Seleciona o tokenizador stemming da Microsoft para polaco. |
| portuguese |
Seleciona o tokenizador stemming da Microsoft para português. |
| portugueseBrazilian |
Seleciona o tokenizador stemming da Microsoft para português (Brasil). |
| punjabi |
Seleciona o tokenizador stemming da Microsoft para Punjabi. |
| romanian |
Seleciona o tokenizador stemming da Microsoft para romeno. |
| russian |
Seleciona o tokenizador de stemming da Microsoft para russo. |
| serbianCyrillic |
Seleciona o tokenizador stemming da Microsoft para sérvio (cirílico). |
| serbianLatin |
Seleciona o tokenizador stemming da Microsoft para sérvio (latim). |
| slovak |
Seleciona o tokenizador stemming da Microsoft para eslovaco. |
| slovenian |
Seleciona o tokenizador de stemming da Microsoft para o esloveno. |
| spanish |
Seleciona o tokenizador stemming da Microsoft para espanhol. |
| swedish |
Seleciona o tokenizador stemming da Microsoft para sueco. |
| tamil |
Seleciona o tokenizador stemming da Microsoft para tâmil. |
| telugu |
Seleciona o tokenizador stemming da Microsoft para Telugu. |
| turkish |
Seleciona o tokenizador stemming da Microsoft para turco. |
| ukrainian |
Seleciona o tokenizador stemming da Microsoft para ucraniano. |
| urdu |
Seleciona o tokenizador stemming da Microsoft para urdu. |
MicrosoftTokenizerLanguage
Lista as linguagens suportadas pelo tokenizador de linguagem da Microsoft.
| Valor | Description |
|---|---|
| bangla |
Seleciona o tokenizador Microsoft para Bangla. |
| bulgarian |
Seleciona o tokenizador Microsoft para búlgaro. |
| catalan |
Seleciona o tokenizador Microsoft para catalão. |
| chineseSimplified |
Seleciona o tokenizador Microsoft para chinês (Simplificado). |
| chineseTraditional |
Seleciona o tokenizador Microsoft para chinês (Tradicional). |
| croatian |
Seleciona o tokenizador Microsoft para croata. |
| czech |
Seleciona o tokenizador Microsoft para checo. |
| danish |
Seleciona o tokenizador Microsoft para dinamarquês. |
| dutch |
Seleciona o tokenizador Microsoft para holandês. |
| english |
Seleciona o tokenizador Microsoft para inglês. |
| french |
Seleciona o tokenizador Microsoft para francês. |
| german |
Seleciona o tokenizador Microsoft para alemão. |
| greek |
Seleciona o tokenizador Microsoft para o grego. |
| gujarati |
Seleciona o tokenizador Microsoft para Gujarati. |
| hindi |
Seleciona o tokenizador da Microsoft para hindi. |
| icelandic |
Seleciona o tokenizador Microsoft para islandês. |
| indonesian |
Seleciona o tokenizador Microsoft para indonésio. |
| italian |
Seleciona o tokenizador Microsoft para italiano. |
| japanese |
Seleciona o tokenizador Microsoft para japonês. |
| kannada |
Seleciona o tokenizador Microsoft para Kannada. |
| korean |
Seleciona o tokenizador Microsoft para coreano. |
| malay |
Seleciona o tokenizador Microsoft para malaio. |
| malayalam |
Seleciona o tokenizador Microsoft para malaiala. |
| marathi |
Seleciona o tokenizador Microsoft para Marathi. |
| norwegianBokmaal |
Seleciona o tokenizador Microsoft para norueguês (Bokmål). |
| polish |
Seleciona o tokenizador Microsoft para polaco. |
| portuguese |
Seleciona o tokenizador Microsoft para português. |
| portugueseBrazilian |
Seleciona o tokenizador Microsoft para português (Brasil). |
| punjabi |
Seleciona o tokenizador Microsoft para Punjabi. |
| romanian |
Seleciona o tokenizador Microsoft para romeno. |
| russian |
Seleciona o tokenizador Microsoft para russo. |
| serbianCyrillic |
Seleciona o tokenizador Microsoft para sérvio (cirílico). |
| serbianLatin |
Seleciona o tokenizador Microsoft para sérvio (latim). |
| slovenian |
Seleciona o tokenizador Microsoft para o esloveno. |
| spanish |
Seleciona o tokenizador Microsoft para espanhol. |
| swedish |
Seleciona o tokenizador Microsoft para sueco. |
| tamil |
Seleciona o tokenizador Microsoft para tâmil. |
| telugu |
Seleciona o tokenizador Microsoft para Telugu. |
| thai |
Seleciona o tokenizador Microsoft para tailandês. |
| ukrainian |
Seleciona o tokenizador Microsoft para ucraniano. |
| urdu |
Seleciona o tokenizador Microsoft para urdu. |
| vietnamese |
Seleciona o tokenizador Microsoft para vietnamita. |
NGramTokenFilter
Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| maxGram |
integer (int32) |
2 |
O comprimento máximo de n-gramas. O padrão é 2. |
| minGram |
integer (int32) |
1 |
O comprimento mínimo de n-gramas. A predefinição é 1. Deve ser menor que o valor de maxGram. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
NGramTokenFilterV2
Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
O comprimento máximo de n-gramas. O padrão é 2. O máximo é de 300. |
| minGram |
integer (int32) maximum: 300 |
1 |
O comprimento mínimo de n-gramas. A predefinição é 1. O máximo é de 300. Deve ser menor que o valor de maxGram. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
NGramTokenizer
Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Este tokenizador é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
O comprimento máximo de n-gramas. O padrão é 2. O máximo é de 300. |
| minGram |
integer (int32) maximum: 300 |
1 |
O comprimento mínimo de n-gramas. A predefinição é 1. O máximo é de 300. Deve ser menor que o valor de maxGram. |
| name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| tokenChars |
Classes de caracteres para manter nos tokens. |
PathHierarchyTokenizerV2
Tokenizador para hierarquias semelhantes a caminhos. Este tokenizador é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| delimiter |
string maxLength: 1 |
/ |
O caractere delimitador a ser usado. O padrão é "/". |
| maxTokenLength |
integer (int32) maximum: 300 |
300 |
O comprimento máximo do token. O padrão e máximo é 300. |
| name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| replacement |
string maxLength: 1 |
/ |
Um valor que, se definido, substitui o caractere delimitador. O padrão é "/". |
| reverse |
boolean |
False |
Um valor que indica se os tokens devem ser gerados em ordem inversa. O valor predefinido é falso. |
| skip |
integer (int32) |
0 |
O número de tokens iniciais a serem ignorados. O padrão é 0. |
PatternAnalyzer
Separa o texto de forma flexível em termos através de um padrão de expressão regular. Este analisador é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| flags |
string |
Flags de expressão regular, especificados como uma cadeia separada de valores RegexFlags por '|'. |
|
| lowercase |
boolean |
True |
Um valor que indica se os termos devem ser minúsculos. A predefinição é verdadeira. |
| name |
string |
O nome do analisador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| pattern |
string |
\W+ |
Um padrão de expressão regular para corresponder aos separadores de token. Padrão é uma expressão que corresponde a um ou mais caracteres que não são palavras. |
| stopwords |
string[] |
Uma lista de palavras-chave. |
PatternCaptureTokenFilter
Usa regexes Java para emitir vários tokens - um para cada grupo de captura em um ou mais padrões. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| patterns |
string[] |
Uma lista de padrões a serem comparados a cada token. |
|
| preserveOriginal |
boolean |
True |
Um valor que indica se o token original deve ser retornado, mesmo que um dos padrões corresponda. A predefinição é verdadeira. |
PatternReplaceCharFilter
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de caracteres é implementado usando Apache Lucene.
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
| name |
string |
O nome do filtro char. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
| pattern |
string |
Um padrão de expressão regular. |
| replacement |
string |
O texto de substituição. |
PatternReplaceTokenFilter
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
| pattern |
string |
Um padrão de expressão regular. |
| replacement |
string |
O texto de substituição. |
PatternTokenizer
Tokenizador que usa a correspondência de padrões regex para construir tokens distintos. Este tokenizador é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| flags |
string |
Flags de expressão regular, especificados como uma cadeia separada de valores RegexFlags por '|'. |
|
| group |
integer (int32) |
-1 |
O ordinal baseado em zero do grupo correspondente no padrão de expressão regular a ser extraído em tokens. Use -1 se quiser usar o padrão inteiro para dividir a entrada em tokens, independentemente dos grupos correspondentes. O padrão é -1. |
| name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| pattern |
string |
\W+ |
Um padrão de expressão regular para corresponder aos separadores de token. Padrão é uma expressão que corresponde a um ou mais caracteres que não são palavras. |
PhoneticEncoder
Identifica o tipo de codificador fonético a ser usado com um PhoneticTokenFilter.
| Valor | Description |
|---|---|
| metaphone |
Codifica um token em um valor de metafone. |
| doubleMetaphone |
Codifica um token em um valor de metafone duplo. |
| soundex |
Codifica um token em um valor Soundex. |
| refinedSoundex |
Codifica um token em um valor Refined Soundex. |
| caverphone1 |
Codifica um token em um valor Caverphone 1.0. |
| caverphone2 |
Codifica um token em um valor Caverphone 2.0. |
| cologne |
Codifica um token em um valor fonético de Colônia. |
| nysiis |
Codifica um token em um valor NYSIIS. |
| koelnerPhonetik |
Codifica um token usando o algoritmo Kölner Phonetik. |
| haasePhonetik |
Codifica um token usando o refinamento Haase do algoritmo Kölner Phonetik. |
| beiderMorse |
Codifica um token em um valor Beider-Morse. |
PhoneticTokenFilter
Crie tokens para correspondências fonéticas. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| encoder | metaphone |
O codificador fonético a ser usado. O padrão é "metafone". |
|
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| replace |
boolean |
True |
Um valor que indica se os tokens codificados devem substituir os tokens originais. Se false, tokens codificados são adicionados como sinônimos. A predefinição é verdadeira. |
RankingOrder
Representa a pontuação a ser usada para a ordem de classificação dos documentos.
| Valor | Description |
|---|---|
| BoostedRerankerScore |
Define a ordem de classificação como BoostedRerankerScore |
| RerankerScore |
Define a ordem de classificação como ReRankerScore |
RescoringOptions
Contém as opções para pontuação.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| defaultOversampling |
number (double) |
Fator de sobreamostragem padrão. A sobreamostragem recupera um conjunto maior de documentos potenciais para compensar a perda de resolução devido à quantização. Isso aumenta o conjunto de resultados que serão remarcados em vetores de precisão total. O valor mínimo é 1, o que significa que não há sobreamostragem (1x). Este parâmetro só pode ser definido quando 'enableRescoring' é true. Valores mais altos melhoram a recuperação em detrimento da latência. |
|
| enableRescoring |
boolean |
True |
Se definido como true, após a pesquisa inicial nos vetores compactados, as pontuações de similaridade são recalculadas usando os vetores de precisão total. Isso melhorará a recuperação em detrimento da latência. |
| rescoreStorageMethod |
enum:
|
preserveOriginals |
Controla o método de armazenamento para vetores originais. Essa configuração é imutável. |
ScalarQuantizationCompression
Contém opções de configuração específicas para o método de compressão de quantização escalar usado durante a indexação e consulta.
| Name | Tipo | Description |
|---|---|---|
| kind |
string:
scalar |
Tipo de Pesquisa VetorialCompressão. |
| name |
string |
O nome a ser associado a essa configuração específica. |
| rescoringOptions |
Contém as opções para pontuação. |
|
| scalarQuantizationParameters |
Contém os parâmetros específicos da Quantização Escalar. |
|
| truncationDimension |
integer (int32) |
O número de dimensões para truncar os vetores. Truncar os vetores reduz o tamanho dos vetores e a quantidade de dados que precisam ser transferidos durante a pesquisa. Isso pode economizar custos de armazenamento e melhorar o desempenho da pesquisa às custas da recuperação. Ele só deve ser usado para incorporações treinadas com Matryoshka Representation Learning (MRL), como OpenAI text-embedding-3-large (small). O valor padrão é null, o que significa que não há truncamento. |
ScalarQuantizationParameters
Contém os parâmetros específicos da Quantização Escalar.
| Name | Tipo | Description |
|---|---|---|
| quantizedDataType |
O tipo de dados quantizados de valores vetoriais compactados. |
ScoringFunctionAggregation
Define a função de agregação usada para combinar os resultados de todas as funções de pontuação em um perfil de pontuação.
| Valor | Description |
|---|---|
| sum |
Aumente as pontuações pela soma de todos os resultados da função de pontuação. |
| average |
Aumente as pontuações pela média de todos os resultados da função de pontuação. |
| minimum |
Aumente as pontuações pelo mínimo de todos os resultados da função de pontuação. |
| maximum |
Aumente as pontuações pelo máximo de todos os resultados da função de pontuação. |
| firstMatching |
Aumente as pontuações usando a primeira função de pontuação aplicável no perfil de pontuação. |
| product |
Aumente as pontuações pelo produto de todos os resultados da função de pontuação. |
ScoringFunctionInterpolation
Define a função usada para interpolar o aumento da pontuação em uma variedade de documentos.
| Valor | Description |
|---|---|
| linear |
Aumenta as pontuações em uma quantidade linearmente decrescente. Esta é a interpolação padrão para funções de pontuação. |
| constant |
Aumenta as pontuações por um fator constante. |
| quadratic |
Aumenta as pontuações em uma quantidade que diminui quadraticamente. Os impulsos diminuem lentamente para pontuações mais altas e mais rapidamente à medida que as pontuações diminuem. Esta opção de interpolação não é permitida em funções de pontuação de tags. |
| logarithmic |
Aumenta as pontuações em uma quantidade que diminui logaritmicamente. Os impulsos diminuem rapidamente para pontuações mais altas e mais lentamente à medida que as pontuações diminuem. Esta opção de interpolação não é permitida em funções de pontuação de tags. |
ScoringProfile
Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa.
| Name | Tipo | Description |
|---|---|---|
| functionAggregation |
Um valor que indica como os resultados de funções de pontuação individuais devem ser combinados. O padrão é "Soma". Ignorado se não houver funções de pontuação. |
|
| functions | ScoringFunction[]: |
A coleção de funções que influenciam a pontuação de documentos. |
| name |
string |
O nome do perfil de pontuação. |
| text |
Parâmetros que aumentam a pontuação com base em correspondências de texto em determinados campos de índice. |
SearchField
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.
| Name | Tipo | Description |
|---|---|---|
| analyzer |
O nome do analisador a ser usado para o campo. Essa opção pode ser usada apenas com campos pesquisáveis e não pode ser definida junto com searchAnalyzer ou indexAnalyzer. Uma vez que o analisador é escolhido, ele não pode ser alterado para o campo. Deve ser nulo para campos complexos. |
|
| dimensions |
integer (int32) minimum: 2maximum: 4096 |
A dimensionalidade do campo vetorial. |
| facetable |
boolean |
Um valor que indica se o campo deve ser referenciado em consultas de facetas. Normalmente usado em uma apresentação de resultados de pesquisa que inclui contagem de visitas por categoria (por exemplo, pesquisar câmeras digitais e ver acessos por marca, por megapixels, por preço e assim por diante). Esta propriedade deve ser nula para campos complexos. Os campos do tipo Edm.GeographyPoint ou Collection(Edm.GeographyPoint) não podem ser facial. O padrão é verdadeiro para todos os outros campos simples. |
| fields |
Uma lista de subcampos se este for um campo do tipo Edm.ComplexType ou Collection(Edm.ComplexType). Deve ser nulo ou vazio para campos simples. |
|
| filterable |
boolean |
Um valor que indica se o campo deve ser referenciado em consultas $filter. Filtrável difere de pesquisável em como as cadeias de caracteres são manipuladas. Os campos do tipo Edm.String ou Collection(Edm.String) que podem ser filtrados não sofrem quebra de palavras, portanto, as comparações são apenas para correspondências exatas. Por exemplo, se você definir tal campo f como "dia ensolarado", $filter=f eq 'ensolarado' não encontrará correspondências, mas $filter=f eq 'dia ensolarado' irá. Esta propriedade deve ser nula para campos complexos. O padrão é true para campos simples e null para campos complexos. |
| indexAnalyzer |
O nome do analisador usado no momento da indexação para o campo. Esta opção só pode ser usada com campos pesquisáveis. Ele deve ser definido junto com searchAnalyzer e não pode ser definido junto com a opção do analisador. Esta propriedade não pode ser definida como o nome de um analisador de linguagem; Em vez disso, use a propriedade Analyzer se precisar de um analisador de linguagem. Uma vez que o analisador é escolhido, ele não pode ser alterado para o campo. Deve ser nulo para campos complexos. |
|
| key |
boolean |
Um valor que indica se o campo identifica exclusivamente documentos no índice. Exatamente um campo de nível superior em cada índice deve ser escolhido como o campo chave e deve ser do tipo Edm.String. Os campos-chave podem ser usados para pesquisar documentos diretamente e atualizar ou excluir documentos específicos. O padrão é false para campos simples e null para campos complexos. |
| name |
string |
O nome do campo, que deve ser exclusivo dentro da coleção de campos do campo de índice ou pai. |
| normalizer |
O nome do normalizador a ser usado para o campo. Esta opção só pode ser usada com campos com filtrável, classificável ou facetable ativado. Uma vez que o normalizador é escolhido, ele não pode ser alterado para o campo. Deve ser nulo para campos complexos. |
|
| retrievable |
boolean |
Um valor que indica se o campo pode ser retornado em um resultado de pesquisa. Você pode desabilitar essa opção se quiser usar um campo (por exemplo, margem) como filtro, classificação ou mecanismo de pontuação, mas não quiser que o campo fique visível para o usuário final. Essa propriedade deve ser true para campos chave e deve ser nula para campos complexos. Esta propriedade pode ser alterada em campos existentes. A habilitação dessa propriedade não causa nenhum aumento nos requisitos de armazenamento de índice. O padrão é true para campos simples, false para campos vetoriais e null para campos complexos. |
| searchAnalyzer |
O nome do analisador usado no momento da pesquisa para o campo. Esta opção só pode ser usada com campos pesquisáveis. Ele deve ser definido junto com o indexAnalyzer e não pode ser definido junto com a opção do analisador. Esta propriedade não pode ser definida como o nome de um analisador de linguagem; Em vez disso, use a propriedade Analyzer se precisar de um analisador de linguagem. Este analisador pode ser atualizado em um campo existente. Deve ser nulo para campos complexos. |
|
| searchable |
boolean |
Um valor que indica se o campo pode ser pesquisado em texto completo. Isso significa que ele passará por análises, como quebra de palavras durante a indexação. Se você definir um campo pesquisável para um valor como "dia ensolarado", internamente ele será dividido nos tokens individuais "ensolarado" e "dia". Isso permite pesquisas de texto completo para esses termos. Os campos do tipo Edm.String ou Collection(Edm.String) são pesquisáveis por padrão. Essa propriedade deve ser false para campos simples de outros tipos de dados que não sejam de cadeia de caracteres e deve ser nula para campos complexos. Nota: os campos pesquisáveis consomem espaço extra no índice para acomodar versões tokenizadas adicionais do valor do campo para pesquisas de texto completo. Se quiser economizar espaço no índice e não precisar de um campo para ser incluído nas pesquisas, defina pesquisável como false. |
| sortable |
boolean |
Um valor que indica se o campo deve ser referenciado em expressões $orderby. Por padrão, o mecanismo de pesquisa classifica os resultados por pontuação, mas em muitas experiências os usuários vão querer classificar por campos nos documentos. Um campo simples só pode ser classificado se tiver um único valor (tem um único valor no âmbito do documento principal). Os campos de recolha simples não podem ser ordenados, uma vez que têm vários valores. Subcampos simples de coleções complexas também são multivalorados e, portanto, não podem ser classificados. Isso é verdade, quer seja um campo pai imediato ou um campo ancestral, que constitui a coleção complexa. Campos complexos não podem ser classificáveis e a propriedade sortable deve ser nula para esses campos. O padrão para classificável é true para campos simples de valor único, false para campos simples de vários valores e null para campos complexos. |
| stored |
boolean |
Um valor imutável que indica se o campo será persistido separadamente no disco para ser retornado em um resultado de pesquisa. Você pode desativar essa opção se não planeja retornar o conteúdo do campo em uma resposta de pesquisa para economizar na sobrecarga de armazenamento. Isso só pode ser definido durante a criação do índice e somente para campos vetoriais. Esta propriedade não pode ser alterada para campos existentes ou definida como false para novos campos. Se essa propriedade for definida como false, a propriedade 'retrievable' também deverá ser definida como false. Essa propriedade deve ser true ou unset para campos chave, para novos campos e para campos não vetoriais, e deve ser nula para campos complexos. A desativação dessa propriedade reduzirá os requisitos de armazenamento do índice. O padrão é true para campos vetoriais. |
| synonymMaps |
string[] |
Uma lista dos nomes dos mapas de sinónimos a associar a este campo. Esta opção só pode ser usada com campos pesquisáveis. Atualmente, apenas um mapa de sinônimo por campo é suportado. A atribuição de um mapa de sinônimo a um campo garante que os termos de consulta direcionados a esse campo sejam expandidos no momento da consulta usando as regras no mapa de sinônimos. Este atributo pode ser alterado em campos existentes. Deve ser nulo ou uma coleção vazia para campos complexos. |
| type |
O tipo de dados do campo. |
|
| vectorEncoding |
O formato de codificação para interpretar o conteúdo do campo. |
|
| vectorSearchProfile |
string |
O nome do perfil de pesquisa vetorial que especifica o algoritmo e o vetorizador a serem usados ao pesquisar o campo vetorial. |
SearchFieldDataType
Define o tipo de dados de um campo em um índice de pesquisa.
| Valor | Description |
|---|---|
| Edm.String |
Indica que um campo contém uma cadeia de caracteres. |
| Edm.Int32 |
Indica que um campo contém um inteiro assinado de 32 bits. |
| Edm.Int64 |
Indica que um campo contém um inteiro assinado de 64 bits. |
| Edm.Double |
Indica que um campo contém um número de ponto flutuante de precisão dupla IEEE. |
| Edm.Boolean |
Indica que um campo contém um valor booleano (true ou false). |
| Edm.DateTimeOffset |
Indica que um campo contém um valor de data/hora, incluindo informações de fuso horário. |
| Edm.GeographyPoint |
Indica que um campo contém uma geolocalização em termos de longitude e latitude. |
| Edm.ComplexType |
Indica que um campo contém um ou mais objetos complexos que, por sua vez, têm subcampos de outros tipos. |
| Edm.Single |
Indica que um campo contém um número de ponto flutuante de precisão única. Isso só é válido quando usado com Collection(Edm.Single). |
| Edm.Half |
Indica que um campo contém um número de ponto flutuante de meia precisão. Isso só é válido quando usado com Collection(Edm.Half). |
| Edm.Int16 |
Indica que um campo contém um inteiro assinado de 16 bits. Isso só é válido quando usado com Collection(Edm.Int16). |
| Edm.SByte |
Indica que um campo contém um inteiro assinado de 8 bits. Isso só é válido quando usado com Collection(Edm.SByte). |
| Edm.Byte |
Indica que um campo contém um inteiro não assinado de 8 bits. Isso só é válido quando usado com Collection(Edm.Byte). |
SearchIndex
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice.
| Name | Tipo | Description |
|---|---|---|
| @odata.etag |
string |
O ETag do índice. |
| analyzers | LexicalAnalyzer[]: |
Os analisadores para o índice. |
| charFilters | CharFilter[]: |
Os filtros de caracteres para o índice. |
| corsOptions |
Opções para controlar o Cross-Origin Resource Sharing (CORS) para o índice. |
|
| defaultScoringProfile |
string |
O nome do perfil de pontuação a ser usado se nenhum for especificado na consulta. Se essa propriedade não estiver definida e nenhum perfil de pontuação for especificado na consulta, a pontuação padrão (tf-idf) será usada. |
| description |
string |
A descrição do índice. |
| encryptionKey |
Uma descrição de uma chave de criptografia que você cria no Cofre de Chaves do Azure. Esta chave é usada para fornecer um nível adicional de encriptação em repouso para os seus dados quando quer total garantia de que ninguém, nem sequer a Microsoft, pode desencriptar os seus dados. Depois de ter encriptado os seus dados, estes permanecerão sempre encriptados. O serviço de pesquisa ignorará as tentativas de definir essa propriedade como null. Você pode alterar essa propriedade conforme necessário se quiser girar sua chave de criptografia; Os seus dados não serão afetados. A criptografia com chaves gerenciadas pelo cliente não está disponível para serviços de pesquisa gratuitos e só está disponível para serviços pagos criados em ou após 1º de janeiro de 2019. |
|
| fields |
Os campos do índice. |
|
| name |
string |
O nome do índice. |
| normalizers | LexicalNormalizer[]: |
Os normalizadores para o índice. |
| scoringProfiles |
Os perfis de pontuação para o índice. |
|
| semantic |
Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos. |
|
| similarity | SimilarityAlgorithm: |
O tipo de algoritmo de semelhança a ser usado ao pontuar e classificar os documentos correspondentes a uma consulta de pesquisa. O algoritmo de semelhança só pode ser definido no momento da criação do índice e não pode ser modificado em índices existentes. Se null, o algoritmo ClassicSimilarity é usado. |
| suggesters |
As sugestões para o índice. |
|
| tokenFilters |
TokenFilter[]:
|
O token filtra o índice. |
| tokenizers | LexicalTokenizer[]: |
Os tokenizadores para o índice. |
| vectorSearch |
Contém opções de configuração relacionadas à pesquisa vetorial. |
SearchIndexerDataNoneIdentity
Limpa a propriedade identity de uma fonte de dados.
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de identidade. |
SearchIndexerDataUserAssignedIdentity
Especifica a identidade a ser usada por uma fonte de dados.
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Um fragmento de URI especificando o tipo de identidade. |
| userAssignedIdentity |
string |
A ID de recurso do Azure totalmente qualificada de uma identidade gerenciada atribuída ao usuário normalmente no formato "/subscriptions/12345678-1234-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId" que deveria ter sido atribuída ao serviço de pesquisa. |
SearchResourceEncryptionKey
Uma chave de criptografia gerenciada pelo cliente no Cofre de Chaves do Azure. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso, como índices e mapas de sinônimos.
| Name | Tipo | Description |
|---|---|---|
| accessCredentials.applicationId |
string |
Uma ID de Aplicativo AAD que recebeu as permissões de acesso necessárias ao Cofre da Chave do Azure que deve ser usada ao criptografar seus dados em repouso. A ID do aplicativo não deve ser confundida com a ID do objeto do seu aplicativo AAD. |
| accessCredentials.applicationSecret |
string |
A chave de autenticação do aplicativo AAD especificado. |
| identity | SearchIndexerDataIdentity: |
Uma identidade gerenciada explícita a ser usada para essa chave de criptografia. Se não for especificado e a propriedade de credenciais de acesso for nula, a identidade gerenciada atribuída ao sistema será usada. Na atualização do recurso, se a identidade explícita não for especificada, ela permanecerá inalterada. Se "nenhum" for especificado, o valor dessa propriedade será limpo. |
| keyVaultKeyName |
string |
O nome da sua chave do Cofre da Chave do Azure a ser usada para criptografar seus dados em repouso. |
| keyVaultKeyVersion |
string |
A versão da chave do Cofre da Chave do Azure a ser usada para criptografar seus dados em repouso. |
| keyVaultUri |
string |
O URI do seu Cofre da Chave do Azure, também conhecido como nome DNS, que contém a chave a ser usada para criptografar seus dados em repouso. Um exemplo de URI pode ser |
SearchSuggester
Define como a API Sugerir deve ser aplicada a um grupo de campos no índice.
| Name | Tipo | Description |
|---|---|---|
| name |
string |
O nome do sugestionador. |
| searchMode |
enum:
analyzing |
Um valor que indica as capacidades do sugestionador. |
| sourceFields |
string[] |
A lista de nomes de campos aos quais o sugeridor se aplica. Cada campo deve ser pesquisável. |
SemanticConfiguration
Define uma configuração específica a ser usada no contexto de recursos semânticos.
| Name | Tipo | Description |
|---|---|---|
| name |
string |
O nome da configuração semântica. |
| prioritizedFields |
Descreve os campos de título, conteúdo e palavra-chave a serem usados para classificação semântica, legendas, destaques e respostas. Pelo menos uma das três subpropriedades (titleField, priorizdKeywordsFields e priorizdContentFields) precisa ser definida. |
|
| rankingOrder |
Especifica o tipo de pontuação a ser usado para a ordem de classificação dos resultados da pesquisa. |
SemanticField
Um campo que é usado como parte da configuração semântica.
| Name | Tipo | Description |
|---|---|---|
| fieldName |
string |
Nome do ficheiro |
SemanticPrioritizedFields
Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, destaques e respostas.
| Name | Tipo | Description |
|---|---|---|
| prioritizedContentFields |
Define os campos de conteúdo a serem usados para classificação semântica, legendas, destaques e respostas. Para obter o melhor resultado, os campos selecionados devem conter texto em linguagem natural. A ordem dos campos na matriz representa sua prioridade. Os campos com prioridade mais baixa podem ficar truncados se o conteúdo for longo. |
|
| prioritizedKeywordsFields |
Define os campos de palavra-chave a serem usados para classificação semântica, legendas, destaques e respostas. Para obter o melhor resultado, os campos selecionados devem conter uma lista de palavras-chave. A ordem dos campos na matriz representa sua prioridade. Os campos com prioridade mais baixa podem ficar truncados se o conteúdo for longo. |
|
| titleField |
Define o campo de título a ser usado para classificação semântica, legendas, destaques e respostas. Se não tiver um campo de título no índice, deixe-o em branco. |
SemanticSearch
Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos.
| Name | Tipo | Description |
|---|---|---|
| configurations |
As configurações semânticas para o índice. |
|
| defaultConfiguration |
string |
Permite definir o nome de uma configuração semântica padrão em seu índice, tornando opcional transmiti-lo como um parâmetro de consulta sempre. |
ShingleTokenFilter
Cria combinações de tokens como um único token. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| filterToken |
string |
_ |
A cadeia de caracteres a ser inserida para cada posição na qual não há token. O padrão é um sublinhado ("_"). |
| maxShingleSize |
integer (int32) minimum: 2 |
2 |
O tamanho máximo da telha. O valor padrão e mínimo é 2. |
| minShingleSize |
integer (int32) minimum: 2 |
2 |
O tamanho mínimo da telha. O valor padrão e mínimo é 2. Deve ser menor que o valor de maxShingleSize. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| outputUnigrams |
boolean |
True |
Um valor que indica se o fluxo de saída conterá os tokens de entrada (unigramas), bem como telhas. A predefinição é verdadeira. |
| outputUnigramsIfNoShingles |
boolean |
False |
Um valor que indica a saída de unigramas para os momentos em que não há telhas disponíveis. Essa propriedade tem precedência quando outputUnigrams é definido como false. O valor predefinido é falso. |
| tokenSeparator |
string |
A cadeia de caracteres a ser usada ao unir tokens adjacentes para formar uma telha. O padrão é um único espaço (" "). |
SnowballTokenFilter
Um filtro que deriva palavras usando um lematizador gerado por Bola-de-Neve. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
| language |
A língua a utilizar. |
|
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
SnowballTokenFilterLanguage
O idioma a ser usado para um filtro de token do Snowball.
| Valor | Description |
|---|---|
| armenian |
Seleciona o tokenizador Lucene Snowball para armênio. |
| basque |
Seleciona o tokenizador Lucene Snowball para basco. |
| catalan |
Seleciona o tokenizador Lucene Snowball para catalão. |
| danish |
Seleciona o tokenizador Lucene Snowball para dinamarquês. |
| dutch |
Seleciona o tokenizador Lucene Snowball para holandês. |
| english |
Seleciona o tokenizador de derivação Lucene Snowball para inglês. |
| finnish |
Seleciona o tokenizador de derivação Lucene Snowball para finlandês. |
| french |
Seleciona o tokenizador Lucene Snowball para francês. |
| german |
Seleciona o tokenizador Lucene Snowball para alemão. |
| german2 |
Seleciona o tokenizador de derivação Lucene Snowball que usa o algoritmo variante alemão. |
| hungarian |
Seleciona o tokenizador Lucene Snowball para húngaro. |
| italian |
Seleciona o tokenizador Lucene Snowball para italiano. |
| kp |
Seleciona o tokenizador de derivação Lucene Snowball para holandês que usa o algoritmo de derivação Kraaij-Pohlmann. |
| lovins |
Seleciona o tokenizador de derivação Lucene Snowball para inglês que usa o algoritmo de derivação Lovins. |
| norwegian |
Seleciona o tokenizador Lucene Snowball para norueguês. |
| porter |
Seleciona o tokenizador de derivação Lucene Snowball para inglês que usa o algoritmo de derivação de Porter. |
| portuguese |
Seleciona o tokenizador Lucene Snowball para português. |
| romanian |
Seleciona o tokenizador Lucene Snowball para romeno. |
| russian |
Seleciona o tokenizador Lucene Snowball para russo. |
| spanish |
Seleciona o tokenizador Lucene Snowball para espanhol. |
| swedish |
Seleciona o tokenizador Lucene Snowball para sueco. |
| turkish |
Seleciona o tokenizador Lucene Snowball para turco. |
StemmerOverrideTokenFilter
Fornece a capacidade de substituir outros filtros de derivação com derivação personalizada baseada em dicionário. Quaisquer termos dicionários serão marcados como palavras-chave para que não sejam engessados com lematizadores ao longo da cadeia. Deve ser colocado antes de quaisquer filtros de derivação. Este filtro de token é implementado usando Apache Lucene. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
| rules |
string[] |
Uma lista de regras derivadas no seguinte formato: "word => stem", por exemplo: "ran => run". |
StemmerTokenFilter
Filtro de derivação específico da linguagem. Este filtro de token é implementado usando Apache Lucene. Veja https://dotnet.territoriali.olinfo.it/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
| language |
A língua a utilizar. |
|
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
StemmerTokenFilterLanguage
A linguagem a ser usada para um filtro de token de lematizador.
| Valor | Description |
|---|---|
| arabic |
Seleciona o tokenizador de derivação Lucene para árabe. |
| armenian |
Seleciona o tokenizador de derivação Lucene para armênio. |
| basque |
Seleciona o tokenizador Lucene para basco. |
| brazilian |
Seleciona o tokenizador de derivação Lucene para português (Brasil). |
| bulgarian |
Seleciona o tokenizador de derivação Lucene para búlgaro. |
| catalan |
Seleciona o tokenizador Lucene para catalão. |
| czech |
Seleciona o tokenizador de derivação Lucene para tcheco. |
| danish |
Seleciona o tokenizador de derivação Lucene para dinamarquês. |
| dutch |
Seleciona o tokenizador de derivação Lucene para holandês. |
| dutchKp |
Seleciona o tokenizador de derivação Lucene para holandês que usa o algoritmo de derivação Kraaij-Pohlmann. |
| english |
Seleciona o tokenizador de derivação Lucene para inglês. |
| lightEnglish |
Seleciona o tokenizador de derivação Lucene para inglês que faz derivação leve. |
| minimalEnglish |
Seleciona o tokenizador de derivação Lucene para inglês que faz o mínimo de derivação. |
| possessiveEnglish |
Seleciona o tokenizador de derivação Lucene para o inglês que remove possessivos finais das palavras. |
| porter2 |
Seleciona o tokenizador de derivação Lucene para inglês que usa o algoritmo de derivação Porter2. |
| lovins |
Seleciona o tokenizador de derivação Lucene para inglês que usa o algoritmo de derivação Lovins. |
| finnish |
Seleciona o tokenizador de derivação Lucene para finlandês. |
| lightFinnish |
Seleciona o tokenizador de derivação Lucene para finlandês que faz derivação leve. |
| french |
Seleciona o tokenizador de derivação Lucene para francês. |
| lightFrench |
Seleciona o tokenizador de derivação Lucene para francês que faz derivação leve. |
| minimalFrench |
Seleciona o tokenizador Lucene stemming para francês que faz o mínimo de derivação. |
| galician |
Seleciona o tokenizador Lucene para galego. |
| minimalGalician |
Seleciona o tokenizador Lucene stemming para galego que faz o mínimo de derivação. |
| german |
Seleciona o tokenizador de derivação Lucene para alemão. |
| german2 |
Seleciona o tokenizador de derivação Lucene que usa o algoritmo variante alemão. |
| lightGerman |
Seleciona o tokenizador de derivação Lucene para alemão que faz derivação leve. |
| minimalGerman |
Seleciona o tokenizador de derivação Lucene para alemão que faz o mínimo de derivação. |
| greek |
Seleciona o tokenizador Lucene para grego. |
| hindi |
Seleciona o tokenizador de derivação Lucene para Hindi. |
| hungarian |
Seleciona o tokenizador Lucene para húngaro. |
| lightHungarian |
Seleciona o tokenizador Lucene stemming para húngaro que faz derivação leve. |
| indonesian |
Seleciona o tokenizador de derivação Lucene para indonésio. |
| irish |
Seleciona o tokenizador Lucene stemming para irlandês. |
| italian |
Seleciona o tokenizador de derivação Lucene para italiano. |
| lightItalian |
Seleciona o tokenizador Lucene stemming para italiano que faz derivação leve. |
| sorani |
Seleciona o tokenizador de derivação Lucene para Sorani. |
| latvian |
Seleciona o tokenizador de derivação Lucene para letão. |
| norwegian |
Seleciona o tokenizador de stemming Lucene para norueguês (Bokmål). |
| lightNorwegian |
Seleciona o tokenizador de stemming Lucene para norueguês (Bokmål) que faz stemming leve. |
| minimalNorwegian |
Seleciona o tokenizador de stemming Lucene para norueguês (Bokmål) que faz stemming mínimo. |
| lightNynorsk |
Seleciona o tokenizador de derivação Lucene para norueguês (Nynorsk) que faz derivação leve. |
| minimalNynorsk |
Seleciona o tokenizador Lucene stemming para norueguês (Nynorsk) que faz o mínimo de derivação. |
| portuguese |
Seleciona o tokenizador Lucene para português. |
| lightPortuguese |
Seleciona o tokenizador Lucene stemming para português que faz derivação leve. |
| minimalPortuguese |
Seleciona o tokenizador Lucene stemming para português que faz o mínimo de derivação. |
| portugueseRslp |
Seleciona o tokenizador de derivação Lucene para português que usa o algoritmo de derivação RSLP. |
| romanian |
Seleciona o tokenizador de derivação Lucene para romeno. |
| russian |
Seleciona o tokenizador de derivação Lucene para russo. |
| lightRussian |
Seleciona o tokenizador de derivação Lucene para russo que faz derivação leve. |
| spanish |
Seleciona o tokenizador de derivação Lucene para espanhol. |
| lightSpanish |
Seleciona o tokenizador de derivação Lucene para espanhol que faz derivação leve. |
| swedish |
Seleciona o tokenizador de derivação Lucene para sueco. |
| lightSwedish |
Seleciona o tokenizador de derivação Lucene para sueco que faz derivação leve. |
| turkish |
Seleciona o tokenizador de derivação Lucene para turco. |
StopAnalyzer
Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Este analisador é implementado usando Apache Lucene.
| Name | Tipo | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
| name |
string |
O nome do analisador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
| stopwords |
string[] |
Uma lista de palavras-chave. |
StopwordsList
Identifica uma lista predefinida de palavras paradas específicas do idioma.
| Valor | Description |
|---|---|
| arabic |
Seleciona a lista de palavras paradas para árabe. |
| armenian |
Seleciona a lista de palavras paradas para armênio. |
| basque |
Seleciona a lista de palavras paradas para basco. |
| brazilian |
Seleciona a lista de palavras paradas para Português (Brasil). |
| bulgarian |
Seleciona a lista de palavras paradas para búlgaro. |
| catalan |
Seleciona a lista de palavras paradas para catalão. |
| czech |
Seleciona a lista de palavras paradas para tcheco. |
| danish |
Seleciona a lista de palavras paradas para dinamarquês. |
| dutch |
Seleciona a lista de palavras paradas para holandês. |
| english |
Seleciona a lista de palavras paradas para inglês. |
| finnish |
Seleciona a lista de palavras paradas para finlandês. |
| french |
Seleciona a lista de palavras paradas para francês. |
| galician |
Seleciona a lista de palavras paradas para galego. |
| german |
Seleciona a lista de palavras paradas para alemão. |
| greek |
Seleciona a lista de palavras paradas para grego. |
| hindi |
Seleciona a lista de palavras paradas para hindi. |
| hungarian |
Seleciona a lista de palavras paradas para húngaro. |
| indonesian |
Seleciona a lista de palavras paradas para indonésio. |
| irish |
Seleciona a lista de palavras paradas para irlandês. |
| italian |
Seleciona a lista de palavras paradas para italiano. |
| latvian |
Seleciona a lista de palavras paradas para letão. |
| norwegian |
Seleciona a lista de palavras paradas para norueguês. |
| persian |
Seleciona a lista de palavras paradas para persa. |
| portuguese |
Seleciona a lista de palavras paradas para português. |
| romanian |
Seleciona a lista de palavras paradas para romeno. |
| russian |
Seleciona a lista de palavras paradas para russo. |
| sorani |
Seleciona a lista de palavras paradas para Sorani. |
| spanish |
Seleciona a lista de palavras paradas para espanhol. |
| swedish |
Seleciona a lista de palavras paradas para sueco. |
| thai |
Seleciona a lista de palavras paradas para tailandês. |
| turkish |
Seleciona a lista de palavras paradas para turco. |
StopwordsTokenFilter
Remove palavras irrelevantes de um fluxo de tokens. Este filtro de token é implementado usando Apache Lucene. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| ignoreCase |
boolean |
False |
Um valor que indica se as maiúsculas e minúsculas devem ser ignoradas. Se verdadeiro, todas as palavras são convertidas em minúsculas primeiro. O valor predefinido é falso. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| removeTrailing |
boolean |
True |
Um valor que indica se o último termo de pesquisa deve ser ignorado se for uma palavra de interrupção. A predefinição é verdadeira. |
| stopwords |
string[] |
A lista de palavras-chave. Esta propriedade e a propriedade stopwords list não podem ser definidas. |
|
| stopwordsList | english |
Uma lista predefinida de palavras de paragem a utilizar. Esta propriedade e a propriedade stopwords não podem ser definidas. O padrão é inglês. |
SynonymTokenFilter
Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| expand |
boolean |
True |
Um valor que indica se todas as palavras na lista de sinônimos (se => notação não for usada) serão mapeadas umas para as outras. Se verdadeiro, todas as palavras na lista de sinônimos (se => notação não for usada) serão mapeadas umas para as outras. A seguinte lista: incrível, inacreditável, fabuloso, incrível é equivalente a: incrível, inacreditável, fabuloso, incrível => incrível, inacreditável, fabuloso, incrível. Se falso, a seguinte lista: incrível, inacreditável, fabuloso, incrível será equivalente a: incrível, inacreditável, fabuloso, incrível => incrível. A predefinição é verdadeira. |
| ignoreCase |
boolean |
False |
Um valor que indica se a entrada deve ser dobrada em maiúsculas e minúsculas para correspondência. O valor predefinido é falso. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| synonyms |
string[] |
Uma lista de sinónimos nos seguintes formatos: 1. incrível, inacreditável, fabuloso => incrível - todos os termos no lado esquerdo de => símbolo serão substituídos por todos os termos em seu lado direito; 2. incrível, inacreditável, fabuloso, incrível - lista separada por vírgulas de palavras equivalentes. Defina a opção expandir para alterar a forma como esta lista é interpretada. |
TagScoringFunction
Define uma função que aumenta pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de tags.
| Name | Tipo | Description |
|---|---|---|
| boost |
number (double) |
Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0. |
| fieldName |
string |
O nome do campo usado como entrada para a função de pontuação. |
| interpolation |
Um valor que indica como o impulsionamento será interpolado entre as pontuações dos documentos; o padrão é "Linear". |
|
| tag |
Valores de parâmetro para a função de pontuação de tag. |
|
| type |
string:
tag |
Tipo de Função de Pontuação. |
TagScoringParameters
Fornece valores de parâmetro para uma função de pontuação de tag.
| Name | Tipo | Description |
|---|---|---|
| tagsParameter |
string |
O nome do parâmetro passado em consultas de pesquisa para especificar a lista de tags a serem comparadas com o campo de destino. |
TextWeights
Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa.
| Name | Tipo | Description |
|---|---|---|
| weights |
object |
O dicionário de pesos por campo para aumentar a pontuação do documento. As chaves são nomes de campos e os valores são os pesos para cada campo. |
TokenCharacterKind
Representa classes de caracteres nas quais um filtro de token pode operar.
| Valor | Description |
|---|---|
| letter |
Mantém letras em tokens. |
| digit |
Mantém dígitos em tokens. |
| whitespace |
Mantém espaço em branco em tokens. |
| punctuation |
Mantém a pontuação em tokens. |
| symbol |
Mantém símbolos em tokens. |
TokenFilterName
Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa.
TruncateTokenFilter
Trunca os termos até um comprimento específico. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| length |
integer (int32) maximum: 300 |
300 |
A extensão em que os termos serão truncados. O padrão e máximo é 300. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
UaxUrlEmailTokenizer
Tokeniza URLs e e-mails como um único token. Este tokenizador é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
| name |
string |
O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
UniqueTokenFilter
Filtra tokens com o mesmo texto do token anterior. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| onlyOnSamePosition |
boolean |
False |
Um valor que indica se as duplicatas devem ser removidas apenas na mesma posição. O valor predefinido é falso. |
VectorEncodingFormat
O formato de codificação para interpretar o conteúdo do campo vetorial.
| Valor | Description |
|---|---|
| packedBit |
Formato de codificação que representa bits compactados em um tipo de dados mais amplo. |
VectorSearch
Contém opções de configuração relacionadas à pesquisa vetorial.
| Name | Tipo | Description |
|---|---|---|
| algorithms | VectorSearchAlgorithmConfiguration[]: |
Contém opções de configuração específicas para o algoritmo usado durante a indexação ou consulta. |
| compressions | VectorSearchCompression[]: |
Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta. |
| profiles |
Define combinações de configurações a serem usadas com a pesquisa vetorial. |
|
| vectorizers | VectorSearchVectorizer[]: |
Contém opções de configuração sobre como vetorizar consultas vetoriais de texto. |
VectorSearchAlgorithmKind
O algoritmo usado para indexação e consulta.
| Valor | Description |
|---|---|
| hnsw |
HNSW (Hierarchical Navigable Small World), um tipo de algoritmo de vizinhos aproximados mais próximos. |
| exhaustiveKnn |
Algoritmo KNN exaustivo que realizará pesquisa de força bruta. |
VectorSearchAlgorithmMetric
A métrica de semelhança a ser usada para comparações vetoriais. Recomenda-se escolher a mesma métrica de semelhança em que o modelo de incorporação foi treinado.
| Valor | Description |
|---|---|
| cosine |
Mede o ângulo entre vetores para quantificar sua semelhança, desconsiderando a magnitude. Quanto menor o ângulo, mais próxima a semelhança. |
| euclidean |
Calcula a distância linear entre vetores em um espaço multidimensional. Quanto menor a distância, mais próxima a semelhança. |
| dotProduct |
Calcula a soma de produtos em termos de elementos para medir o alinhamento e a semelhança de magnitude. Quanto maior e mais positivo, mais próxima a semelhança. |
| hamming |
Aplicável apenas a tipos de dados binários compactados com bits. Determina a dissimilaridade contando diferentes posições em vetores binários. Quanto menos diferenças, mais estreita a semelhança. |
VectorSearchCompressionKind
O método de compactação usado para indexação e consulta.
| Valor | Description |
|---|---|
| scalarQuantization |
Quantização escalar, um tipo de método de compressão. Na quantização escalar, os valores dos vetores originais são compactados para um tipo mais estreito, discretizando e representando cada componente de um vetor usando um conjunto reduzido de valores quantizados, reduzindo assim o tamanho geral dos dados. |
| binaryQuantization |
Quantização binária, um tipo de método de compressão. Na quantização binária, os valores dos vetores originais são compactados para o tipo binário mais estreito, discretizando e representando cada componente de um vetor usando valores binários, reduzindo assim o tamanho geral dos dados. |
VectorSearchCompressionTarget
O tipo de dados quantizados de valores vetoriais compactados.
| Valor | Description |
|---|---|
| int8 |
Inteiro assinado de 8 bits. |
VectorSearchProfile
Define uma combinação de configurações a serem usadas com a pesquisa vetorial.
| Name | Tipo | Description |
|---|---|---|
| algorithm |
string |
O nome da configuração do algoritmo de pesquisa vetorial que especifica o algoritmo e os parâmetros opcionais. |
| compression |
string |
O nome da configuração do método de compactação que especifica o método de compactação e os parâmetros opcionais. |
| name |
string |
O nome a ser associado a esse perfil de pesquisa vetorial específico. |
| vectorizer |
string |
O nome da vetorização que está sendo configurada para uso com a pesquisa vetorial. |
VectorSearchVectorizerKind
O método de vetorização a ser usado durante o tempo de consulta.
| Valor | Description |
|---|---|
| azureOpenAI |
Gere incorporações usando um recurso do Azure OpenAI no momento da consulta. |
| customWebApi |
Gere incorporações usando um ponto de extremidade da Web personalizado no momento da consulta. |
| aiServicesVision |
Gere incorporações para uma entrada de imagem ou texto no momento da consulta usando a API de Vetorização de Visão dos Serviços de IA do Azure. |
| aml |
Gere incorporações usando um ponto de extremidade do Azure Machine Learning implantado por meio do Catálogo de Modelo do Azure AI Foundry no momento da consulta. |
WebApiVectorizer
Especifica um vetorizador definido pelo usuário para gerar a incorporação vetorial de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface personalizada da API Web de um conjunto de habilidades.
| Name | Tipo | Description |
|---|---|---|
| customWebApiParameters |
Especifica as propriedades do vetorizador definido pelo usuário. |
|
| kind |
string:
custom |
Tipo de VetorizadorPesquisa. |
| name |
string |
O nome a ser associado a esse método de vetorização específico. |
WebApiVectorizerParameters
Especifica as propriedades para conexão a um vetorizador definido pelo usuário.
| Name | Tipo | Description |
|---|---|---|
| authIdentity | SearchIndexerDataIdentity: |
A identidade gerenciada atribuída pelo usuário usada para conexões de saída. Se um authResourceId for fornecido e não for especificado, a identidade gerenciada atribuída ao sistema será usada. Nas atualizações do indexador, se a identidade não for especificada, o valor permanecerá inalterado. Se definido como "nenhum", o valor dessa propriedade será limpo. |
| authResourceId |
string |
Aplica-se a endpoints personalizados que se ligam a código externo numa função do Azure ou noutra aplicação que forneça as transformações. Esse valor deve ser a ID do aplicativo criada para a função ou aplicativo quando ela foi registrada no Azure Ative Directory. Quando especificado, a vetorização se conecta à função ou aplicativo usando uma ID gerenciada (atribuída pelo sistema ou pelo usuário) do serviço de pesquisa e o token de acesso da função ou aplicativo, usando esse valor como a id do recurso para criar o escopo do token de acesso. |
| httpHeaders |
object |
Os cabeçalhos necessários para fazer a solicitação HTTP. |
| httpMethod |
string |
O método para a solicitação HTTP. |
| timeout |
string (duration) |
O tempo limite desejado para a solicitação. O padrão é 30 segundos. |
| uri |
string (uri) |
O URI da API Web que fornece o vetorizador. |
WordDelimiterTokenFilter
Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras. Este filtro de token é implementado usando Apache Lucene.
| Name | Tipo | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
O discriminador para tipos derivados. |
|
| catenateAll |
boolean |
False |
Um valor que indica se todas as partes da subpalavra serão atenuadas. Por exemplo, se isso estiver definido como true, "Azure-Search-1" se tornará "AzureSearch1". O valor predefinido é falso. |
| catenateNumbers |
boolean |
False |
Um valor que indica se as execuções máximas de peças numéricas serão limitadas. Por exemplo, se isso for definido como true, "1-2" se tornará "12". O valor predefinido é falso. |
| catenateWords |
boolean |
False |
Um valor que indica se as execuções máximas de partes de palavras serão limitadas. Por exemplo, se isso estiver definido como true, "Azure-Search" se tornará "AzureSearch". O valor predefinido é falso. |
| generateNumberParts |
boolean |
True |
Um valor que indica se as subpalavras numéricas devem ser geradas. A predefinição é verdadeira. |
| generateWordParts |
boolean |
True |
Um valor que indica se as palavras de parte devem ser geradas. Se definido, faz com que partes de palavras sejam geradas; por exemplo, "AzureSearch" torna-se "Azure" "Search". A predefinição é verdadeira. |
| name |
string |
O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
| preserveOriginal |
boolean |
False |
Um valor que indica se as palavras originais serão preservadas e adicionadas à lista de subpalavras. O valor predefinido é falso. |
| protectedWords |
string[] |
Uma lista de tokens para proteger de serem delimitados. |
|
| splitOnCaseChange |
boolean |
True |
Um valor que indica se as palavras devem ser divididas em caseChange. Por exemplo, se isso estiver definido como true, "AzureSearch" se tornará "Azure" "Search". A predefinição é verdadeira. |
| splitOnNumerics |
boolean |
True |
Um valor que indica se deve ser dividido em números. Por exemplo, se isso estiver definido como true, "Azure1Search" se tornará "Azure" "1" "Search". A predefinição é verdadeira. |
| stemEnglishPossessive |
boolean |
True |
Um valor que indica se os "s" à direita devem ser removidos para cada subpalavra. A predefinição é verdadeira. |