Indexes - Get

Recupera uma definição de índice.

GET {endpoint}/indexes('{indexName}')?api-version=2026-04-01

Parâmetros do URI

Name Em Necessário Tipo Description
endpoint
path True

string (uri)

A URL do ponto de extremidade do serviço de pesquisa.

indexName
path True

string

O nome do índice.

api-version
query True

string

minLength: 1

A versão da API a utilizar para esta operação.

Cabeçalho do Pedido

Name Necessário Tipo Description
Accept

Accept

O cabeçalho Aceitar.

x-ms-client-request-id

string (uuid)

Um identificador de string opaco, globalmente único e gerado pelo cliente para o pedido.

Respostas

Name Tipo Description
200 OK

SearchIndex

O pedido foi bem-sucedido.

Other Status Codes

ErrorResponse

Uma resposta de erro inesperada.

Segurança

api-key

Tipo: apiKey
Em: header

OAuth2Auth

Tipo: oauth2
Fluxo: implicit
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Âmbitos

Name Description
https://search.azure.com/.default

Exemplos

SearchServiceGetIndex

Pedido de amostra

GET https://exampleservice.search.windows.net/indexes('example-index')?api-version=2026-04-01

Resposta da amostra

{
  "@odata.etag": "0x1234568AE7E58A1",
  "name": "example-index",
  "description": "description",
  "defaultScoringProfile": "stringFieldBoost",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "synonymMaps": []
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 20,
      "vectorSearchProfile": "config1",
      "synonymMaps": []
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector4",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 32,
      "vectorSearchProfile": "config4",
      "synonymMaps": []
    },
    {
      "name": "name",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "standard.lucene",
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "price",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "fieldName": "category",
          "interpolation": "linear",
          "type": "tag",
          "boost": 2,
          "tag": {
            "tagsParameter": "categoryTag"
          }
        }
      ]
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer",
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ]
    }
  ],
  "normalizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "my_normalizer",
      "tokenFilters": [
        "my_tokenFilter"
      ],
      "charFilters": [
        "my_mapping"
      ]
    }
  ],
  "tokenizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer",
      "maxTokenLength": 100
    }
  ],
  "tokenFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter",
      "preserveOriginal": false
    }
  ],
  "charFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping",
      "mappings": [
        ".=>,",
        "_=>-"
      ]
    }
  ],
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "k1": 10,
    "b": 0.1
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "rankingOrder": "BoostedRerankerScore",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "cosine",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "euclidean",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "euclidean",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "dotProduct",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "dotProduct",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      }
    ],
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      },
      {
        "name": "config4",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQWithoutOriginals"
      }
    ],
    "vectorizers": [
      {
        "name": "openai",
        "kind": "azureOpenAI",
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com",
          "deploymentId": "model",
          "apiKey": "<redacted>",
          "modelName": "text-embedding-3-large"
        }
      },
      {
        "name": "custom-web-api",
        "kind": "customWebApi",
        "customWebApiParameters": {
          "httpMethod": "POST",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        }
      },
      {
        "name": "aml",
        "kind": "aml",
        "amlParameters": {
          "resourceId": "aml resource id",
          "region": "aml region",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
        }
      },
      {
        "name": "aml-cohere",
        "kind": "aml",
        "amlParameters": {
          "resourceId": "aml resource id",
          "region": "aml region",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "modelName": "Cohere-embed-v4"
        }
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "truncationDimension": 2,
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQWithoutOriginals",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "discardOriginals"
        }
      }
    ]
  }
}

Definições

Name Description
Accept

O cabeçalho Aceitar.

AIFoundryModelCatalogName

O nome do modelo de embedding do Azure AI Foundry Catalog que será chamado.

AMLParameters

Especifica as propriedades para conexão a um vetorizador AML.

AMLVectorizer

Especifica um endpoint Azure Machine Learning implementado através do Azure AI Foundry Model Catalog para gerar a incorporação vetorial de uma cadeia de consulta.

AsciiFoldingTokenFilter

Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Este filtro de token é implementado usando Apache Lucene.

AzureOpenAIModelName

O nome do modelo de IA aberta do Azure que será chamado.

AzureOpenAIVectorizer

Especifica o recurso do Azure OpenAI usado para vetorizar uma cadeia de caracteres de consulta.

AzureOpenAIVectorizerParameters

Especifica os parâmetros para se conectar ao recurso OpenAI do Azure.

BinaryQuantizationCompression

Contém opções de configuração específicas para o método de compactação de quantização binária usado durante a indexação e consulta.

BM25SimilarityAlgorithm

Função de classificação baseada no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1').

CharFilterName

Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa.

CjkBigramTokenFilter

Forma bigramas de termos CJK que são gerados a partir do tokenizador padrão. Este filtro de token é implementado usando Apache Lucene.

CjkBigramTokenFilterScripts

Scripts que podem ser ignorados por CjkBigramTokenFilter.

ClassicSimilarityAlgorithm

Algoritmo de similaridade legado que usa a implementação Lucene TFIDFSimilarity do TF-IDF. Esta variação de TF-IDF introduz a normalização estática do comprimento do documento, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas.

ClassicTokenizer

Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Este tokenizador é implementado usando Apache Lucene.

CommonGramTokenFilter

Construa bigramas para termos frequentes durante a indexação. Os termos isolados também continuam a ser indexados, com bigramas sobrepostos. Este filtro de token é implementado usando Apache Lucene.

CorsOptions

Define opções para controlar o CORS (Cross-Origin Resource Sharing) para um índice.

CustomAnalyzer

Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizador predefinido e um ou mais filtros. O tokenizador é responsável por dividir o texto em tokens, e os filtros para modificar tokens emitidos pelo tokenizador.

CustomNormalizer

Permite configurar a normalização para campos filtráveis, classificáveis e facetable, que, por padrão, operam com correspondência estrita. Esta é uma configuração definida pelo usuário que consiste em pelo menos um ou mais filtros, que modificam o token armazenado.

DictionaryDecompounderTokenFilter

Decompõe palavras compostas encontradas em muitas línguas germânicas. Este filtro de token é implementado usando Apache Lucene.

DistanceScoringFunction

Define uma função que aumenta as pontuações com base na distância de uma localização geográfica.

DistanceScoringParameters

Fornece valores de parâmetros para uma função de pontuação de distância.

EdgeNGramTokenFilter

Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene.

EdgeNGramTokenFilterSide

Especifica de que lado da entrada um n-grama deve ser gerado.

EdgeNGramTokenFilterV2

Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene.

EdgeNGramTokenizer

Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) determinado(s). Este tokenizador é implementado usando Apache Lucene.

ElisionTokenFilter

Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Este filtro de token é implementado usando Apache Lucene.

ErrorAdditionalInfo

O erro de gerenciamento de recursos informações adicionais.

ErrorDetail

O detalhe do erro.

ErrorResponse

Resposta de erro comum para todas as APIs do Azure Resource Manager devolver detalhes de erro para operações falhadas. (Isso também segue o formato de resposta de erro OData.)

ExhaustiveKnnAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetorial.

ExhaustiveKnnParameters

Contém os parâmetros específicos para o algoritmo KNN exaustivo.

FreshnessScoringFunction

Define uma função que aumenta as pontuações com base no valor de um campo de data e hora.

FreshnessScoringParameters

Fornece valores de parâmetro para uma função de pontuação de frescor.

HnswAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo de vizinhos aproximados mais próximos do HNSW usado durante a indexação e consulta. O algoritmo HNSW oferece um compromisso ajustável entre velocidade e precisão de pesquisa.

HnswParameters

Contém os parâmetros específicos para o algoritmo HNSW.

KeepTokenFilter

Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Este filtro de token é implementado usando Apache Lucene.

KeywordMarkerTokenFilter

Marca termos como palavras-chave. Este filtro de token é implementado usando Apache Lucene.

KeywordTokenizer

Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene.

KeywordTokenizerV2

Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene.

LengthTokenFilter

Remove palavras muito longas ou curtas. Este filtro de token é implementado usando Apache Lucene.

LexicalAnalyzerName

Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa.

LexicalNormalizerName

Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa.

LexicalTokenizerName

Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa.

LimitTokenFilter

Limita o número de tokens durante a indexação. Este filtro de token é implementado usando Apache Lucene.

LuceneStandardAnalyzer

Analisador Apache Lucene padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro stop.

LuceneStandardTokenizer

Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene.

LuceneStandardTokenizerV2

Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene.

MagnitudeScoringFunction

Define uma função que aumenta as pontuações com base na magnitude de um campo numérico.

MagnitudeScoringParameters

Fornece valores de parâmetros para uma função de pontuação de magnitude.

MappingCharFilter

Um filtro de caracteres que aplica mapeamentos definidos com a opção mapeamentos. A correspondência é gananciosa (a correspondência do padrão mais longo num dado ponto vence). A substituição pode ser a cadeia de caracteres vazia. Este filtro de caracteres é implementado usando Apache Lucene.

MicrosoftLanguageStemmingTokenizer

Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas base.

MicrosoftLanguageTokenizer

Divide o texto usando regras específicas do idioma.

MicrosoftStemmingTokenizerLanguage

Lista as linguagens suportadas pelo tokenizador de stemming de linguagem da Microsoft.

MicrosoftTokenizerLanguage

Lista as linguagens suportadas pelo tokenizador de linguagem da Microsoft.

NGramTokenFilter

Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene.

NGramTokenFilterV2

Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene.

NGramTokenizer

Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Este tokenizador é implementado usando Apache Lucene.

PathHierarchyTokenizerV2

Tokenizador para hierarquias semelhantes a caminhos. Este tokenizador é implementado usando Apache Lucene.

PatternAnalyzer

Separa o texto de forma flexível em termos através de um padrão de expressão regular. Este analisador é implementado usando Apache Lucene.

PatternCaptureTokenFilter

Usa regexes Java para emitir vários tokens - um para cada grupo de captura em um ou mais padrões. Este filtro de token é implementado usando Apache Lucene.

PatternReplaceCharFilter

Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de caracteres é implementado usando Apache Lucene.

PatternReplaceTokenFilter

Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de token é implementado usando Apache Lucene.

PatternTokenizer

Tokenizador que usa a correspondência de padrões regex para construir tokens distintos. Este tokenizador é implementado usando Apache Lucene.

PhoneticEncoder

Identifica o tipo de codificador fonético a ser usado com um PhoneticTokenFilter.

PhoneticTokenFilter

Crie tokens para correspondências fonéticas. Este filtro de token é implementado usando Apache Lucene.

RankingOrder

Representa a pontuação a ser usada para a ordem de classificação dos documentos.

RescoringOptions

Contém as opções para pontuação.

ScalarQuantizationCompression

Contém opções de configuração específicas para o método de compressão de quantização escalar usado durante a indexação e consulta.

ScalarQuantizationParameters

Contém os parâmetros específicos da Quantização Escalar.

ScoringFunctionAggregation

Define a função de agregação usada para combinar os resultados de todas as funções de pontuação em um perfil de pontuação.

ScoringFunctionInterpolation

Define a função usada para interpolar o aumento da pontuação em uma variedade de documentos.

ScoringProfile

Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa.

SearchField

Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

SearchFieldDataType

Define o tipo de dados de um campo em um índice de pesquisa.

SearchIndex

Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice.

SearchIndexerDataNoneIdentity

Limpa a propriedade identity de uma fonte de dados.

SearchIndexerDataUserAssignedIdentity

Especifica a identidade a ser usada por uma fonte de dados.

SearchResourceEncryptionKey

Uma chave de criptografia gerenciada pelo cliente no Cofre de Chaves do Azure. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso, como índices e mapas de sinônimos.

SearchSuggester

Define como a API Sugerir deve ser aplicada a um grupo de campos no índice.

SemanticConfiguration

Define uma configuração específica a ser usada no contexto de recursos semânticos.

SemanticField

Um campo que é usado como parte da configuração semântica.

SemanticPrioritizedFields

Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, destaques e respostas.

SemanticSearch

Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos.

ShingleTokenFilter

Cria combinações de tokens como um único token. Este filtro de token é implementado usando Apache Lucene.

SnowballTokenFilter

Um filtro que deriva palavras usando um lematizador gerado por Bola-de-Neve. Este filtro de token é implementado usando Apache Lucene.

SnowballTokenFilterLanguage

O idioma a ser usado para um filtro de token do Snowball.

StemmerOverrideTokenFilter

Fornece a capacidade de substituir outros filtros de derivação com derivação personalizada baseada em dicionário. Quaisquer termos dicionários serão marcados como palavras-chave para que não sejam engessados com lematizadores ao longo da cadeia. Deve ser colocado antes de quaisquer filtros de derivação. Este filtro de token é implementado usando Apache Lucene. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

StemmerTokenFilter

Filtro de derivação específico da linguagem. Este filtro de token é implementado usando Apache Lucene. Veja https://dotnet.territoriali.olinfo.it/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

StemmerTokenFilterLanguage

A linguagem a ser usada para um filtro de token de lematizador.

StopAnalyzer

Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Este analisador é implementado usando Apache Lucene.

StopwordsList

Identifica uma lista predefinida de palavras paradas específicas do idioma.

StopwordsTokenFilter

Remove palavras irrelevantes de um fluxo de tokens. Este filtro de token é implementado usando Apache Lucene. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

SynonymTokenFilter

Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Este filtro de token é implementado usando Apache Lucene.

TagScoringFunction

Define uma função que aumenta pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de tags.

TagScoringParameters

Fornece valores de parâmetro para uma função de pontuação de tag.

TextWeights

Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa.

TokenCharacterKind

Representa classes de caracteres nas quais um filtro de token pode operar.

TokenFilterName

Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa.

TruncateTokenFilter

Trunca os termos até um comprimento específico. Este filtro de token é implementado usando Apache Lucene.

UaxUrlEmailTokenizer

Tokeniza URLs e e-mails como um único token. Este tokenizador é implementado usando Apache Lucene.

UniqueTokenFilter

Filtra tokens com o mesmo texto do token anterior. Este filtro de token é implementado usando Apache Lucene.

VectorEncodingFormat

O formato de codificação para interpretar o conteúdo do campo vetorial.

VectorSearch

Contém opções de configuração relacionadas à pesquisa vetorial.

VectorSearchAlgorithmKind

O algoritmo usado para indexação e consulta.

VectorSearchAlgorithmMetric

A métrica de semelhança a ser usada para comparações vetoriais. Recomenda-se escolher a mesma métrica de semelhança em que o modelo de incorporação foi treinado.

VectorSearchCompressionKind

O método de compactação usado para indexação e consulta.

VectorSearchCompressionTarget

O tipo de dados quantizados de valores vetoriais compactados.

VectorSearchProfile

Define uma combinação de configurações a serem usadas com a pesquisa vetorial.

VectorSearchVectorizerKind

O método de vetorização a ser usado durante o tempo de consulta.

WebApiVectorizer

Especifica um vetorizador definido pelo usuário para gerar a incorporação vetorial de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface personalizada da API Web de um conjunto de habilidades.

WebApiVectorizerParameters

Especifica as propriedades para conexão a um vetorizador definido pelo usuário.

WordDelimiterTokenFilter

Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras. Este filtro de token é implementado usando Apache Lucene.

Accept

O cabeçalho Aceitar.

Valor Description
application/json;odata.metadata=minimal

AIFoundryModelCatalogName

O nome do modelo de embedding do Azure AI Foundry Catalog que será chamado.

Valor Description
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32

OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336

OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336

Facebook-DinoV2-Image-Embeddings-ViT-Base

Facebook-DinoV2-Image-Embeddings-ViT-Base

Facebook-DinoV2-Image-Embeddings-ViT-Giant

Facebook-DinoV2-Image-Embeddings-ViT-Giant

Cohere-embed-v3-english

Cohere-embed-v3-english

Cohere-embed-v3-multilingual

Cohere-embed-v3-multilingual

Cohere-embed-v4

Cohere incorpora o modelo v4 para gerar incorporações a partir de texto e imagens.

AMLParameters

Especifica as propriedades para conexão a um vetorizador AML.

Name Tipo Description
key

string

(Necessário para autenticação de chave) A chave para o serviço AML.

modelName

AIFoundryModelCatalogName

O nome do modelo de embedding do Azure AI Foundry Catalog que está implementado no endpoint fornecido.

region

string

(Opcional para autenticação de token). A região em que o serviço AML está implantado.

resourceId

string

(Necessário para autenticação de token). O ID de recurso do Azure Resource Manager do serviço AML. Deve estar no formato subscriptions/{guid}/resourceGroups/{resource-group-name}/Microsoft. MachineLearningServices/workspaces/{workspace-name}/services/{service_name}.

timeout

string (duration)

(Opcional) Quando especificado, indica o tempo limite para o cliente http que faz a chamada de API.

uri

string (uri)

(Necessário para nenhuma autenticação ou autenticação de chave) O URI de pontuação do serviço AML para o qual a carga JSON será enviada. Somente o esquema de URI https é permitido.

AMLVectorizer

Especifica um endpoint Azure Machine Learning implementado através do Azure AI Foundry Model Catalog para gerar a incorporação vetorial de uma cadeia de consulta.

Name Tipo Description
amlParameters

AMLParameters

Especifica as propriedades do vetorizador AML.

kind string:

aml

Tipo de VetorizadorPesquisa.

name

string

O nome a ser associado a esse método de vetorização específico.

AsciiFoldingTokenFilter

Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.AsciiFoldingTokenFilter

O discriminador para tipos derivados.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

preserveOriginal

boolean

False

Um valor que indica se o token original será mantido. O valor predefinido é falso.

AzureOpenAIModelName

O nome do modelo de IA aberta do Azure que será chamado.

Valor Description
text-embedding-ada-002

Modelo TextEmbeddingAda002.

text-embedding-3-large

TextEmbedding3 Modelo grande.

text-embedding-3-small

TextEmbedding3Small model.

gpt-5-mini

Modelo Gpt5Mini.

gpt-5-nano

Modelo Gpt5Nano.

gpt-5.4-mini

Modelo Gpt54Mini.

gpt-5.4-nano

Modelo Gpt54Nano.

AzureOpenAIVectorizer

Especifica o recurso do Azure OpenAI usado para vetorizar uma cadeia de caracteres de consulta.

Name Tipo Description
azureOpenAIParameters

AzureOpenAIVectorizerParameters

Contém os parâmetros específicos para a vetorização de incorporação do Azure OpenAI.

kind string:

azureOpenAI

Tipo de VetorizadorPesquisa.

name

string

O nome a ser associado a esse método de vetorização específico.

AzureOpenAIVectorizerParameters

Especifica os parâmetros para se conectar ao recurso OpenAI do Azure.

Name Tipo Description
apiKey

string

Chave de API do recurso OpenAI do Azure designado.

authIdentity SearchIndexerDataIdentity:

A identidade gerenciada atribuída pelo usuário usada para conexões de saída.

deploymentId

string

ID da implantação do modelo OpenAI do Azure no recurso designado.

modelName

AzureOpenAIModelName

O nome do modelo de incorporação implantado no caminho deploymentId fornecido.

resourceUri

string (uri)

O URI do recurso Azure OpenAI.

BinaryQuantizationCompression

Contém opções de configuração específicas para o método de compactação de quantização binária usado durante a indexação e consulta.

Name Tipo Description
kind string:

binaryQuantization

Tipo de Pesquisa VetorialCompressão.

name

string

O nome a ser associado a essa configuração específica.

rescoringOptions

RescoringOptions

Contém as opções para pontuação.

truncationDimension

integer (int32)

O número de dimensões para truncar os vetores. Truncar os vetores reduz o tamanho dos vetores e a quantidade de dados que precisam ser transferidos durante a pesquisa. Isso pode economizar custos de armazenamento e melhorar o desempenho da pesquisa às custas da recuperação. Ele só deve ser usado para incorporações treinadas com Matryoshka Representation Learning (MRL), como OpenAI text-embedding-3-large (small). O valor padrão é null, o que significa que não há truncamento.

BM25SimilarityAlgorithm

Função de classificação baseada no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1').

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.BM25Similarity

O discriminador para tipos derivados.

b

number (double)

Esta propriedade controla como o comprimento de um documento afeta a pontuação de relevância. Por padrão, um valor de 0,75 é usado. Um valor de 0,0 significa que nenhuma normalização de comprimento é aplicada, enquanto um valor de 1,0 significa que a pontuação é totalmente normalizada pelo comprimento do documento.

k1

number (double)

Esta propriedade controla a função de dimensionamento entre a frequência de termo de cada termo correspondente e a pontuação de relevância final de um par documento-consulta. Por padrão, um valor de 1,2 é usado. Um valor de 0,0 significa que a pontuação não escala com um aumento na frequência de termo.

CharFilterName

Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa.

Valor Description
html_strip

Um filtro de caracteres que tenta remover construções HTML. Veja https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilter

Forma bigramas de termos CJK que são gerados a partir do tokenizador padrão. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.CjkBigramTokenFilter

O discriminador para tipos derivados.

ignoreScripts

CjkBigramTokenFilterScripts[]

Os scripts a serem ignorados.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

outputUnigrams

boolean

False

Um valor que indica se os unigramas e bigramas devem ser produzidos (se verdadeiro) ou apenas bigramas (se falso). O valor predefinido é falso.

CjkBigramTokenFilterScripts

Scripts que podem ser ignorados por CjkBigramTokenFilter.

Valor Description
han

Ignore o script Han ao formar bigramas de termos CJK.

hiragana

Ignore o script Hiragana ao formar bigramas de termos CJK.

katakana

Ignore o script Katakana ao formar bigramas de termos CJK.

hangul

Ignore o script Hangul ao formar bigramas de termos CJK.

ClassicSimilarityAlgorithm

Algoritmo de similaridade legado que usa a implementação Lucene TFIDFSimilarity do TF-IDF. Esta variação de TF-IDF introduz a normalização estática do comprimento do documento, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas.

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.ClassicSimilarity

O discriminador para tipos derivados.

ClassicTokenizer

Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Este tokenizador é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.ClassicTokenizer

O discriminador para tipos derivados.

maxTokenLength

integer (int32)

maximum: 300
255

O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

name

string

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

CommonGramTokenFilter

Construa bigramas para termos frequentes durante a indexação. Os termos isolados também continuam a ser indexados, com bigramas sobrepostos. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.CommonGramTokenFilter

O discriminador para tipos derivados.

commonWords

string[]

O conjunto de palavras comuns.

ignoreCase

boolean

False

Um valor que indica se a correspondência de palavras comuns não diferenciará maiúsculas de minúsculas. O valor predefinido é falso.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

queryMode

boolean

False

Um valor que indica se o filtro de token está no modo de consulta. Quando no modo de consulta, o filtro de token gera bigramas e, em seguida, remove palavras comuns e termos únicos seguidos por uma palavra comum. O valor predefinido é falso.

CorsOptions

Define opções para controlar o CORS (Cross-Origin Resource Sharing) para um índice.

Name Tipo Description
allowedOrigins

string[]

A lista de origens a partir das quais o código JavaScript terá acesso ao seu índice. Pode conter uma lista de hosts do formato {protocol}://{fully-qualified-domain-name}[:{port#}], ou um único '*' para permitir todas as origens (não recomendado).

maxAgeInSeconds

integer (int64)

A duração durante a qual os navegadores devem armazenar em cache as respostas de comprovação do CORS. O padrão é 5 minutos.

CustomAnalyzer

Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizador predefinido e um ou mais filtros. O tokenizador é responsável por dividir o texto em tokens, e os filtros para modificar tokens emitidos pelo tokenizador.

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.CustomAnalyzer

O discriminador para tipos derivados.

charFilters

CharFilterName[]

Uma lista de filtros de caracteres usados para preparar o texto de entrada antes de ser processado pelo tokenizador. Por exemplo, eles podem substituir certos caracteres ou símbolos. Os filtros são executados na ordem em que são listados.

name

string

O nome do analisador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

tokenFilters

TokenFilterName[]

Uma lista de filtros de token usados para filtrar ou modificar os tokens gerados por um tokenizador. Por exemplo, você pode especificar um filtro minúsculo que converta todos os caracteres em minúsculas. Os filtros são executados na ordem em que são listados.

tokenizer

LexicalTokenizerName

O nome do tokenizador a ser usado para dividir o texto contínuo em uma sequência de tokens, como quebrar uma frase em palavras.

CustomNormalizer

Permite configurar a normalização para campos filtráveis, classificáveis e facetable, que, por padrão, operam com correspondência estrita. Esta é uma configuração definida pelo usuário que consiste em pelo menos um ou mais filtros, que modificam o token armazenado.

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.CustomNormalizer

O discriminador para tipos derivados.

charFilters

CharFilterName[]

Uma lista de filtros de caracteres usados para preparar o texto de entrada antes de ser processado. Por exemplo, eles podem substituir certos caracteres ou símbolos. Os filtros são executados na ordem em que são listados.

name

string

O nome do filtro char. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

tokenFilters

TokenFilterName[]

Uma lista de filtros de token usados para filtrar ou modificar o token de entrada. Por exemplo, você pode especificar um filtro minúsculo que converta todos os caracteres em minúsculas. Os filtros são executados na ordem em que são listados.

DictionaryDecompounderTokenFilter

Decompõe palavras compostas encontradas em muitas línguas germânicas. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.DictionaryDecompounderTokenFilter

O discriminador para tipos derivados.

maxSubwordSize

integer (int32)

maximum: 300
15

O tamanho máximo da subpalavra. Apenas subpalavras mais curtas do que isso são produzidas. O padrão é 15. O máximo é de 300.

minSubwordSize

integer (int32)

maximum: 300
2

O tamanho mínimo da subpalavra. Apenas subpalavras maiores do que isso são produzidas. O padrão é 2. O máximo é de 300.

minWordSize

integer (int32)

maximum: 300
5

O tamanho mínimo da palavra. Apenas palavras mais longas do que isso são processadas. O padrão é 5. O máximo é de 300.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

onlyLongestMatch

boolean

False

Um valor que indica se apenas a subpalavra correspondente mais longa deve ser adicionada à saída. O valor predefinido é falso.

wordList

string[]

A lista de palavras contra as quais corresponder.

DistanceScoringFunction

Define uma função que aumenta as pontuações com base na distância de uma localização geográfica.

Name Tipo Description
boost

number (double)

Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0.

distance

DistanceScoringParameters

Valores de parâmetros para a função de pontuação de distância.

fieldName

string

O nome do campo usado como entrada para a função de pontuação.

interpolation

ScoringFunctionInterpolation

Um valor que indica como o impulsionamento será interpolado entre as pontuações dos documentos; o padrão é "Linear".

type string:

distance

Tipo de Função de Pontuação.

DistanceScoringParameters

Fornece valores de parâmetros para uma função de pontuação de distância.

Name Tipo Description
boostingDistance

number (double)

A distância em quilómetros do local de referência onde termina o alcance de reforço.

referencePointParameter

string

O nome do parâmetro passado em consultas de pesquisa para especificar o local de referência.

EdgeNGramTokenFilter

Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilter

O discriminador para tipos derivados.

maxGram

integer (int32)

2

O comprimento máximo de n-gramas. O padrão é 2.

minGram

integer (int32)

1

O comprimento mínimo de n-gramas. A predefinição é 1. Deve ser menor que o valor de maxGram.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

side

EdgeNGramTokenFilterSide

front

Especifica de que lado da entrada o n-grama deve ser gerado. O padrão é "frontal".

EdgeNGramTokenFilterSide

Especifica de que lado da entrada um n-grama deve ser gerado.

Valor Description
front

Especifica que o n-grama deve ser gerado a partir da frente da entrada.

back

Especifica que o n-grama deve ser gerado a partir da parte traseira da entrada.

EdgeNGramTokenFilterV2

Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilterV2

O discriminador para tipos derivados.

maxGram

integer (int32)

maximum: 300
2

O comprimento máximo de n-gramas. O padrão é 2. O máximo é de 300.

minGram

integer (int32)

maximum: 300
1

O comprimento mínimo de n-gramas. A predefinição é 1. O máximo é de 300. Deve ser menor que o valor de maxGram.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

side

EdgeNGramTokenFilterSide

front

Especifica de que lado da entrada o n-grama deve ser gerado. O padrão é "frontal".

EdgeNGramTokenizer

Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) determinado(s). Este tokenizador é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenizer

O discriminador para tipos derivados.

maxGram

integer (int32)

maximum: 300
2

O comprimento máximo de n-gramas. O padrão é 2. O máximo é de 300.

minGram

integer (int32)

maximum: 300
1

O comprimento mínimo de n-gramas. A predefinição é 1. O máximo é de 300. Deve ser menor que o valor de maxGram.

name

string

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

tokenChars

TokenCharacterKind[]

Classes de caracteres para manter nos tokens.

ElisionTokenFilter

Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Este filtro de token é implementado usando Apache Lucene.

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.ElisionTokenFilter

O discriminador para tipos derivados.

articles

string[]

O conjunto de artigos a remover.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

ErrorAdditionalInfo

O erro de gerenciamento de recursos informações adicionais.

Name Tipo Description
info

As informações adicionais.

type

string

O tipo de informação adicional.

ErrorDetail

O detalhe do erro.

Name Tipo Description
additionalInfo

ErrorAdditionalInfo[]

O erro informações adicionais.

code

string

O código de erro.

details

ErrorDetail[]

Os detalhes do erro.

message

string

A mensagem de erro.

target

string

O alvo do erro.

ErrorResponse

Resposta de erro comum para todas as APIs do Azure Resource Manager devolver detalhes de erro para operações falhadas. (Isso também segue o formato de resposta de erro OData.)

Name Tipo Description
error

ErrorDetail

O objeto de erro.

ExhaustiveKnnAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetorial.

Name Tipo Description
exhaustiveKnnParameters

ExhaustiveKnnParameters

Contém os parâmetros específicos para o algoritmo KNN exaustivo.

kind string:

exhaustiveKnn

Tipo de AlgoritmoPesquisa VetorialConfiguração.

name

string

O nome a ser associado a essa configuração específica.

ExhaustiveKnnParameters

Contém os parâmetros específicos para o algoritmo KNN exaustivo.

Name Tipo Description
metric

VectorSearchAlgorithmMetric

A métrica de semelhança a ser usada para comparações vetoriais.

FreshnessScoringFunction

Define uma função que aumenta as pontuações com base no valor de um campo de data e hora.

Name Tipo Description
boost

number (double)

Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0.

fieldName

string

O nome do campo usado como entrada para a função de pontuação.

freshness

FreshnessScoringParameters

Valores de parâmetros para a função de pontuação de frescor.

interpolation

ScoringFunctionInterpolation

Um valor que indica como o impulsionamento será interpolado entre as pontuações dos documentos; o padrão é "Linear".

type string:

freshness

Tipo de Função de Pontuação.

FreshnessScoringParameters

Fornece valores de parâmetro para uma função de pontuação de frescor.

Name Tipo Description
boostingDuration

string (duration)

O período de expiração após o qual o impulsionamento será interrompido para um documento específico.

HnswAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo de vizinhos aproximados mais próximos do HNSW usado durante a indexação e consulta. O algoritmo HNSW oferece um compromisso ajustável entre velocidade e precisão de pesquisa.

Name Tipo Description
hnswParameters

HnswParameters

Contém os parâmetros específicos do algoritmo HNSW.

kind string:

hnsw

Tipo de AlgoritmoPesquisa VetorialConfiguração.

name

string

O nome a ser associado a essa configuração específica.

HnswParameters

Contém os parâmetros específicos para o algoritmo HNSW.

Name Tipo Default value Description
efConstruction

integer (int32)

minimum: 100
maximum: 1000
400

O tamanho da lista dinâmica que contém os vizinhos mais próximos, que é usada durante o tempo de índice. O aumento deste parâmetro pode melhorar a qualidade do índice, em detrimento do aumento do tempo de indexação. A certa altura, o aumento deste parâmetro leva a uma diminuição dos retornos.

efSearch

integer (int32)

minimum: 100
maximum: 1000
500

O tamanho da lista dinâmica que contém os vizinhos mais próximos, que é usada durante o tempo de pesquisa. Aumentar este parâmetro pode melhorar os resultados da pesquisa, em detrimento de uma pesquisa mais lenta. A certa altura, o aumento deste parâmetro leva a uma diminuição dos retornos.

m

integer (int32)

minimum: 4
maximum: 10
4

O número de ligações bidirecionais criadas para cada novo elemento durante a construção. Aumentar esse valor de parâmetro pode melhorar a recuperação e reduzir os tempos de recuperação para conjuntos de dados com alta dimensionalidade intrínseca às custas do aumento do consumo de memória e do tempo de indexação mais longo.

metric

VectorSearchAlgorithmMetric

A métrica de semelhança a ser usada para comparações vetoriais.

KeepTokenFilter

Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.KeepTokenFilter

O discriminador para tipos derivados.

keepWords

string[]

A lista de palavras a manter.

keepWordsCase

boolean

False

Um valor que indica se todas as palavras devem ser minúsculas primeiro. O valor predefinido é falso.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

KeywordMarkerTokenFilter

Marca termos como palavras-chave. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.KeywordMarkerTokenFilter

O discriminador para tipos derivados.

ignoreCase

boolean

False

Um valor que indica se as maiúsculas e minúsculas devem ser ignoradas. Se verdadeiro, todas as palavras são convertidas em minúsculas primeiro. O valor predefinido é falso.

keywords

string[]

Uma lista de palavras para marcar como palavras-chave.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

KeywordTokenizer

Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizer

O discriminador para tipos derivados.

bufferSize

integer (int32)

256

O tamanho do buffer de leitura em bytes. O padrão é 256.

name

string

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

KeywordTokenizerV2

Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizerV2

O discriminador para tipos derivados.

maxTokenLength

integer (int32)

maximum: 300
256

O comprimento máximo do token. O padrão é 256. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

name

string

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

LengthTokenFilter

Remove palavras muito longas ou curtas. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.LengthTokenFilter

O discriminador para tipos derivados.

max

integer (int32)

maximum: 300
300

O comprimento máximo em caracteres. O padrão e máximo é 300.

min

integer (int32)

maximum: 300
0

O comprimento mínimo em caracteres. O padrão é 0. O máximo é de 300. Deve ser menor que o valor de max.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

LexicalAnalyzerName

Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa.

Valor Description
ar.microsoft

Analisador Microsoft para árabe.

ar.lucene

Analisador de Lucene para árabe.

hy.lucene

Analisador de Lucene para arménio.

bn.microsoft

Analisador Microsoft para Bangla.

eu.lucene

Analisador Lucene para basco.

bg.microsoft

Analisador Microsoft para búlgaro.

bg.lucene

Lucene analisador para búlgaro.

ca.microsoft

Analisador Microsoft para catalão.

ca.lucene

Lucene analisador para catalão.

zh-Hans.microsoft

Analisador Microsoft para chinês (Simplificado).

zh-Hans.lucene

Analisador Lucene para chinês (simplificado).

zh-Hant.microsoft

Analisador Microsoft para chinês (tradicional).

zh-Hant.lucene

Analisador de Lucene para chinês (tradicional).

hr.microsoft

Analisador Microsoft para croata.

cs.microsoft

Analisador Microsoft para checo.

cs.lucene

Lucene analisador para checo.

da.microsoft

Analisador Microsoft para dinamarquês.

da.lucene

Lucene analisador para dinamarquês.

nl.microsoft

Analisador Microsoft para holandês.

nl.lucene

Analisador Lucene para holandês.

en.microsoft

Analisador Microsoft para inglês.

en.lucene

Analisador Lucene para Inglês.

et.microsoft

Analisador Microsoft para estónio.

fi.microsoft

Analisador Microsoft para finlandês.

fi.lucene

Analisador de Lucene para finlandês.

fr.microsoft

Analisador Microsoft para francês.

fr.lucene

Analisador Lucene para francês.

gl.lucene

Lucene analisador para galego.

de.microsoft

Analisador Microsoft para alemão.

de.lucene

Lucene analisador para alemão.

el.microsoft

Analisador Microsoft para grego.

el.lucene

Analisador de Lucene para grego.

gu.microsoft

Analisador Microsoft para Gujarati.

he.microsoft

Analisador Microsoft para hebraico.

hi.microsoft

Analisador Microsoft para Hindi.

hi.lucene

Analisador de Lucene para Hindi.

hu.microsoft

Analisador Microsoft para húngaro.

hu.lucene

Lucene analisador para húngaro.

is.microsoft

Analisador Microsoft para islandês.

id.microsoft

Analisador Microsoft para Indonésio (Bahasa).

id.lucene

Analisador de Lucene para indonésio.

ga.lucene

Lucene analisador para irlandês.

it.microsoft

Analisador Microsoft para italiano.

it.lucene

Analisador Lucene para italiano.

ja.microsoft

Analisador Microsoft para japonês.

ja.lucene

Analisador Lucene para japonês.

kn.microsoft

Analisador Microsoft para Kannada.

ko.microsoft

Analisador Microsoft para coreano.

ko.lucene

Analisador Lucene para coreano.

lv.microsoft

Analisador Microsoft para letão.

lv.lucene

Analisador Lucene para letão.

lt.microsoft

Analisador Microsoft para lituano.

ml.microsoft

Analisador Microsoft para malaiala.

ms.microsoft

Analisador Microsoft para malaio (latim).

mr.microsoft

Analisador Microsoft para Marathi.

nb.microsoft

Microsoft analyzer for Norwegian (Bokmål).

no.lucene

Analisador Lucene para norueguês.

fa.lucene

Analisador de Lucene para persa.

pl.microsoft

Analisador Microsoft para polaco.

pl.lucene

Analisador de Lucene para polaco.

pt-BR.microsoft

Analisador Microsoft para português (Brasil).

pt-BR.lucene

Analisador Lucene para Português (Brasil).

pt-PT.microsoft

Analisador Microsoft para português (Portugal).

pt-PT.lucene

Analisador de Lucene para Português (Portugal).

pa.microsoft

Analisador Microsoft para Punjabi.

ro.microsoft

Analisador Microsoft para romeno.

ro.lucene

Lucene analisador para romeno.

ru.microsoft

Analisador Microsoft para russo.

ru.lucene

Lucene analisador para russo.

sr-cyrillic.microsoft

Analisador Microsoft para sérvio (cirílico).

sr-latin.microsoft

Analisador Microsoft para sérvio (latim).

sk.microsoft

Analisador Microsoft para eslovaco.

sl.microsoft

Analisador Microsoft para esloveno.

es.microsoft

Analisador Microsoft para espanhol.

es.lucene

Analisador Lucene para espanhol.

sv.microsoft

Analisador Microsoft para sueco.

sv.lucene

Lucene analisador para sueco.

ta.microsoft

Analisador Microsoft para tâmil.

te.microsoft

Analisador Microsoft para Telugu.

th.microsoft

Analisador Microsoft para tailandês.

th.lucene

Lucene analisador para tailandês.

tr.microsoft

Analisador Microsoft para turco.

tr.lucene

Lucene analisador para turco.

uk.microsoft

Analisador Microsoft para ucraniano.

ur.microsoft

Analisador Microsoft para urdu.

vi.microsoft

Analisador Microsoft para vietnamita.

standard.lucene

Analisador Lucene padrão.

standardasciifolding.lucene

Analisador padrão ASCII Folding Lucene. Veja https://dotnet.territoriali.olinfo.it/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers

keyword

Trata todo o conteúdo de um campo como um único token. Isso é útil para dados como códigos postais, ids e alguns nomes de produtos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html

pattern

Separa o texto de forma flexível em termos através de um padrão de expressão regular. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

simple

Divide o texto em letras não escritas e converte-as em minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html

stop

Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

whitespace

Um analisador que utiliza o tokenizador de espaços em branco. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalNormalizerName

Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa.

Valor Description
asciifolding

Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

elision

Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

lowercase

Normaliza o texto do token para minúsculas. Veja https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

standard

Normalizador padrão, que consiste em minúsculas e asciifolding. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

uppercase

Normaliza o texto do token para maiúsculas. Veja https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

LexicalTokenizerName

Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa.

Valor Description
classic

Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

edgeNGram

Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) determinado(s). Veja https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

keyword_v2

Emite toda a entrada como um único token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

letter

Divide o texto em pontos onde não há letras. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

lowercase

Divide o texto em letras não escritas e converte-as em minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

microsoft_language_tokenizer

Divide o texto usando regras específicas do idioma.

microsoft_language_stemming_tokenizer

Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas base.

nGram

Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

path_hierarchy_v2

Tokenizador para hierarquias semelhantes a caminhos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

pattern

Tokenizador que usa a correspondência de padrões regex para construir tokens distintos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

standard_v2

Analisador padrão de Lucene; Composto pelo tokenizador padrão, filtro minúsculo e filtro stop. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

uax_url_email

Tokeniza URLs e e-mails como um único token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

whitespace

Divide o texto no espaço em branco. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

LimitTokenFilter

Limita o número de tokens durante a indexação. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.LimitTokenFilter

O discriminador para tipos derivados.

consumeAllTokens

boolean

False

Um valor que indica se todos os tokens da entrada devem ser consumidos, mesmo que maxTokenCount seja atingido. O valor predefinido é falso.

maxTokenCount

integer (int32)

1

O número máximo de tokens a produzir. A predefinição é 1.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

LuceneStandardAnalyzer

Analisador Apache Lucene padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro stop.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.StandardAnalyzer

O discriminador para tipos derivados.

maxTokenLength

integer (int32)

maximum: 300
255

O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

name

string

O nome do analisador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

stopwords

string[]

Uma lista de palavras-chave.

LuceneStandardTokenizer

Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizer

O discriminador para tipos derivados.

maxTokenLength

integer (int32)

255

O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos.

name

string

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

LuceneStandardTokenizerV2

Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizerV2

O discriminador para tipos derivados.

maxTokenLength

integer (int32)

maximum: 300
255

O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

name

string

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

MagnitudeScoringFunction

Define uma função que aumenta as pontuações com base na magnitude de um campo numérico.

Name Tipo Description
boost

number (double)

Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0.

fieldName

string

O nome do campo usado como entrada para a função de pontuação.

interpolation

ScoringFunctionInterpolation

Um valor que indica como o impulsionamento será interpolado entre as pontuações dos documentos; o padrão é "Linear".

magnitude

MagnitudeScoringParameters

Valores de parâmetros para a função de pontuação de magnitude.

type string:

magnitude

Tipo de Função de Pontuação.

MagnitudeScoringParameters

Fornece valores de parâmetros para uma função de pontuação de magnitude.

Name Tipo Description
boostingRangeEnd

number (double)

O valor de campo no qual o impulsionamento termina.

boostingRangeStart

number (double)

O valor do campo no qual o impulsionamento começa.

constantBoostBeyondRange

boolean

Um valor que indica se deve ser aplicado um impulso constante para valores de campo além do valor final do intervalo; O padrão é false.

MappingCharFilter

Um filtro de caracteres que aplica mapeamentos definidos com a opção mapeamentos. A correspondência é gananciosa (a correspondência do padrão mais longo num dado ponto vence). A substituição pode ser a cadeia de caracteres vazia. Este filtro de caracteres é implementado usando Apache Lucene.

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.MappingCharFilter

O discriminador para tipos derivados.

mappings

string[]

Uma lista de mapeamentos do seguinte formato: "a=>b" (todas as ocorrências do caractere "a" serão substituídas pelo caractere "b").

name

string

O nome do filtro char. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

MicrosoftLanguageStemmingTokenizer

Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas base.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer

O discriminador para tipos derivados.

isSearchTokenizer

boolean

False

Um valor que indica como o tokenizador é usado. Defina como true se usado como o tokenizador de pesquisa, defina como false se usado como o tokenizador de indexação. O valor predefinido é falso.

language

MicrosoftStemmingTokenizerLanguage

A língua a utilizar. O padrão é inglês.

maxTokenLength

integer (int32)

maximum: 300
255

O comprimento máximo do token. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Tokens com mais de 300 caracteres são primeiro divididos em tokens de comprimento 300 e, em seguida, cada um desses tokens é dividido com base no conjunto de comprimento máximo do token. O padrão é 255.

name

string

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

MicrosoftLanguageTokenizer

Divide o texto usando regras específicas do idioma.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageTokenizer

O discriminador para tipos derivados.

isSearchTokenizer

boolean

False

Um valor que indica como o tokenizador é usado. Defina como true se usado como o tokenizador de pesquisa, defina como false se usado como o tokenizador de indexação. O valor predefinido é falso.

language

MicrosoftTokenizerLanguage

A língua a utilizar. O padrão é inglês.

maxTokenLength

integer (int32)

maximum: 300
255

O comprimento máximo do token. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Tokens com mais de 300 caracteres são primeiro divididos em tokens de comprimento 300 e, em seguida, cada um desses tokens é dividido com base no conjunto de comprimento máximo do token. O padrão é 255.

name

string

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

MicrosoftStemmingTokenizerLanguage

Lista as linguagens suportadas pelo tokenizador de stemming de linguagem da Microsoft.

Valor Description
arabic

Seleciona o tokenizador stemming da Microsoft para árabe.

bangla

Seleciona o tokenizador stemming da Microsoft para o Bangla.

bulgarian

Seleciona o tokenizador stemming da Microsoft para búlgaro.

catalan

Seleciona o tokenizador stemming da Microsoft para catalão.

croatian

Seleciona o tokenizador stemming da Microsoft para croata.

czech

Seleciona o tokenizador stemming da Microsoft para checo.

danish

Seleciona o tokenizador de stemming da Microsoft para dinamarquês.

dutch

Seleciona o tokenizador stemming da Microsoft para holandês.

english

Seleciona o tokenizador stemming da Microsoft para inglês.

estonian

Seleciona o tokenizador stemming da Microsoft para o estónio.

finnish

Seleciona o tokenizador stemming da Microsoft para finlandês.

french

Seleciona o tokenizador stemming da Microsoft para francês.

german

Seleciona o tokenizador stemming da Microsoft para alemão.

greek

Seleciona o tokenizador stemming da Microsoft para grego.

gujarati

Seleciona o tokenizador stemming da Microsoft para Gujarati.

hebrew

Seleciona o tokenizador stemming da Microsoft para hebraico.

hindi

Seleciona o tokenizador stemming da Microsoft para hindi.

hungarian

Seleciona o tokenizador stemming da Microsoft para húngaro.

icelandic

Seleciona o tokenizador stemming da Microsoft para islandês.

indonesian

Seleciona o tokenizador stemming da Microsoft para indonésio.

italian

Seleciona o tokenizador stemming da Microsoft para italiano.

kannada

Seleciona o tokenizador de stemming da Microsoft para canarês.

latvian

Seleciona o tokenizador stemming da Microsoft para o letão.

lithuanian

Seleciona o tokenizador stemming da Microsoft para o lituano.

malay

Seleciona o tokenizador de stemming da Microsoft para o malaio.

malayalam

Seleciona o tokenizador stemming da Microsoft para Malayalam.

marathi

Seleciona o tokenizador stemming da Microsoft para o marata.

norwegianBokmaal

Seleciona o Microsoft stemming tokenizer para norueguês (Bokmål).

polish

Seleciona o tokenizador stemming da Microsoft para polaco.

portuguese

Seleciona o tokenizador stemming da Microsoft para português.

portugueseBrazilian

Seleciona o tokenizador stemming da Microsoft para português (Brasil).

punjabi

Seleciona o tokenizador stemming da Microsoft para Punjabi.

romanian

Seleciona o tokenizador stemming da Microsoft para romeno.

russian

Seleciona o tokenizador de stemming da Microsoft para russo.

serbianCyrillic

Seleciona o tokenizador stemming da Microsoft para sérvio (cirílico).

serbianLatin

Seleciona o tokenizador stemming da Microsoft para sérvio (latim).

slovak

Seleciona o tokenizador stemming da Microsoft para eslovaco.

slovenian

Seleciona o tokenizador de stemming da Microsoft para o esloveno.

spanish

Seleciona o tokenizador stemming da Microsoft para espanhol.

swedish

Seleciona o tokenizador stemming da Microsoft para sueco.

tamil

Seleciona o tokenizador stemming da Microsoft para tâmil.

telugu

Seleciona o tokenizador stemming da Microsoft para Telugu.

turkish

Seleciona o tokenizador stemming da Microsoft para turco.

ukrainian

Seleciona o tokenizador stemming da Microsoft para ucraniano.

urdu

Seleciona o tokenizador stemming da Microsoft para urdu.

MicrosoftTokenizerLanguage

Lista as linguagens suportadas pelo tokenizador de linguagem da Microsoft.

Valor Description
bangla

Seleciona o tokenizador Microsoft para Bangla.

bulgarian

Seleciona o tokenizador Microsoft para búlgaro.

catalan

Seleciona o tokenizador Microsoft para catalão.

chineseSimplified

Seleciona o tokenizador Microsoft para chinês (Simplificado).

chineseTraditional

Seleciona o tokenizador Microsoft para chinês (Tradicional).

croatian

Seleciona o tokenizador Microsoft para croata.

czech

Seleciona o tokenizador Microsoft para checo.

danish

Seleciona o tokenizador Microsoft para dinamarquês.

dutch

Seleciona o tokenizador Microsoft para holandês.

english

Seleciona o tokenizador Microsoft para inglês.

french

Seleciona o tokenizador Microsoft para francês.

german

Seleciona o tokenizador Microsoft para alemão.

greek

Seleciona o tokenizador Microsoft para o grego.

gujarati

Seleciona o tokenizador Microsoft para Gujarati.

hindi

Seleciona o tokenizador da Microsoft para hindi.

icelandic

Seleciona o tokenizador Microsoft para islandês.

indonesian

Seleciona o tokenizador Microsoft para indonésio.

italian

Seleciona o tokenizador Microsoft para italiano.

japanese

Seleciona o tokenizador Microsoft para japonês.

kannada

Seleciona o tokenizador Microsoft para Kannada.

korean

Seleciona o tokenizador Microsoft para coreano.

malay

Seleciona o tokenizador Microsoft para malaio.

malayalam

Seleciona o tokenizador Microsoft para malaiala.

marathi

Seleciona o tokenizador Microsoft para Marathi.

norwegianBokmaal

Seleciona o tokenizador Microsoft para norueguês (Bokmål).

polish

Seleciona o tokenizador Microsoft para polaco.

portuguese

Seleciona o tokenizador Microsoft para português.

portugueseBrazilian

Seleciona o tokenizador Microsoft para português (Brasil).

punjabi

Seleciona o tokenizador Microsoft para Punjabi.

romanian

Seleciona o tokenizador Microsoft para romeno.

russian

Seleciona o tokenizador Microsoft para russo.

serbianCyrillic

Seleciona o tokenizador Microsoft para sérvio (cirílico).

serbianLatin

Seleciona o tokenizador Microsoft para sérvio (latim).

slovenian

Seleciona o tokenizador Microsoft para o esloveno.

spanish

Seleciona o tokenizador Microsoft para espanhol.

swedish

Seleciona o tokenizador Microsoft para sueco.

tamil

Seleciona o tokenizador Microsoft para tâmil.

telugu

Seleciona o tokenizador Microsoft para Telugu.

thai

Seleciona o tokenizador Microsoft para tailandês.

ukrainian

Seleciona o tokenizador Microsoft para ucraniano.

urdu

Seleciona o tokenizador Microsoft para urdu.

vietnamese

Seleciona o tokenizador Microsoft para vietnamita.

NGramTokenFilter

Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilter

O discriminador para tipos derivados.

maxGram

integer (int32)

2

O comprimento máximo de n-gramas. O padrão é 2.

minGram

integer (int32)

1

O comprimento mínimo de n-gramas. A predefinição é 1. Deve ser menor que o valor de maxGram.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

NGramTokenFilterV2

Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilterV2

O discriminador para tipos derivados.

maxGram

integer (int32)

maximum: 300
2

O comprimento máximo de n-gramas. O padrão é 2. O máximo é de 300.

minGram

integer (int32)

maximum: 300
1

O comprimento mínimo de n-gramas. A predefinição é 1. O máximo é de 300. Deve ser menor que o valor de maxGram.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

NGramTokenizer

Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Este tokenizador é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenizer

O discriminador para tipos derivados.

maxGram

integer (int32)

maximum: 300
2

O comprimento máximo de n-gramas. O padrão é 2. O máximo é de 300.

minGram

integer (int32)

maximum: 300
1

O comprimento mínimo de n-gramas. A predefinição é 1. O máximo é de 300. Deve ser menor que o valor de maxGram.

name

string

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

tokenChars

TokenCharacterKind[]

Classes de caracteres para manter nos tokens.

PathHierarchyTokenizerV2

Tokenizador para hierarquias semelhantes a caminhos. Este tokenizador é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.PathHierarchyTokenizerV2

O discriminador para tipos derivados.

delimiter

string

maxLength: 1
/

O caractere delimitador a ser usado. O padrão é "/".

maxTokenLength

integer (int32)

maximum: 300
300

O comprimento máximo do token. O padrão e máximo é 300.

name

string

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

replacement

string

maxLength: 1
/

Um valor que, se definido, substitui o caractere delimitador. O padrão é "/".

reverse

boolean

False

Um valor que indica se os tokens devem ser gerados em ordem inversa. O valor predefinido é falso.

skip

integer (int32)

0

O número de tokens iniciais a serem ignorados. O padrão é 0.

PatternAnalyzer

Separa o texto de forma flexível em termos através de um padrão de expressão regular. Este analisador é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.PatternAnalyzer

O discriminador para tipos derivados.

flags

string

Flags de expressão regular, especificados como uma cadeia separada de valores RegexFlags por '|'.

lowercase

boolean

True

Um valor que indica se os termos devem ser minúsculos. A predefinição é verdadeira.

name

string

O nome do analisador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

pattern

string

\W+

Um padrão de expressão regular para corresponder aos separadores de token. Padrão é uma expressão que corresponde a um ou mais caracteres que não são palavras.

stopwords

string[]

Uma lista de palavras-chave.

PatternCaptureTokenFilter

Usa regexes Java para emitir vários tokens - um para cada grupo de captura em um ou mais padrões. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.PatternCaptureTokenFilter

O discriminador para tipos derivados.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

patterns

string[]

Uma lista de padrões a serem comparados a cada token.

preserveOriginal

boolean

True

Um valor que indica se o token original deve ser retornado, mesmo que um dos padrões corresponda. A predefinição é verdadeira.

PatternReplaceCharFilter

Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de caracteres é implementado usando Apache Lucene.

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceCharFilter

O discriminador para tipos derivados.

name

string

O nome do filtro char. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

pattern

string

Um padrão de expressão regular.

replacement

string

O texto de substituição.

PatternReplaceTokenFilter

Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de token é implementado usando Apache Lucene.

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceTokenFilter

O discriminador para tipos derivados.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

pattern

string

Um padrão de expressão regular.

replacement

string

O texto de substituição.

PatternTokenizer

Tokenizador que usa a correspondência de padrões regex para construir tokens distintos. Este tokenizador é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.PatternTokenizer

O discriminador para tipos derivados.

flags

string

Flags de expressão regular, especificados como uma cadeia separada de valores RegexFlags por '|'.

group

integer (int32)

-1

O ordinal baseado em zero do grupo correspondente no padrão de expressão regular a ser extraído em tokens. Use -1 se quiser usar o padrão inteiro para dividir a entrada em tokens, independentemente dos grupos correspondentes. O padrão é -1.

name

string

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

pattern

string

\W+

Um padrão de expressão regular para corresponder aos separadores de token. Padrão é uma expressão que corresponde a um ou mais caracteres que não são palavras.

PhoneticEncoder

Identifica o tipo de codificador fonético a ser usado com um PhoneticTokenFilter.

Valor Description
metaphone

Codifica um token em um valor de metafone.

doubleMetaphone

Codifica um token em um valor de metafone duplo.

soundex

Codifica um token em um valor Soundex.

refinedSoundex

Codifica um token em um valor Refined Soundex.

caverphone1

Codifica um token em um valor Caverphone 1.0.

caverphone2

Codifica um token em um valor Caverphone 2.0.

cologne

Codifica um token em um valor fonético de Colônia.

nysiis

Codifica um token em um valor NYSIIS.

koelnerPhonetik

Codifica um token usando o algoritmo Kölner Phonetik.

haasePhonetik

Codifica um token usando o refinamento Haase do algoritmo Kölner Phonetik.

beiderMorse

Codifica um token em um valor Beider-Morse.

PhoneticTokenFilter

Crie tokens para correspondências fonéticas. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.PhoneticTokenFilter

O discriminador para tipos derivados.

encoder

PhoneticEncoder

metaphone

O codificador fonético a ser usado. O padrão é "metafone".

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

replace

boolean

True

Um valor que indica se os tokens codificados devem substituir os tokens originais. Se false, tokens codificados são adicionados como sinônimos. A predefinição é verdadeira.

RankingOrder

Representa a pontuação a ser usada para a ordem de classificação dos documentos.

Valor Description
BoostedRerankerScore

Define a ordem de classificação como BoostedRerankerScore

RerankerScore

Define a ordem de classificação como ReRankerScore

RescoringOptions

Contém as opções para pontuação.

Name Tipo Default value Description
defaultOversampling

number (double)

Fator de sobreamostragem padrão. A sobreamostragem recupera um conjunto maior de documentos potenciais para compensar a perda de resolução devido à quantização. Isso aumenta o conjunto de resultados que serão remarcados em vetores de precisão total. O valor mínimo é 1, o que significa que não há sobreamostragem (1x). Este parâmetro só pode ser definido quando 'enableRescoring' é true. Valores mais altos melhoram a recuperação em detrimento da latência.

enableRescoring

boolean

True

Se definido como true, após a pesquisa inicial nos vetores compactados, as pontuações de similaridade são recalculadas usando os vetores de precisão total. Isso melhorará a recuperação em detrimento da latência.

rescoreStorageMethod enum:
  • discardOriginals
  • preserveOriginals
preserveOriginals

Controla o método de armazenamento para vetores originais. Essa configuração é imutável.

ScalarQuantizationCompression

Contém opções de configuração específicas para o método de compressão de quantização escalar usado durante a indexação e consulta.

Name Tipo Description
kind string:

scalarQuantization

Tipo de Pesquisa VetorialCompressão.

name

string

O nome a ser associado a essa configuração específica.

rescoringOptions

RescoringOptions

Contém as opções para pontuação.

scalarQuantizationParameters

ScalarQuantizationParameters

Contém os parâmetros específicos da Quantização Escalar.

truncationDimension

integer (int32)

O número de dimensões para truncar os vetores. Truncar os vetores reduz o tamanho dos vetores e a quantidade de dados que precisam ser transferidos durante a pesquisa. Isso pode economizar custos de armazenamento e melhorar o desempenho da pesquisa às custas da recuperação. Ele só deve ser usado para incorporações treinadas com Matryoshka Representation Learning (MRL), como OpenAI text-embedding-3-large (small). O valor padrão é null, o que significa que não há truncamento.

ScalarQuantizationParameters

Contém os parâmetros específicos da Quantização Escalar.

Name Tipo Description
quantizedDataType

VectorSearchCompressionTarget

O tipo de dados quantizados de valores vetoriais compactados.

ScoringFunctionAggregation

Define a função de agregação usada para combinar os resultados de todas as funções de pontuação em um perfil de pontuação.

Valor Description
sum

Aumente as pontuações pela soma de todos os resultados da função de pontuação.

average

Aumente as pontuações pela média de todos os resultados da função de pontuação.

minimum

Aumente as pontuações pelo mínimo de todos os resultados da função de pontuação.

maximum

Aumente as pontuações pelo máximo de todos os resultados da função de pontuação.

firstMatching

Aumente as pontuações usando a primeira função de pontuação aplicável no perfil de pontuação.

product

Aumente as pontuações pelo produto de todos os resultados da função de pontuação.

ScoringFunctionInterpolation

Define a função usada para interpolar o aumento da pontuação em uma variedade de documentos.

Valor Description
linear

Aumenta as pontuações em uma quantidade linearmente decrescente. Esta é a interpolação padrão para funções de pontuação.

constant

Aumenta as pontuações por um fator constante.

quadratic

Aumenta as pontuações em uma quantidade que diminui quadraticamente. Os impulsos diminuem lentamente para pontuações mais altas e mais rapidamente à medida que as pontuações diminuem. Esta opção de interpolação não é permitida em funções de pontuação de tags.

logarithmic

Aumenta as pontuações em uma quantidade que diminui logaritmicamente. Os impulsos diminuem rapidamente para pontuações mais altas e mais lentamente à medida que as pontuações diminuem. Esta opção de interpolação não é permitida em funções de pontuação de tags.

ScoringProfile

Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa.

Name Tipo Description
functionAggregation

ScoringFunctionAggregation

Um valor que indica como os resultados de funções de pontuação individuais devem ser combinados. O padrão é "Soma". Ignorado se não houver funções de pontuação.

functions ScoringFunction[]:

A coleção de funções que influenciam a pontuação de documentos.

name

string

O nome do perfil de pontuação.

text

TextWeights

Parâmetros que aumentam a pontuação com base em correspondências de texto em determinados campos de índice.

SearchField

Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

Name Tipo Description
analyzer

LexicalAnalyzerName

O nome do analisador a ser usado para o campo. Essa opção pode ser usada apenas com campos pesquisáveis e não pode ser definida junto com searchAnalyzer ou indexAnalyzer. Uma vez que o analisador é escolhido, ele não pode ser alterado para o campo. Deve ser nulo para campos complexos.

dimensions

integer (int32)

minimum: 2
maximum: 4096

A dimensionalidade do campo vetorial.

facetable

boolean

Um valor que indica se o campo deve ser referenciado em consultas de facetas. Normalmente usado em uma apresentação de resultados de pesquisa que inclui contagem de visitas por categoria (por exemplo, pesquisar câmeras digitais e ver acessos por marca, por megapixels, por preço e assim por diante). Esta propriedade deve ser nula para campos complexos. Os campos do tipo Edm.GeographyPoint ou Collection(Edm.GeographyPoint) não podem ser facial. O padrão é verdadeiro para todos os outros campos simples.

fields

SearchField[]

Uma lista de subcampos se este for um campo do tipo Edm.ComplexType ou Collection(Edm.ComplexType). Deve ser nulo ou vazio para campos simples.

filterable

boolean

Um valor que indica se o campo deve ser referenciado em consultas $filter. Filtrável difere de pesquisável em como as cadeias de caracteres são manipuladas. Os campos do tipo Edm.String ou Collection(Edm.String) que podem ser filtrados não sofrem quebra de palavras, portanto, as comparações são apenas para correspondências exatas. Por exemplo, se você definir tal campo f como "dia ensolarado", $filter=f eq 'ensolarado' não encontrará correspondências, mas $filter=f eq 'dia ensolarado' irá. Esta propriedade deve ser nula para campos complexos. O padrão é true para campos simples e null para campos complexos.

indexAnalyzer

LexicalAnalyzerName

O nome do analisador usado no momento da indexação para o campo. Esta opção só pode ser usada com campos pesquisáveis. Ele deve ser definido junto com searchAnalyzer e não pode ser definido junto com a opção do analisador. Esta propriedade não pode ser definida como o nome de um analisador de linguagem; Em vez disso, use a propriedade Analyzer se precisar de um analisador de linguagem. Uma vez que o analisador é escolhido, ele não pode ser alterado para o campo. Deve ser nulo para campos complexos.

key

boolean

Um valor que indica se o campo identifica exclusivamente documentos no índice. Exatamente um campo de nível superior em cada índice deve ser escolhido como o campo chave e deve ser do tipo Edm.String. Os campos-chave podem ser usados para pesquisar documentos diretamente e atualizar ou excluir documentos específicos. O padrão é false para campos simples e null para campos complexos.

name

string

O nome do campo, que deve ser exclusivo dentro da coleção de campos do campo de índice ou pai.

normalizer

LexicalNormalizerName

O nome do normalizador a ser usado para o campo. Esta opção só pode ser usada com campos com filtrável, classificável ou facetable ativado. Uma vez que o normalizador é escolhido, ele não pode ser alterado para o campo. Deve ser nulo para campos complexos.

retrievable

boolean

Um valor que indica se o campo pode ser retornado em um resultado de pesquisa. Você pode desabilitar essa opção se quiser usar um campo (por exemplo, margem) como filtro, classificação ou mecanismo de pontuação, mas não quiser que o campo fique visível para o usuário final. Essa propriedade deve ser true para campos chave e deve ser nula para campos complexos. Esta propriedade pode ser alterada em campos existentes. A habilitação dessa propriedade não causa nenhum aumento nos requisitos de armazenamento de índice. O padrão é true para campos simples, false para campos vetoriais e null para campos complexos.

searchAnalyzer

LexicalAnalyzerName

O nome do analisador usado no momento da pesquisa para o campo. Esta opção só pode ser usada com campos pesquisáveis. Ele deve ser definido junto com o indexAnalyzer e não pode ser definido junto com a opção do analisador. Esta propriedade não pode ser definida como o nome de um analisador de linguagem; Em vez disso, use a propriedade Analyzer se precisar de um analisador de linguagem. Este analisador pode ser atualizado em um campo existente. Deve ser nulo para campos complexos.

searchable

boolean

Um valor que indica se o campo pode ser pesquisado em texto completo. Isso significa que ele passará por análises, como quebra de palavras durante a indexação. Se você definir um campo pesquisável para um valor como "dia ensolarado", internamente ele será dividido nos tokens individuais "ensolarado" e "dia". Isso permite pesquisas de texto completo para esses termos. Os campos do tipo Edm.String ou Collection(Edm.String) são pesquisáveis por padrão. Essa propriedade deve ser false para campos simples de outros tipos de dados que não sejam de cadeia de caracteres e deve ser nula para campos complexos. Nota: os campos pesquisáveis consomem espaço extra no índice para acomodar versões tokenizadas adicionais do valor do campo para pesquisas de texto completo. Se quiser economizar espaço no índice e não precisar de um campo para ser incluído nas pesquisas, defina pesquisável como false.

sortable

boolean

Um valor que indica se o campo deve ser referenciado em expressões $orderby. Por padrão, o mecanismo de pesquisa classifica os resultados por pontuação, mas em muitas experiências os usuários vão querer classificar por campos nos documentos. Um campo simples só pode ser classificado se tiver um único valor (tem um único valor no âmbito do documento principal). Os campos de recolha simples não podem ser ordenados, uma vez que têm vários valores. Subcampos simples de coleções complexas também são multivalorados e, portanto, não podem ser classificados. Isso é verdade, quer seja um campo pai imediato ou um campo ancestral, que constitui a coleção complexa. Campos complexos não podem ser classificáveis e a propriedade sortable deve ser nula para esses campos. O padrão para classificável é true para campos simples de valor único, false para campos simples de vários valores e null para campos complexos.

stored

boolean

Um valor imutável que indica se o campo será persistido separadamente no disco para ser retornado em um resultado de pesquisa. Você pode desativar essa opção se não planeja retornar o conteúdo do campo em uma resposta de pesquisa para economizar na sobrecarga de armazenamento. Isso só pode ser definido durante a criação do índice e somente para campos vetoriais. Esta propriedade não pode ser alterada para campos existentes ou definida como false para novos campos. Se essa propriedade for definida como false, a propriedade 'retrievable' também deverá ser definida como false. Essa propriedade deve ser true ou unset para campos chave, para novos campos e para campos não vetoriais, e deve ser nula para campos complexos. A desativação dessa propriedade reduzirá os requisitos de armazenamento do índice. O padrão é true para campos vetoriais.

synonymMaps

string[]

Uma lista dos nomes dos mapas de sinónimos a associar a este campo. Esta opção só pode ser usada com campos pesquisáveis. Atualmente, apenas um mapa de sinônimo por campo é suportado. A atribuição de um mapa de sinônimo a um campo garante que os termos de consulta direcionados a esse campo sejam expandidos no momento da consulta usando as regras no mapa de sinônimos. Este atributo pode ser alterado em campos existentes. Deve ser nulo ou uma coleção vazia para campos complexos.

type

SearchFieldDataType

O tipo de dados do campo.

vectorEncoding

VectorEncodingFormat

O formato de codificação para interpretar o conteúdo do campo.

vectorSearchProfile

string

O nome do perfil de pesquisa vetorial que especifica o algoritmo e o vetorizador a serem usados ao pesquisar o campo vetorial.

SearchFieldDataType

Define o tipo de dados de um campo em um índice de pesquisa.

Valor Description
Edm.String

Indica que um campo contém uma cadeia de caracteres.

Edm.Int32

Indica que um campo contém um inteiro assinado de 32 bits.

Edm.Int64

Indica que um campo contém um inteiro assinado de 64 bits.

Edm.Double

Indica que um campo contém um número de ponto flutuante de precisão dupla IEEE.

Edm.Boolean

Indica que um campo contém um valor booleano (true ou false).

Edm.DateTimeOffset

Indica que um campo contém um valor de data/hora, incluindo informações de fuso horário.

Edm.GeographyPoint

Indica que um campo contém uma geolocalização em termos de longitude e latitude.

Edm.ComplexType

Indica que um campo contém um ou mais objetos complexos que, por sua vez, têm subcampos de outros tipos.

Edm.Single

Indica que um campo contém um número de ponto flutuante de precisão única. Isso só é válido quando usado com Collection(Edm.Single).

Edm.Half

Indica que um campo contém um número de ponto flutuante de meia precisão. Isso só é válido quando usado com Collection(Edm.Half).

Edm.Int16

Indica que um campo contém um inteiro assinado de 16 bits. Isso só é válido quando usado com Collection(Edm.Int16).

Edm.SByte

Indica que um campo contém um inteiro assinado de 8 bits. Isso só é válido quando usado com Collection(Edm.SByte).

Edm.Byte

Indica que um campo contém um inteiro não assinado de 8 bits. Isso só é válido quando usado com Collection(Edm.Byte).

SearchIndex

Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice.

Name Tipo Description
@odata.etag

string

O ETag do índice.

analyzers LexicalAnalyzer[]:

Os analisadores para o índice.

charFilters CharFilter[]:

Os filtros de caracteres para o índice.

corsOptions

CorsOptions

Opções para controlar o Cross-Origin Resource Sharing (CORS) para o índice.

defaultScoringProfile

string

O nome do perfil de pontuação a ser usado se nenhum for especificado na consulta. Se essa propriedade não estiver definida e nenhum perfil de pontuação for especificado na consulta, a pontuação padrão (tf-idf) será usada.

description

string

A descrição do índice.

encryptionKey

SearchResourceEncryptionKey

Uma descrição de uma chave de criptografia que você cria no Cofre de Chaves do Azure. Esta chave é usada para fornecer um nível adicional de encriptação em repouso para os seus dados quando quer total garantia de que ninguém, nem sequer a Microsoft, pode desencriptar os seus dados. Depois de ter encriptado os seus dados, estes permanecerão sempre encriptados. O serviço de pesquisa ignorará as tentativas de definir essa propriedade como null. Você pode alterar essa propriedade conforme necessário se quiser girar sua chave de criptografia; Os seus dados não serão afetados. A criptografia com chaves gerenciadas pelo cliente não está disponível para serviços de pesquisa gratuitos e só está disponível para serviços pagos criados em ou após 1º de janeiro de 2019.

fields

SearchField[]

Os campos do índice.

name

string

O nome do índice.

normalizers LexicalNormalizer[]:

CustomNormalizer[]

Os normalizadores para o índice.

scoringProfiles

ScoringProfile[]

Os perfis de pontuação para o índice.

semantic

SemanticSearch

Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos.

similarity SimilarityAlgorithm:

O tipo de algoritmo de semelhança a ser usado ao pontuar e classificar os documentos correspondentes a uma consulta de pesquisa. O algoritmo de semelhança só pode ser definido no momento da criação do índice e não pode ser modificado em índices existentes. Se null, o algoritmo ClassicSimilarity é usado.

suggesters

SearchSuggester[]

As sugestões para o índice.

tokenFilters TokenFilter[]:

O token filtra o índice.

tokenizers LexicalTokenizer[]:

Os tokenizadores para o índice.

vectorSearch

VectorSearch

Contém opções de configuração relacionadas à pesquisa vetorial.

SearchIndexerDataNoneIdentity

Limpa a propriedade identity de uma fonte de dados.

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.DataNoneIdentity

Um fragmento de URI especificando o tipo de identidade.

SearchIndexerDataUserAssignedIdentity

Especifica a identidade a ser usada por uma fonte de dados.

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.DataUserAssignedIdentity

Um fragmento de URI especificando o tipo de identidade.

userAssignedIdentity

string

A ID de recurso do Azure totalmente qualificada de uma identidade gerenciada atribuída ao usuário normalmente no formato "/subscriptions/12345678-1234-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId" que deveria ter sido atribuída ao serviço de pesquisa.

SearchResourceEncryptionKey

Uma chave de criptografia gerenciada pelo cliente no Cofre de Chaves do Azure. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso, como índices e mapas de sinônimos.

Name Tipo Description
accessCredentials.applicationId

string

Uma ID de Aplicativo AAD que recebeu as permissões de acesso necessárias ao Cofre da Chave do Azure que deve ser usada ao criptografar seus dados em repouso. A ID do aplicativo não deve ser confundida com a ID do objeto do seu aplicativo AAD.

accessCredentials.applicationSecret

string

A chave de autenticação do aplicativo AAD especificado.

identity SearchIndexerDataIdentity:

Uma identidade gerenciada explícita a ser usada para essa chave de criptografia. Se não for especificado e a propriedade de credenciais de acesso for nula, a identidade gerenciada atribuída ao sistema será usada. Na atualização do recurso, se a identidade explícita não for especificada, ela permanecerá inalterada. Se "nenhum" for especificado, o valor dessa propriedade será limpo.

keyVaultKeyName

string

O nome da sua chave do Cofre da Chave do Azure a ser usada para criptografar seus dados em repouso.

keyVaultKeyVersion

string

A versão da chave do Cofre da Chave do Azure a ser usada para criptografar seus dados em repouso.

keyVaultUri

string

O URI do seu Cofre da Chave do Azure, também conhecido como nome DNS, que contém a chave a ser usada para criptografar seus dados em repouso. Um exemplo de URI pode ser https://my-keyvault-name.vault.azure.net.

SearchSuggester

Define como a API Sugerir deve ser aplicada a um grupo de campos no índice.

Name Tipo Description
name

string

O nome do sugestionador.

searchMode enum:

analyzingInfixMatching

Um valor que indica as capacidades do sugestionador.

sourceFields

string[]

A lista de nomes de campos aos quais o sugeridor se aplica. Cada campo deve ser pesquisável.

SemanticConfiguration

Define uma configuração específica a ser usada no contexto de recursos semânticos.

Name Tipo Description
name

string

O nome da configuração semântica.

prioritizedFields

SemanticPrioritizedFields

Descreve os campos de título, conteúdo e palavra-chave a serem usados para classificação semântica, legendas, destaques e respostas. Pelo menos uma das três subpropriedades (titleField, priorizdKeywordsFields e priorizdContentFields) precisa ser definida.

rankingOrder

RankingOrder

Especifica o tipo de pontuação a ser usado para a ordem de classificação dos resultados da pesquisa.

SemanticField

Um campo que é usado como parte da configuração semântica.

Name Tipo Description
fieldName

string

Nome do ficheiro

SemanticPrioritizedFields

Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, destaques e respostas.

Name Tipo Description
prioritizedContentFields

SemanticField[]

Define os campos de conteúdo a serem usados para classificação semântica, legendas, destaques e respostas. Para obter o melhor resultado, os campos selecionados devem conter texto em linguagem natural. A ordem dos campos na matriz representa sua prioridade. Os campos com prioridade mais baixa podem ficar truncados se o conteúdo for longo.

prioritizedKeywordsFields

SemanticField[]

Define os campos de palavra-chave a serem usados para classificação semântica, legendas, destaques e respostas. Para obter o melhor resultado, os campos selecionados devem conter uma lista de palavras-chave. A ordem dos campos na matriz representa sua prioridade. Os campos com prioridade mais baixa podem ficar truncados se o conteúdo for longo.

titleField

SemanticField

Define o campo de título a ser usado para classificação semântica, legendas, destaques e respostas. Se não tiver um campo de título no índice, deixe-o em branco.

SemanticSearch

Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos.

Name Tipo Description
configurations

SemanticConfiguration[]

As configurações semânticas para o índice.

defaultConfiguration

string

Permite definir o nome de uma configuração semântica padrão em seu índice, tornando opcional transmiti-lo como um parâmetro de consulta sempre.

ShingleTokenFilter

Cria combinações de tokens como um único token. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.ShingleTokenFilter

O discriminador para tipos derivados.

filterToken

string

_

A cadeia de caracteres a ser inserida para cada posição na qual não há token. O padrão é um sublinhado ("_").

maxShingleSize

integer (int32)

minimum: 2
2

O tamanho máximo da telha. O valor padrão e mínimo é 2.

minShingleSize

integer (int32)

minimum: 2
2

O tamanho mínimo da telha. O valor padrão e mínimo é 2. Deve ser menor que o valor de maxShingleSize.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

outputUnigrams

boolean

True

Um valor que indica se o fluxo de saída conterá os tokens de entrada (unigramas), bem como telhas. A predefinição é verdadeira.

outputUnigramsIfNoShingles

boolean

False

Um valor que indica a saída de unigramas para os momentos em que não há telhas disponíveis. Essa propriedade tem precedência quando outputUnigrams é definido como false. O valor predefinido é falso.

tokenSeparator

string

A cadeia de caracteres a ser usada ao unir tokens adjacentes para formar uma telha. O padrão é um único espaço (" ").

SnowballTokenFilter

Um filtro que deriva palavras usando um lematizador gerado por Bola-de-Neve. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.SnowballTokenFilter

O discriminador para tipos derivados.

language

SnowballTokenFilterLanguage

A língua a utilizar.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

SnowballTokenFilterLanguage

O idioma a ser usado para um filtro de token do Snowball.

Valor Description
armenian

Seleciona o tokenizador Lucene Snowball para armênio.

basque

Seleciona o tokenizador Lucene Snowball para basco.

catalan

Seleciona o tokenizador Lucene Snowball para catalão.

danish

Seleciona o tokenizador Lucene Snowball para dinamarquês.

dutch

Seleciona o tokenizador Lucene Snowball para holandês.

english

Seleciona o tokenizador de derivação Lucene Snowball para inglês.

finnish

Seleciona o tokenizador de derivação Lucene Snowball para finlandês.

french

Seleciona o tokenizador Lucene Snowball para francês.

german

Seleciona o tokenizador Lucene Snowball para alemão.

german2

Seleciona o tokenizador de derivação Lucene Snowball que usa o algoritmo variante alemão.

hungarian

Seleciona o tokenizador Lucene Snowball para húngaro.

italian

Seleciona o tokenizador Lucene Snowball para italiano.

kp

Seleciona o tokenizador de derivação Lucene Snowball para holandês que usa o algoritmo de derivação Kraaij-Pohlmann.

lovins

Seleciona o tokenizador de derivação Lucene Snowball para inglês que usa o algoritmo de derivação Lovins.

norwegian

Seleciona o tokenizador Lucene Snowball para norueguês.

porter

Seleciona o tokenizador de derivação Lucene Snowball para inglês que usa o algoritmo de derivação de Porter.

portuguese

Seleciona o tokenizador Lucene Snowball para português.

romanian

Seleciona o tokenizador Lucene Snowball para romeno.

russian

Seleciona o tokenizador Lucene Snowball para russo.

spanish

Seleciona o tokenizador Lucene Snowball para espanhol.

swedish

Seleciona o tokenizador Lucene Snowball para sueco.

turkish

Seleciona o tokenizador Lucene Snowball para turco.

StemmerOverrideTokenFilter

Fornece a capacidade de substituir outros filtros de derivação com derivação personalizada baseada em dicionário. Quaisquer termos dicionários serão marcados como palavras-chave para que não sejam engessados com lematizadores ao longo da cadeia. Deve ser colocado antes de quaisquer filtros de derivação. Este filtro de token é implementado usando Apache Lucene. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.StemmerOverrideTokenFilter

O discriminador para tipos derivados.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

rules

string[]

Uma lista de regras derivadas no seguinte formato: "word => stem", por exemplo: "ran => run".

StemmerTokenFilter

Filtro de derivação específico da linguagem. Este filtro de token é implementado usando Apache Lucene. Veja https://dotnet.territoriali.olinfo.it/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.StemmerTokenFilter

O discriminador para tipos derivados.

language

StemmerTokenFilterLanguage

A língua a utilizar.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

StemmerTokenFilterLanguage

A linguagem a ser usada para um filtro de token de lematizador.

Valor Description
arabic

Seleciona o tokenizador de derivação Lucene para árabe.

armenian

Seleciona o tokenizador de derivação Lucene para armênio.

basque

Seleciona o tokenizador Lucene para basco.

brazilian

Seleciona o tokenizador de derivação Lucene para português (Brasil).

bulgarian

Seleciona o tokenizador de derivação Lucene para búlgaro.

catalan

Seleciona o tokenizador Lucene para catalão.

czech

Seleciona o tokenizador de derivação Lucene para tcheco.

danish

Seleciona o tokenizador de derivação Lucene para dinamarquês.

dutch

Seleciona o tokenizador de derivação Lucene para holandês.

dutchKp

Seleciona o tokenizador de derivação Lucene para holandês que usa o algoritmo de derivação Kraaij-Pohlmann.

english

Seleciona o tokenizador de derivação Lucene para inglês.

lightEnglish

Seleciona o tokenizador de derivação Lucene para inglês que faz derivação leve.

minimalEnglish

Seleciona o tokenizador de derivação Lucene para inglês que faz o mínimo de derivação.

possessiveEnglish

Seleciona o tokenizador de derivação Lucene para o inglês que remove possessivos finais das palavras.

porter2

Seleciona o tokenizador de derivação Lucene para inglês que usa o algoritmo de derivação Porter2.

lovins

Seleciona o tokenizador de derivação Lucene para inglês que usa o algoritmo de derivação Lovins.

finnish

Seleciona o tokenizador de derivação Lucene para finlandês.

lightFinnish

Seleciona o tokenizador de derivação Lucene para finlandês que faz derivação leve.

french

Seleciona o tokenizador de derivação Lucene para francês.

lightFrench

Seleciona o tokenizador de derivação Lucene para francês que faz derivação leve.

minimalFrench

Seleciona o tokenizador Lucene stemming para francês que faz o mínimo de derivação.

galician

Seleciona o tokenizador Lucene para galego.

minimalGalician

Seleciona o tokenizador Lucene stemming para galego que faz o mínimo de derivação.

german

Seleciona o tokenizador de derivação Lucene para alemão.

german2

Seleciona o tokenizador de derivação Lucene que usa o algoritmo variante alemão.

lightGerman

Seleciona o tokenizador de derivação Lucene para alemão que faz derivação leve.

minimalGerman

Seleciona o tokenizador de derivação Lucene para alemão que faz o mínimo de derivação.

greek

Seleciona o tokenizador Lucene para grego.

hindi

Seleciona o tokenizador de derivação Lucene para Hindi.

hungarian

Seleciona o tokenizador Lucene para húngaro.

lightHungarian

Seleciona o tokenizador Lucene stemming para húngaro que faz derivação leve.

indonesian

Seleciona o tokenizador de derivação Lucene para indonésio.

irish

Seleciona o tokenizador Lucene stemming para irlandês.

italian

Seleciona o tokenizador de derivação Lucene para italiano.

lightItalian

Seleciona o tokenizador Lucene stemming para italiano que faz derivação leve.

sorani

Seleciona o tokenizador de derivação Lucene para Sorani.

latvian

Seleciona o tokenizador de derivação Lucene para letão.

norwegian

Seleciona o tokenizador de stemming Lucene para norueguês (Bokmål).

lightNorwegian

Seleciona o tokenizador de stemming Lucene para norueguês (Bokmål) que faz stemming leve.

minimalNorwegian

Seleciona o tokenizador de stemming Lucene para norueguês (Bokmål) que faz stemming mínimo.

lightNynorsk

Seleciona o tokenizador de derivação Lucene para norueguês (Nynorsk) que faz derivação leve.

minimalNynorsk

Seleciona o tokenizador Lucene stemming para norueguês (Nynorsk) que faz o mínimo de derivação.

portuguese

Seleciona o tokenizador Lucene para português.

lightPortuguese

Seleciona o tokenizador Lucene stemming para português que faz derivação leve.

minimalPortuguese

Seleciona o tokenizador Lucene stemming para português que faz o mínimo de derivação.

portugueseRslp

Seleciona o tokenizador de derivação Lucene para português que usa o algoritmo de derivação RSLP.

romanian

Seleciona o tokenizador de derivação Lucene para romeno.

russian

Seleciona o tokenizador de derivação Lucene para russo.

lightRussian

Seleciona o tokenizador de derivação Lucene para russo que faz derivação leve.

spanish

Seleciona o tokenizador de derivação Lucene para espanhol.

lightSpanish

Seleciona o tokenizador de derivação Lucene para espanhol que faz derivação leve.

swedish

Seleciona o tokenizador de derivação Lucene para sueco.

lightSwedish

Seleciona o tokenizador de derivação Lucene para sueco que faz derivação leve.

turkish

Seleciona o tokenizador de derivação Lucene para turco.

StopAnalyzer

Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Este analisador é implementado usando Apache Lucene.

Name Tipo Description
@odata.type string:

#Microsoft.Azure.Search.StopAnalyzer

O discriminador para tipos derivados.

name

string

O nome do analisador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

stopwords

string[]

Uma lista de palavras-chave.

StopwordsList

Identifica uma lista predefinida de palavras paradas específicas do idioma.

Valor Description
arabic

Seleciona a lista de palavras paradas para árabe.

armenian

Seleciona a lista de palavras paradas para armênio.

basque

Seleciona a lista de palavras paradas para basco.

brazilian

Seleciona a lista de palavras paradas para Português (Brasil).

bulgarian

Seleciona a lista de palavras paradas para búlgaro.

catalan

Seleciona a lista de palavras paradas para catalão.

czech

Seleciona a lista de palavras paradas para tcheco.

danish

Seleciona a lista de palavras paradas para dinamarquês.

dutch

Seleciona a lista de palavras paradas para holandês.

english

Seleciona a lista de palavras paradas para inglês.

finnish

Seleciona a lista de palavras paradas para finlandês.

french

Seleciona a lista de palavras paradas para francês.

galician

Seleciona a lista de palavras paradas para galego.

german

Seleciona a lista de palavras paradas para alemão.

greek

Seleciona a lista de palavras paradas para grego.

hindi

Seleciona a lista de palavras paradas para hindi.

hungarian

Seleciona a lista de palavras paradas para húngaro.

indonesian

Seleciona a lista de palavras paradas para indonésio.

irish

Seleciona a lista de palavras paradas para irlandês.

italian

Seleciona a lista de palavras paradas para italiano.

latvian

Seleciona a lista de palavras paradas para letão.

norwegian

Seleciona a lista de palavras paradas para norueguês.

persian

Seleciona a lista de palavras paradas para persa.

portuguese

Seleciona a lista de palavras paradas para português.

romanian

Seleciona a lista de palavras paradas para romeno.

russian

Seleciona a lista de palavras paradas para russo.

sorani

Seleciona a lista de palavras paradas para Sorani.

spanish

Seleciona a lista de palavras paradas para espanhol.

swedish

Seleciona a lista de palavras paradas para sueco.

thai

Seleciona a lista de palavras paradas para tailandês.

turkish

Seleciona a lista de palavras paradas para turco.

StopwordsTokenFilter

Remove palavras irrelevantes de um fluxo de tokens. Este filtro de token é implementado usando Apache Lucene. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.StopwordsTokenFilter

O discriminador para tipos derivados.

ignoreCase

boolean

False

Um valor que indica se as maiúsculas e minúsculas devem ser ignoradas. Se verdadeiro, todas as palavras são convertidas em minúsculas primeiro. O valor predefinido é falso.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

removeTrailing

boolean

True

Um valor que indica se o último termo de pesquisa deve ser ignorado se for uma palavra de interrupção. A predefinição é verdadeira.

stopwords

string[]

A lista de palavras-chave. Esta propriedade e a propriedade stopwords list não podem ser definidas.

stopwordsList

StopwordsList

english

Uma lista predefinida de palavras de paragem a utilizar. Esta propriedade e a propriedade stopwords não podem ser definidas. O padrão é inglês.

SynonymTokenFilter

Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.SynonymTokenFilter

O discriminador para tipos derivados.

expand

boolean

True

Um valor que indica se todas as palavras na lista de sinônimos (se => notação não for usada) serão mapeadas umas para as outras. Se verdadeiro, todas as palavras na lista de sinônimos (se => notação não for usada) serão mapeadas umas para as outras. A seguinte lista: incrível, inacreditável, fabuloso, incrível é equivalente a: incrível, inacreditável, fabuloso, incrível => incrível, inacreditável, fabuloso, incrível. Se falso, a seguinte lista: incrível, inacreditável, fabuloso, incrível será equivalente a: incrível, inacreditável, fabuloso, incrível => incrível. A predefinição é verdadeira.

ignoreCase

boolean

False

Um valor que indica se a entrada deve ser dobrada em maiúsculas e minúsculas para correspondência. O valor predefinido é falso.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

synonyms

string[]

Uma lista de sinónimos nos seguintes formatos: 1. incrível, inacreditável, fabuloso => incrível - todos os termos no lado esquerdo de => símbolo serão substituídos por todos os termos em seu lado direito; 2. incrível, inacreditável, fabuloso, incrível - lista separada por vírgulas de palavras equivalentes. Defina a opção expandir para alterar a forma como esta lista é interpretada.

TagScoringFunction

Define uma função que aumenta pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de tags.

Name Tipo Description
boost

number (double)

Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0.

fieldName

string

O nome do campo usado como entrada para a função de pontuação.

interpolation

ScoringFunctionInterpolation

Um valor que indica como o impulsionamento será interpolado entre as pontuações dos documentos; o padrão é "Linear".

tag

TagScoringParameters

Valores de parâmetro para a função de pontuação de tag.

type string:

tag

Tipo de Função de Pontuação.

TagScoringParameters

Fornece valores de parâmetro para uma função de pontuação de tag.

Name Tipo Description
tagsParameter

string

O nome do parâmetro passado em consultas de pesquisa para especificar a lista de tags a serem comparadas com o campo de destino.

TextWeights

Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa.

Name Tipo Description
weights

object

O dicionário de pesos por campo para aumentar a pontuação do documento. As chaves são nomes de campos e os valores são os pesos para cada campo.

TokenCharacterKind

Representa classes de caracteres nas quais um filtro de token pode operar.

Valor Description
letter

Mantém letras em tokens.

digit

Mantém dígitos em tokens.

whitespace

Mantém espaço em branco em tokens.

punctuation

Mantém a pontuação em tokens.

symbol

Mantém símbolos em tokens.

TokenFilterName

Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa.

Valor Description
arabic_normalization

Um filtro simbólico que aplica o normalizador árabe para normalizar a ortografia. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html

apostrophe

Remove todos os caracteres após um apóstrofo (incluindo o próprio apóstrofo). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html

asciifolding

Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

cjk_bigram

Forma bigramas de termos CJK que são gerados a partir do tokenizador padrão. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

cjk_width

Normaliza as diferenças de largura do CJK. Dobra variantes ASCII de largura total no latim básico equivalente, e variantes Katakana de meia largura no Kana equivalente. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html

classic

Remove possessivos em inglês e pontos de siglas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html

common_grams

Construa bigramas para termos frequentes durante a indexação. Os termos isolados também continuam a ser indexados, com bigramas sobrepostos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

edgeNGram_v2

Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

elision

Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

german_normalization

Normaliza caracteres alemães de acordo com a heurística do algoritmo de bola de neve German2. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html

hindi_normalization

Normaliza o texto em hindi para remover algumas diferenças nas variações ortográficas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html

indic_normalization

Normaliza a representação Unicode de texto em idiomas indianos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html

keyword_repeat

Emite cada token recebido duas vezes, uma como palavra-chave e outra como não-palavra-chave. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html

kstem

Um filtro kstem de alto desempenho para inglês. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html

length

Remove palavras muito longas ou curtas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

limit

Limita o número de tokens durante a indexação. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

lowercase

Normaliza o texto do token para minúsculas. Veja https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

nGram_v2

Gera n-gramas do(s) tamanho(s) fornecido(s). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

persian_normalization

Aplica normalização do farsi. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html

phonetic

Crie tokens para correspondências fonéticas. Veja https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

porter_stem

Usa o algoritmo de derivação de Porter para transformar o fluxo de token. Veja http://tartarus.org/~martin/PorterStemmer

reverse

Inverte a sequência de caracteres do token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

scandinavian_normalization

Normaliza o uso dos caracteres escandinavos intercambiáveis. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html

scandinavian_folding

Dobra caracteres escandinavos Ã¥ã... äæÃ"Æ-a> e öÖà ̧à ̃-o>. Também discrimina o uso de vogais duplas aa, ae, ao, oe e oo, deixando apenas a primeira. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html

shingle

Cria combinações de tokens como um único token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

snowball

Um filtro que deriva palavras usando um lematizador gerado por Bola-de-Neve. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

sorani_normalization

Normaliza a representação Unicode do texto de Sorani. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html

stemmer

Filtro de derivação específico da linguagem. Veja https://dotnet.territoriali.olinfo.it/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

stopwords

Remove palavras irrelevantes de um fluxo de tokens. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

trim

Remove o espaço em branco no início e no fim dos tokens. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html

truncate

Trunca os termos até um comprimento específico. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

unique

Filtra tokens com o mesmo texto do token anterior. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

uppercase

Normaliza o texto do token para maiúsculas. Veja https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

word_delimiter

Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras.

TruncateTokenFilter

Trunca os termos até um comprimento específico. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.TruncateTokenFilter

O discriminador para tipos derivados.

length

integer (int32)

maximum: 300
300

A extensão em que os termos serão truncados. O padrão e máximo é 300.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

UaxUrlEmailTokenizer

Tokeniza URLs e e-mails como um único token. Este tokenizador é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.UaxUrlEmailTokenizer

O discriminador para tipos derivados.

maxTokenLength

integer (int32)

maximum: 300
255

O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

name

string

O nome do tokenizador. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

UniqueTokenFilter

Filtra tokens com o mesmo texto do token anterior. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.UniqueTokenFilter

O discriminador para tipos derivados.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

onlyOnSamePosition

boolean

False

Um valor que indica se as duplicatas devem ser removidas apenas na mesma posição. O valor predefinido é falso.

VectorEncodingFormat

O formato de codificação para interpretar o conteúdo do campo vetorial.

Valor Description
packedBit

Formato de codificação que representa bits compactados em um tipo de dados mais amplo.

VectorSearch

Contém opções de configuração relacionadas à pesquisa vetorial.

Name Tipo Description
algorithms VectorSearchAlgorithmConfiguration[]:

Contém opções de configuração específicas para o algoritmo usado durante a indexação ou consulta.

compressions VectorSearchCompression[]:

Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta.

profiles

VectorSearchProfile[]

Define combinações de configurações a serem usadas com a pesquisa vetorial.

vectorizers VectorSearchVectorizer[]:

Contém opções de configuração sobre como vetorizar consultas vetoriais de texto.

VectorSearchAlgorithmKind

O algoritmo usado para indexação e consulta.

Valor Description
hnsw

HNSW (Hierarchical Navigable Small World), um tipo de algoritmo de vizinhos aproximados mais próximos.

exhaustiveKnn

Algoritmo KNN exaustivo que realizará pesquisa de força bruta.

VectorSearchAlgorithmMetric

A métrica de semelhança a ser usada para comparações vetoriais. Recomenda-se escolher a mesma métrica de semelhança em que o modelo de incorporação foi treinado.

Valor Description
cosine

Mede o ângulo entre vetores para quantificar sua semelhança, desconsiderando a magnitude. Quanto menor o ângulo, mais próxima a semelhança.

euclidean

Calcula a distância linear entre vetores em um espaço multidimensional. Quanto menor a distância, mais próxima a semelhança.

dotProduct

Calcula a soma de produtos em termos de elementos para medir o alinhamento e a semelhança de magnitude. Quanto maior e mais positivo, mais próxima a semelhança.

hamming

Aplicável apenas a tipos de dados binários compactados com bits. Determina a dissimilaridade contando diferentes posições em vetores binários. Quanto menos diferenças, mais estreita a semelhança.

VectorSearchCompressionKind

O método de compactação usado para indexação e consulta.

Valor Description
scalarQuantization

Quantização escalar, um tipo de método de compressão. Na quantização escalar, os valores dos vetores originais são compactados para um tipo mais estreito, discretizando e representando cada componente de um vetor usando um conjunto reduzido de valores quantizados, reduzindo assim o tamanho geral dos dados.

binaryQuantization

Quantização binária, um tipo de método de compressão. Na quantização binária, os valores dos vetores originais são compactados para o tipo binário mais estreito, discretizando e representando cada componente de um vetor usando valores binários, reduzindo assim o tamanho geral dos dados.

VectorSearchCompressionTarget

O tipo de dados quantizados de valores vetoriais compactados.

Valor Description
int8

Inteiro assinado de 8 bits.

VectorSearchProfile

Define uma combinação de configurações a serem usadas com a pesquisa vetorial.

Name Tipo Description
algorithm

string

O nome da configuração do algoritmo de pesquisa vetorial que especifica o algoritmo e os parâmetros opcionais.

compression

string

O nome da configuração do método de compactação que especifica o método de compactação e os parâmetros opcionais.

name

string

O nome a ser associado a esse perfil de pesquisa vetorial específico.

vectorizer

string

O nome da vetorização que está sendo configurada para uso com a pesquisa vetorial.

VectorSearchVectorizerKind

O método de vetorização a ser usado durante o tempo de consulta.

Valor Description
azureOpenAI

Gere incorporações usando um recurso do Azure OpenAI no momento da consulta.

customWebApi

Gere incorporações usando um ponto de extremidade da Web personalizado no momento da consulta.

aiServicesVision

Gere incorporações para uma entrada de imagem ou texto no momento da consulta usando a API de Vetorização de Visão dos Serviços de IA do Azure.

aml

Gere incorporações usando um ponto de extremidade do Azure Machine Learning implantado por meio do Catálogo de Modelo do Azure AI Foundry no momento da consulta.

WebApiVectorizer

Especifica um vetorizador definido pelo usuário para gerar a incorporação vetorial de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface personalizada da API Web de um conjunto de habilidades.

Name Tipo Description
customWebApiParameters

WebApiVectorizerParameters

Especifica as propriedades do vetorizador definido pelo usuário.

kind string:

customWebApi

Tipo de VetorizadorPesquisa.

name

string

O nome a ser associado a esse método de vetorização específico.

WebApiVectorizerParameters

Especifica as propriedades para conexão a um vetorizador definido pelo usuário.

Name Tipo Description
authIdentity SearchIndexerDataIdentity:

A identidade gerenciada atribuída pelo usuário usada para conexões de saída. Se um authResourceId for fornecido e não for especificado, a identidade gerenciada atribuída ao sistema será usada. Nas atualizações do indexador, se a identidade não for especificada, o valor permanecerá inalterado. Se definido como "nenhum", o valor dessa propriedade será limpo.

authResourceId

string

Aplica-se a endpoints personalizados que se ligam a código externo numa função do Azure ou noutra aplicação que forneça as transformações. Esse valor deve ser a ID do aplicativo criada para a função ou aplicativo quando ela foi registrada no Azure Ative Directory. Quando especificado, a vetorização se conecta à função ou aplicativo usando uma ID gerenciada (atribuída pelo sistema ou pelo usuário) do serviço de pesquisa e o token de acesso da função ou aplicativo, usando esse valor como a id do recurso para criar o escopo do token de acesso.

httpHeaders

object

Os cabeçalhos necessários para fazer a solicitação HTTP.

httpMethod

string

O método para a solicitação HTTP.

timeout

string (duration)

O tempo limite desejado para a solicitação. O padrão é 30 segundos.

uri

string (uri)

O URI da API Web que fornece o vetorizador.

WordDelimiterTokenFilter

Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras. Este filtro de token é implementado usando Apache Lucene.

Name Tipo Default value Description
@odata.type string:

#Microsoft.Azure.Search.WordDelimiterTokenFilter

O discriminador para tipos derivados.

catenateAll

boolean

False

Um valor que indica se todas as partes da subpalavra serão atenuadas. Por exemplo, se isso estiver definido como true, "Azure-Search-1" se tornará "AzureSearch1". O valor predefinido é falso.

catenateNumbers

boolean

False

Um valor que indica se as execuções máximas de peças numéricas serão limitadas. Por exemplo, se isso for definido como true, "1-2" se tornará "12". O valor predefinido é falso.

catenateWords

boolean

False

Um valor que indica se as execuções máximas de partes de palavras serão limitadas. Por exemplo, se isso estiver definido como true, "Azure-Search" se tornará "AzureSearch". O valor predefinido é falso.

generateNumberParts

boolean

True

Um valor que indica se as subpalavras numéricas devem ser geradas. A predefinição é verdadeira.

generateWordParts

boolean

True

Um valor que indica se as palavras de parte devem ser geradas. Se definido, faz com que partes de palavras sejam geradas; por exemplo, "AzureSearch" torna-se "Azure" "Search". A predefinição é verdadeira.

name

string

O nome do filtro de token. Deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e está limitado a 128 caracteres.

preserveOriginal

boolean

False

Um valor que indica se as palavras originais serão preservadas e adicionadas à lista de subpalavras. O valor predefinido é falso.

protectedWords

string[]

Uma lista de tokens para proteger de serem delimitados.

splitOnCaseChange

boolean

True

Um valor que indica se as palavras devem ser divididas em caseChange. Por exemplo, se isso estiver definido como true, "AzureSearch" se tornará "Azure" "Search". A predefinição é verdadeira.

splitOnNumerics

boolean

True

Um valor que indica se deve ser dividido em números. Por exemplo, se isso estiver definido como true, "Azure1Search" se tornará "Azure" "1" "Search". A predefinição é verdadeira.

stemEnglishPossessive

boolean

True

Um valor que indica se os "s" à direita devem ser removidos para cada subpalavra. A predefinição é verdadeira.