Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Important
Cette fonctionnalité est disponible en préversion publique.
Les fonctions IA sont des fonctions intégrées que vous pouvez utiliser pour appliquer des modèles de langage de grande taille (LLMs) ou des techniques de recherche de pointe sur les données stockées sur Azure Databricks pour la transformation et l’enrichissement des données. Ils peuvent être exécutés n’importe où dans Databricks, notamment dans Databricks SQL, des notebooks, des pipelines déclaratifs Lakeflow Spark et des workflows.
Les fonctions IA sont simples à utiliser, rapides et évolutives. Les analystes peuvent les utiliser pour appliquer l’intelligence des données à leurs données propriétaires, tandis que les ingénieurs données, les scientifiques des données et les ingénieurs Machine Learning peuvent les utiliser pour créer des pipelines par lots de niveau production.
Tâche spécifique et usage général
AI Functions a des fonctions spécifiques aux tâches et à usage général :
- Fonctions IA spécifiques à une tâche : fonctions conçues à des fins optimisées pour une tâche spécifique, telles que l’analyse de document, l’extraction d’entités, la classification et l’analyse des sentiments. Ces fonctions sont alimentées par des systèmes basés sur la recherche gérés par Azure Databricks. Certaines fonctions incluent des expériences d’interface utilisateur. Consultez les fonctions IA spécifiques à la tâche pour les fonctions et les modèles pris en charge.
-
ai_query— Fonction à usage général pour la flexibilité des tâches et des modèles. Fournissez une invite et choisissez n’importe quelle API Foundation Model prise en charge. Voir Utiliserai_query.
Fonctions IA spécifiques à une tâche
Les fonctions spécifiques à une tâche sont limitées pour une tâche spécifique afin de pouvoir automatiser les transformations de routine, telles que l’extraction d’entités, la traduction et la classification. Databricks recommande ces fonctions pour commencer, car elles appellent des techniques de recherche de pointe gérées par Databricks et ne nécessitent aucune personnalisation.
Consultez Analyser les avis des clients à l’aide d’AI Functions pour obtenir un exemple.
Le tableau suivant répertorie les fonctions prises en charge et la tâche qu’elles effectuent.
| Fonction | Descriptif |
|---|---|
| ai_parse_document | Analyser le contenu structuré (texte, tableaux, descriptions de figure) et la disposition à partir de documents non structurés à l’aide de techniques de recherche de pointe. |
| ai_extract | Extrayez des champs structurés à partir de documents ou de texte à l’aide d’un schéma que vous définissez. |
| ai_classify | Classifiez le texte d’entrée en fonction des étiquettes que vous fournissez à l’aide de techniques de recherche de pointe. |
| ai_analyze_sentiment | Effectuez une analyse des sentiments sur le texte d’entrée à l’aide d’un modèle IA génératif de pointe. |
| ai_corriger_la_grammaire | Corrigez les erreurs grammaticales dans le texte à l’aide d’un modèle d’IA générative de pointe. |
| ai_gen | Répondez à l’invite fournie par l’utilisateur à l’aide d’un modèle d’IA générative de pointe. |
| ai_mask | Masquez les entités spécifiées dans le texte à l’aide d’un modèle d’IA générative de pointe. |
| ai_parse_document | Extrayez du contenu structuré à partir de documents non structurés à l’aide d’un modèle d’IA générative de pointe. |
| ai_prep_search | Transformez la sortie de document analysée en blocs prêts à la recherche optimisés pour la recherche vectorielle et les pipelines RAG. |
| ai_query | Fonction IA à usage général pour les tâches qui vont au-delà de ce que proposent les fonctions spécifiques aux tâches. Fournissez une invite personnalisée et choisissez n’importe quel modèle d’API Foundation Model pris en charge. |
| ai_similarity | Comparez deux chaînes et calculez le score de similarité sémantique à l’aide d’un modèle IA générative de pointe. |
| ai_summarize | Générez un résumé du texte à l’aide de SQL et d’un modèle IA génératif de pointe. |
| ai_translate | Traduisez du texte en langage cible spécifié à l’aide d’un modèle IA générative de pointe. |
| ai_forecast | Prévision des données jusqu’à un horizon spécifié. Cette fonction TVF est conçue pour extrapoler les données de série chronologique dans le futur. |
| vector_search | Recherchez et interrogez un index de recherche vectorielle d’IA Mosaïque à l’aide d’un modèle d’IA générative de pointe. |
Utiliser ai Functions dans les flux de travail de production
Pour l’inférence par lots à grande échelle, vous pouvez intégrer des fonctions IA spécifiques à des tâches ou la fonction ai_query à usage général dans vos flux de travail de production, comme les pipelines déclaratifs Spark Lakeflow, les flux de travail Databricks et Structured Streaming. Cela permet un traitement de niveau industriel à grande échelle.
Meilleures pratiques pour les fonctions IA en production :
Laissez AI Functions gérer votre charge de travail à grande échelle : AI Functions gère automatiquement la parallélisation, les nouvelles tentatives et la mise à l’échelle. Il est recommandé d’envoyer votre jeu de données complet dans une seule requête plutôt que de le fractionner manuellement en petits lots. Les performances peuvent ne pas être mises à l’échelle linéairement entre les charges de travail très petites et les charges de travail à grande échelle.
Utilisez des modèles de base hébergés par Databricks : Lorsque vous utilisez la fonction IA ai_query, utilisez des modèles de base hébergés par Databricks (préfixés avec databricks-), et non un débit provisionné. Ces points de terminaison provisionless sont entièrement gérés et fonctionnent le mieux pour le traitement par lots.
Consultez Déployer des pipelines d’inférence par lots pour obtenir des exemples et des détails.
Surveiller la progression des fonctions IA
Pour comprendre le nombre d’inférences terminées ou ayant échoué et dépanner les performances, vous pouvez surveiller la progression des fonctions IA à l’aide de la fonctionnalité de profil de requête.
Dans Databricks Runtime 16.1 ML et versions ultérieures, à partir de la fenêtre de requête de l’éditeur SQL dans votre espace de travail :
- Sélectionnez le lien, En cours d’exécution--- en bas de la fenêtre Résultats bruts . La fenêtre de performances s’affiche à droite.
- Cliquez sur Afficher le profil de requête pour afficher les détails des performances.
- Cliquez sur REQUÊTE IA pour afficher les métriques de cette requête particulière, y compris le nombre d’inférences terminées et ayant échoué et le temps total nécessaire à la fin de la requête.
Afficher les coûts des charges de travail de fonction IA
Les coûts des fonctions IA sont enregistrés dans le produit MODEL_SERVING sous la catégorie d’offre BATCH_INFERENCE. Consultez Afficher les coûts des charges de travail d’inférence par lots pour obtenir un exemple de requête.
Note
Pour ai_parse_document, ai_extractet ai_classify les coûts sont enregistrés dans le cadre du AI_FUNCTIONS produit. Consultez Afficher les coûts des ai_parse_document exécutions pour obtenir un exemple de requête.
Afficher les coûts des charges de travail d’inférence par lots
Les exemples suivants montrent comment filtrer les charges de travail d'inférence par lots en fonction du travail, du calcul, des entrepôts SQL et des pipelines déclaratifs Spark Lakeflow.
Consultez Surveiller les coûts de service de modèle pour obtenir des exemples généraux sur la façon d’afficher les coûts de vos charges de travail d’inférence par lots qui utilisent AI Functions.
Jobs
La requête suivante montre quelles tâches sont utilisées pour l’inférence par lots à l’aide de la table des systèmes system.workflow.jobs. Consultez Superviser les coûts et les performances des tâches à l'aide des tables système.
SELECT *
FROM system.billing.usage u
JOIN system.workflow.jobs x
ON u.workspace_id = x.workspace_id
AND u.usage_metadata.job_id = x.job_id
WHERE u.usage_metadata.workspace_id = <workspace_id>
AND u.billing_origin_product = "MODEL_SERVING"
AND u.product_features.model_serving.offering_type = "BATCH_INFERENCE";
Compute
Les clusters suivants sont utilisés pour l’inférence par lots à l’aide de la system.compute.clusters table des systèmes.
SELECT *
FROM system.billing.usage u
JOIN system.compute.clusters x
ON u.workspace_id = x.workspace_id
AND u.usage_metadata.cluster_id = x.cluster_id
WHERE u.usage_metadata.workspace_id = <workspace_id>
AND u.billing_origin_product = "MODEL_SERVING"
AND u.product_features.model_serving.offering_type = "BATCH_INFERENCE";
Pipelines déclaratifs Lakeflow Spark
L’exemple suivant montre les pipelines déclaratifs Spark Lakeflow utilisés pour l’inférence par lots à l’aide de la system.lakeflow.pipelines table des systèmes.
SELECT *
FROM system.billing.usage u
JOIN system.lakeflow.pipelines x
ON u.workspace_id = x.workspace_id
AND u.usage_metadata.dlt_pipeline_id = x.pipeline_id
WHERE u.usage_metadata.workspace_id = <workspace_id>
AND u.billing_origin_product = "MODEL_SERVING"
AND u.product_features.model_serving.offering_type = "BATCH_INFERENCE";
Entrepôt SQL
L’exemple suivant montre quels entrepôts SQL sont utilisés pour l’inférence par lots à l’aide de la system.compute.warehouses table des systèmes.
SELECT *
FROM system.billing.usage u
JOIN system.compute.clusters x
ON u.workspace_id = x.workspace_id
AND u.usage_metadata.cluster_id = x.cluster_id
WHERE u.workspace_id = <workspace_id>
AND u.billing_origin_product = "MODEL_SERVING"
AND u.product_features.model_serving.offering_type = "BATCH_INFERENCE";
Afficher les coûts des ai_parse_document exécutions
L’exemple suivant montre comment interroger les tables système de facturation pour afficher les coûts des ai_parse_document exécutions.
SELECT *
FROM system.billing.usage u
WHERE u.workspace_id = <workspace_id>
AND u.billing_origin_product = "AI_FUNCTIONS"
AND u.product_features.ai_functions.ai_function = "AI_PARSE_DOCUMENT";