Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Gebruik JavaScript om generatieve AI-functies in uw web-, mobiele en desktop-apps te bouwen. In dit overzicht worden de belangrijkste concepten, hulpprogramma's en leerresources gemarkeerd om u op weg te helpen.
Waarom JavaScript gebruiken voor AI?
Python is een veelgebruikte keuze voor het trainen van AI-modellen, maar de meeste app-ontwikkelaars gebruiken modellen via web-API's. Omdat JavaScript wordt uitgevoerd in browsers en servers en HTTP-aanroepen goed verwerkt, is het een praktische keuze voor het bouwen van AI-apps.
Volg de aanvullende cursus
Gebruik de aanvullende cursus voor meer informatie over video's, codeprojecten en een volledig end-to-end voorbeeld.
Als u een student of nieuwe ontwikkelaar bent, biedt deze cursus u een praktische manier om AI te leren. Als u al apps professioneel bouwt, kunt u hiermee uw AI-vaardigheden verdiepen.
In deze cursus gaat u als volgt te werk:
- Leer AI terwijl je met generatieve AI historische figuren tot leven brengt.
- Toegankelijkheid toepassen met behulp van ingebouwde browser-API's.
- Gebruik tekst- en afbeeldingsgeneratie om AI te integreren in de app-ervaring.
- Leer architectuurpatronen voor AI-toepassingen.
De bijbehorende toepassing gebruiken om met historische tekens te praten
Wat u moet weten over LLM's
Grote taalmodellen (LLM's) zijn neurale netwerken die zijn getraind op grote gegevenssets om tekst te begrijpen en te genereren. Training begint meestal met een breedbasismodel en voegt vervolgens fijnafstemming toe voor specifieke taken. LLM's kunnen helpen bij scenario's zoals het voltooien van code en chatten, maar ze hebben ook limieten, waaronder contextvensters en mogelijke vooroordelen in trainingsgegevens. Daarom zijn verantwoorde AI-procedures zoals billijkheid, betrouwbaarheid, privacy en verantwoordelijkheid belangrijk.
Meer informatie in de LLM-sessie van de cursus:
Technieken voor prompt-engineering gebruiken
Prompt engineering is de praktijk van het schrijven van prompts die het model leiden naar betere resultaten. Gebruik zero-shot prompts wanneer je geen voorbeelden nodig hebt, of few-shot prompts wanneer voorbeelden helpen. Duidelijke instructies, relevante context en expliciete uitvoerindelingen verbeteren vaak reacties en bereiden u voor op geavanceerdere patronen zoals RAG.
Meer informatie in de prompt engineering sessie van de cursus:
Nauwkeurigheid en betrouwbaarheid van AI verbeteren met RAG
Gebruik rag (retrieval-augmented generation) om modelreacties te gronden in huidige, vertrouwde gegevens. RAG combineert een retriever die relevante inhoud vindt met een generator die die inhoud gebruikt om vragen te beantwoorden. Met deze aanpak kunt u de nauwkeurigheid verbeteren, antwoorden gemakkelijker controleren en kosten beheren. Een ondersteunings-app voor onroerend goed kan bijvoorbeeld bedrijfsdocumenten gebruiken om gedetailleerde klantvragen te beantwoorden.
Meer informatie in de RAG-sessie van de cursus:
Uw AI-ontwikkeling versnellen met LangChain.js
Uw AI-projecten versnellen met LangChain.js. Deze JavaScript-bibliotheek helpt u bij het bouwen van promptsjablonen, het verbinden van modellen en vectorarchieven en het opstellen van complexe werkstromen. Het werkt goed voor snelle prototypen, zoals een API die vragen van YouTube-transcripties beantwoordt. Wanneer u klaar bent voor productie, kunt u lokale modellen en vectorarchieven wisselen voor Azure-services zonder uw app opnieuw te schrijven.
Meer informatie in de LangChain.js sessie van de cursus:
AI-modellen uitvoeren op uw lokale computer met Ollama
Gebruik Ollama om lokale AI-modellen, waaronder Phi-3, op uw computer uit te voeren. Lokale modellen verminderen cloudafhankelijkheden, ondersteunen offlineontwikkeling en verkorten uw interne lus terwijl u ideeën test. Omdat Ollama een openAI-compatibele API beschikbaar maakt, kunt u deze integreren in bestaande JavaScript-werkstromen met minimale wijzigingen.
Meer informatie in de Ollama-sessie van de cursus:
Gratis aan de slag met AI
U kunt AI gratis uitvoeren met Foundry Local, waarmee u AI-modellen kunt downloaden en er lokaal mee kunt werken. Er is ook AI Toolkit voor Visual Studio Code, een extensie die ondersteuning biedt voor het downloaden van modellen, het verfijnen en meer. Ollama is een andere populaire keuze voor het uitvoeren van lokale modellen.
U kunt modellen ook proberen zonder lokale instellingen door een GitHub Codespace te maken en een Jupyter-notebook te gebruiken om prompt engineering, few-shot learning en RAG te testen.
Meer informatie in de Phi-3-sessie van de cursus:
Inleiding tot Microsoft Foundry
Gebruik Microsoft Foundry om te beginnen met het bouwen van generatieve AI-apps met JavaScript. Organiseer resources met hubs en projecten, blader door modellen en implementeer een model om te testen in een speeltuin. Ongeacht of u beheerde compute- of serverloze API's gebruikt, blijft de werkstroom hetzelfde: kies een model, implementeer het en integreer deze in uw app.
Meer informatie in de Foundry-sessie van de cursus:
Generatieve AI-apps bouwen met Azure Cosmos DB
Meer informatie in de Azure Cosmos DB-sessie van de cursus:
Azure-hulpprogramma's en -services voor het hosten en opslaan van AI-apps
Ontdek welke Azure-hulpprogramma's en -services passen bij algemene AI-app-architecturen, waaronder chat-apps, RAG-apps en autonome agents. Deze sessie laat ook zien hoe u Azure Developer CLI (AZD) kunt gebruiken om apps te implementeren en serverloze en op containers gebaseerde hostingopties te vergelijken.
Meer informatie in de sessie met Azure-hulpprogramma's en -services van de cursus:
Genereer en stream uitvoer van generatieve AI met het AI Chat Protocol
Gebruik het AI Chat Protocol om realtime communicatie tussen uw AI-service en client-apps te ondersteunen. U kunt reacties streamen vanuit de browser of vanaf een AI-deductieserver, afhankelijk van uw architectuur. Bij het implementeren van streaming kunt u plannen voor API-sleutelbeveiliging, gegevensveiligheid en protocolkeuze. De protocolclient ondersteunt methoden zoals getCompletion en getStreamedCompletion, zoals wordt weergegeven in de serverloze RAG met LangChain.js voorbeeld.
Meer informatie in de streamingsessie van de cursus: