Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Используйте JavaScript для создания генеративных функций ИИ в веб-приложениях, мобильных и настольных приложениях. В этом обзоре рассматриваются основные понятия, инструменты и ресурсы обучения, которые помогут вам приступить к работе.
Зачем использовать JavaScript для искусственного интеллекта?
Python — это распространенный выбор для обучения моделей ИИ, но большинство разработчиков приложений используют модели через веб-API. Так как JavaScript выполняется в браузерах и серверах и обрабатывает http-вызовы хорошо, это практический выбор для создания приложений ИИ.
Запишитесь на сопутствующий курс
Используйте сопутствующий курс для обучения с помощью видео, проектов кода и полного сквозного примера.
- Курс
- Серия видео
Если вы студент или новый разработчик, этот курс дает вам практический способ изучения ИИ. Если вы уже создаете приложения профессионально, это помогает углубить навыки ИИ.
В этом курсе вы:
- Изучите ИИ, оживляя исторических фигур с помощью генеративного ИИ.
- Применяйте доступность с помощью встроенных API браузера.
- Используйте создание текста и изображений для интеграции ИИ в интерфейс приложения.
- Узнайте о шаблонах архитектуры для приложений ИИ.
Используйте приложение-компаньон для общения с историческими персонажами
Что знать о LLM
Крупные языковые модели (LLM) — это нейронные сети, обучаемые на больших наборах данных для понимания и создания текста. Обучение обычно начинается с широкой базовой модели, а затем добавляет детальную настройку для конкретных задач. LLMs могут помочь в таких сценариях, как автозавершение кода и чат, но они также имеют ограничения, включая контекстное окно и возможные искажения в обучающих данных. Именно поэтому важны ответственные методики ИИ, такие как справедливость, надежность, конфиденциальность и подотчетность.
Дополнительные сведения см. в сеансе LLM курса:
Использование методов разработки запросов
Проектирование запросов — это практика написания запросов, которые направляют модель к лучшим результатам. Используйте запросы нулевого снимка, если вам не нужны примеры или несколько подсказок при помощи примеров. Четкие инструкции, соответствующие контексты и явные форматы выходных данных часто улучшают ответы и подготавливают вас к более сложным шаблонам, таким как RAG.
Дополнительные сведения см. в сессии инженерии запросов:
Повышение точности ИИ и надежности с помощью RAG
Используйте генерацию с дополнением извлечением (RAG) для основывания ответов модели на текущих доверенных данных. RAG объединяет извлекатель, который находит соответствующее содержимое с генератором, использующим это содержимое для ответа на вопросы. Такой подход может повысить точность, упростить проверку ответов и контролировать затраты. Например, приложение поддержки недвижимости может использовать корпоративные документы для ответа на подробные вопросы о клиентах.
Узнайте больше на сеансе RAG курса:
Ускорение разработки ИИ с помощью LangChain.js
Ускорение проектов ИИ с помощью LangChain.js. Эта библиотека JavaScript помогает создавать шаблоны запросов, подключать модели и векторные хранилища и создавать сложные рабочие процессы. Он хорошо подходит для быстрого прототипирования, например API, который отвечает на вопросы из расшифровок YouTube. Когда вы будете готовы к рабочей среде, вы можете заменить локальные модели и векторные хранилища для служб Azure без перезаписи приложения.
Дополнительные сведения см. в сессии курсаLangChain.js:
Запуск моделей ИИ на локальном компьютере с помощью Ollama
Используйте Ollama для запуска локальных моделей ИИ, включая Phi-3, на компьютере. Локальные модели сокращают облачные зависимости, поддерживают автономную разработку и сокращают внутренний цикл при тестировании идей. Так как Ollama предоставляет API, совместимый с OpenAI, его можно интегрировать в существующие рабочие процессы JavaScript с минимальными изменениями.
Дополнительные сведения см. в сессии курса Ollama.
Начало работы с ИИ бесплатно
Вы можете бесплатно запускать ИИ с помощью Foundry Local, что позволяет скачать модели ИИ и взаимодействовать с ними локально. Существует также набор средств ИИ для Visual Studio Code, расширение, поддерживающее скачивание моделей, настройку и многое другое. Ollama является еще одним популярным выбором для запуска локальных моделей.
Вы также можете попробовать модели без локальной настройки, создав Codespace GitHub и используя записную книжку Jupyter для тестирования инженерии подсказок, обучения на небольшом количестве примеров и RAG.
Дополнительные сведения см. в занятии курса Phi-3:
Общие сведения о Microsoft Foundry
Используйте Microsoft Foundry, чтобы начать создание созданных приложений ИИ с помощью JavaScript. Упорядочение ресурсов с помощью центров и проектов, просмотр моделей и развертывание модели для тестирования на детской площадке. Независимо от того, используются ли управляемые вычислительные или бессерверные API, рабочий процесс остается неизменным: выберите модель, разверните ее и интегрируйте ее в приложение.
Дополнительные сведения см. в модуле Foundry курса:
Создание генеративных ИИ приложений с помощью Azure Cosmos DB
Дополнительные сведения см. в сессии Azure Cosmos DB курса .
Средства и службы Azure для размещения и хранения приложений ИИ
Узнайте, какие средства и службы Azure соответствуют общим архитектурам приложений ИИ, включая приложения чата, приложения RAG и автономные агенты. В этом сеансе также показано, как использовать AZURE Developer CLI (AZD) для развертывания приложений и сравнения бессерверных и контейнерных параметров размещения.
Дополнительные сведения см. в сеансе инструментов и служб Azure курса .
Передача результатов генеративного ИИ с помощью чат-протокола ИИ
Используйте протокол AI Chat для поддержки обмена данными в режиме реального времени между службой ИИ и клиентскими приложениями. Вы можете передавать ответы из браузера или сервера вывода ИИ в зависимости от архитектуры. При реализации потоковой передачи планируйте защиту ключей API, безопасность данных и выбор протокола. Клиент протокола поддерживает такие методы, как getCompletion и getStreamedCompletion, как показано в бессерверной RAG с LangChain.js примере.
Дополнительные сведения см. в сеансе потоковой передачи курса: