Поделиться через


Генеративный ИИ для разработчиков JavaScript

Используйте JavaScript для создания генеративных функций ИИ в веб-приложениях, мобильных и настольных приложениях. В этом обзоре рассматриваются основные понятия, инструменты и ресурсы обучения, которые помогут вам приступить к работе.

Зачем использовать JavaScript для искусственного интеллекта?

Python — это распространенный выбор для обучения моделей ИИ, но большинство разработчиков приложений используют модели через веб-API. Так как JavaScript выполняется в браузерах и серверах и обрабатывает http-вызовы хорошо, это практический выбор для создания приложений ИИ.

Запишитесь на сопутствующий курс

Используйте сопутствующий курс для обучения с помощью видео, проектов кода и полного сквозного примера.

Если вы студент или новый разработчик, этот курс дает вам практический способ изучения ИИ. Если вы уже создаете приложения профессионально, это помогает углубить навыки ИИ.

В этом курсе вы:

  • Изучите ИИ, оживляя исторических фигур с помощью генеративного ИИ.
  • Применяйте доступность с помощью встроенных API браузера.
  • Используйте создание текста и изображений для интеграции ИИ в интерфейс приложения.
  • Узнайте о шаблонах архитектуры для приложений ИИ.

Созданный искусственным интеллектом образ Леонардо Да Винчи, используемый в приложении-компаньоне для разговора с историческими персонажами.

Используйте приложение-компаньон для общения с историческими персонажами

Что знать о LLM

Крупные языковые модели (LLM) — это нейронные сети, обучаемые на больших наборах данных для понимания и создания текста. Обучение обычно начинается с широкой базовой модели, а затем добавляет детальную настройку для конкретных задач. LLMs могут помочь в таких сценариях, как автозавершение кода и чат, но они также имеют ограничения, включая контекстное окно и возможные искажения в обучающих данных. Именно поэтому важны ответственные методики ИИ, такие как справедливость, надежность, конфиденциальность и подотчетность.

Дополнительные сведения см. в сеансе LLM курса:

Использование методов разработки запросов

Проектирование запросов — это практика написания запросов, которые направляют модель к лучшим результатам. Используйте запросы нулевого снимка, если вам не нужны примеры или несколько подсказок при помощи примеров. Четкие инструкции, соответствующие контексты и явные форматы выходных данных часто улучшают ответы и подготавливают вас к более сложным шаблонам, таким как RAG.

Дополнительные сведения см. в сессии инженерии запросов:

Повышение точности ИИ и надежности с помощью RAG

Используйте генерацию с дополнением извлечением (RAG) для основывания ответов модели на текущих доверенных данных. RAG объединяет извлекатель, который находит соответствующее содержимое с генератором, использующим это содержимое для ответа на вопросы. Такой подход может повысить точность, упростить проверку ответов и контролировать затраты. Например, приложение поддержки недвижимости может использовать корпоративные документы для ответа на подробные вопросы о клиентах.

Узнайте больше на сеансе RAG курса:

Ускорение разработки ИИ с помощью LangChain.js

Ускорение проектов ИИ с помощью LangChain.js. Эта библиотека JavaScript помогает создавать шаблоны запросов, подключать модели и векторные хранилища и создавать сложные рабочие процессы. Он хорошо подходит для быстрого прототипирования, например API, который отвечает на вопросы из расшифровок YouTube. Когда вы будете готовы к рабочей среде, вы можете заменить локальные модели и векторные хранилища для служб Azure без перезаписи приложения.

Дополнительные сведения см. в сессии курсаLangChain.js:

Запуск моделей ИИ на локальном компьютере с помощью Ollama

Используйте Ollama для запуска локальных моделей ИИ, включая Phi-3, на компьютере. Локальные модели сокращают облачные зависимости, поддерживают автономную разработку и сокращают внутренний цикл при тестировании идей. Так как Ollama предоставляет API, совместимый с OpenAI, его можно интегрировать в существующие рабочие процессы JavaScript с минимальными изменениями.

Дополнительные сведения см. в сессии курса Ollama.

Начало работы с ИИ бесплатно

Вы можете бесплатно запускать ИИ с помощью Foundry Local, что позволяет скачать модели ИИ и взаимодействовать с ними локально. Существует также набор средств ИИ для Visual Studio Code, расширение, поддерживающее скачивание моделей, настройку и многое другое. Ollama является еще одним популярным выбором для запуска локальных моделей.

Вы также можете попробовать модели без локальной настройки, создав Codespace GitHub и используя записную книжку Jupyter для тестирования инженерии подсказок, обучения на небольшом количестве примеров и RAG.

Дополнительные сведения см. в занятии курса Phi-3:

Общие сведения о Microsoft Foundry

Используйте Microsoft Foundry, чтобы начать создание созданных приложений ИИ с помощью JavaScript. Упорядочение ресурсов с помощью центров и проектов, просмотр моделей и развертывание модели для тестирования на детской площадке. Независимо от того, используются ли управляемые вычислительные или бессерверные API, рабочий процесс остается неизменным: выберите модель, разверните ее и интегрируйте ее в приложение.

Дополнительные сведения см. в модуле Foundry курса:

Создание генеративных ИИ приложений с помощью Azure Cosmos DB

Дополнительные сведения см. в сессии Azure Cosmos DB курса .

Средства и службы Azure для размещения и хранения приложений ИИ

Узнайте, какие средства и службы Azure соответствуют общим архитектурам приложений ИИ, включая приложения чата, приложения RAG и автономные агенты. В этом сеансе также показано, как использовать AZURE Developer CLI (AZD) для развертывания приложений и сравнения бессерверных и контейнерных параметров размещения.

Дополнительные сведения см. в сеансе инструментов и служб Azure курса .

Передача результатов генеративного ИИ с помощью чат-протокола ИИ

Используйте протокол AI Chat для поддержки обмена данными в режиме реального времени между службой ИИ и клиентскими приложениями. Вы можете передавать ответы из браузера или сервера вывода ИИ в зависимости от архитектуры. При реализации потоковой передачи планируйте защиту ключей API, безопасность данных и выбор протокола. Клиент протокола поддерживает такие методы, как getCompletion и getStreamedCompletion, как показано в бессерверной RAG с LangChain.js примере.

Дополнительные сведения см. в сеансе потоковой передачи курса: