Notatka
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Dotyczy tylko:Portal Foundry (Classic). Ten artykuł nie jest dostępny dla nowego portalu Foundry.
Dowiedz się więcej o nowym portalu.
Uwaga / Notatka
Linki w tym artykule mogą otwierać zawartość w nowej dokumentacji Microsoft Foundry zamiast dokumentacji Foundry (klasycznej), którą obecnie przeglądasz.
Uwaga / Notatka
Interfejs API Asystentów jest przestarzały i zostanie wycofany 26 sierpnia 2026 r. Użyj ogólnie dostępnej usługi Microsoft Foundry Agents. Postępuj zgodnie z przewodnikiem migracji , aby zaktualizować obciążenia. Dowiedz się więcej.
Asystenci, funkcja Azure OpenAI w modelach Microsoft Foundry, została zaprojektowana, aby ułatwić deweloperom tworzenie aplikacji z zaawansowanymi środowiskami przypominającymi copilot, które mogą przesiewać dane, sugerować rozwiązania i automatyzować zadania.
- Asystenci mogą wywoływać modele Azure OpenAI z określonymi instrukcjami, aby dostosować ich osobowość i możliwości.
- Asystenci mogą uzyskiwać dostęp do wielu narzędzi równolegle. Mogą to być narzędzia hostowane Azure OpenAI, takie jak code interpreter i file search, lub narzędzia, które tworzysz, hostujesz i uzyskujesz do nich dostęp za pośrednictwem wywołań funkcji .
- Asystenci mogą uzyskiwać dostęp do persistent Threads. Wątki upraszczają tworzenie aplikacji sztucznej inteligencji, przechowując historię komunikatów i obcinając ją, gdy konwersacja jest zbyt długa dla długości kontekstu modelu. Możesz utworzyć wątek raz i dołączyć do niego komunikaty jako odpowiedź użytkowników.
- Asystenci mogą uzyskiwać dostęp do plików w kilku formatach. Albo jako część ich tworzenia, albo jako część wątków między asystentami i użytkownikami. Korzystając z narzędzi, Asystenci mogą również tworzyć pliki (takie jak obrazy lub arkusze kalkulacyjne) i przytaczać pliki, do których odwołują się w tworzonych wiadomościach.
Przegląd
Wcześniej tworzenie niestandardowych asystentów sztucznej inteligencji wymagało dużego wysiłku nawet dla doświadczonych deweloperów. Chociaż interfejs API uzupełniania czatów jest lekki i zaawansowany, jest z natury bezstanowy, co oznacza, że deweloperzy musieli zarządzać stanem konwersacji i wątkami czatu, integracją narzędzi, pobieraniem dokumentów i indeksów oraz ręcznie wykonywać kod.
Interfejs API Asystentów, jako stanowy rozwój interfejsu API uzupełniania czatu, zapewnia rozwiązanie tych wyzwań. Interfejs API asystentów obsługuje trwałe wątki zarządzane automatycznie. Oznacza to, że jako deweloper nie musisz już opracowywać systemów zarządzania stanami konwersacji i pracować nad ograniczeniami okna kontekstowego modelu. Interfejs API Asystentów automatycznie obsłuży optymalizacje, aby zachować wątek poniżej maksymalnego okna kontekstu wybranego modelu. Po utworzeniu wątku można dołączać do niego nowe wiadomości, gdy użytkownicy reagują. Asystent może również uzyskać dostęp do wielu narzędzi równolegle, w razie potrzeby. Do tych narzędzi należą:
Wskazówka
Nie ma dodatkowych cen lub limitów do korzystania z Asystentów, chyba że używasz interpretera kodu lub narzędzi do wyszukiwania plików.
Interfejs API asystentów jest oparty na tych samych funkcjach, które zasilają produkt GPT platformy OpenAI. Niektóre możliwe przypadki użycia obejmują rekomendacje dotyczące produktów opartych na sztucznej inteligencji, aplikację analityka sprzedaży, asystenta kodowania, czatbota Q&A pracowników i nie tylko. Zacznij budować na placu zabaw dla asystentów bez kodowania w portalu Foundry lub rozpocznij tworzenie za pomocą API.
Ważna
Pobieranie niezaufanych danych za pomocą wywoływania funkcji, interpretera kodu lub przeszukiwania plików z wejściem plików oraz funkcji Wątki asystenta może zagrozić bezpieczeństwu Twojego Asystenta lub aplikacji korzystającej z Asystenta. Dowiedz się więcej o podejściach zaradczych tutaj.
Korzystanie z asystentów
Aby uzyskać informacje na temat korzystania z asystentów, zapoznaj się z następującą dokumentacją referencyjną.
Dostępne modele
Aby wyświetlić listę modeli Azure OpenAI, których można używać z asystentami, zobacz artykuł Models.
Plac zabaw dla asystentów
Przed rozpoczęciem korzystania z asystentów potrzebne są następujące elementy:
- Wdrożono model zgodny. Aby uzyskać więcej informacji na temat wdrażania modelu, zobacz przewodnik wdrażania zasobów.
- Projekt Foundry w portalu Foundry.
Składniki asystentów
| Składnik | Opis |
|---|---|
| Asystent | Niestandardowa sztuczna inteligencja korzystająca z modeli Azure OpenAI w połączeniu z narzędziami. |
| Wątek | Sesja konwersacji między asystentem a użytkownikiem. Wątki przechowują wiadomości i automatycznie przycinają zawartość, aby dopasować ją do kontekstu modelu. |
| Message | Komunikat utworzony przez Asystenta lub użytkownika. Wiadomości mogą zawierać tekst, obrazy i inne pliki. Komunikaty są przechowywane jako lista w wątku. |
| Run | Aktywacja asystenta w celu rozpoczęcia działania na podstawie zawartości wątku. Asystent używa konfiguracji i komunikatów wątku do wykonywania zadań przez wywoływanie modeli i narzędzi. W ramach przebiegu Asystent dołącza komunikaty do wątku. |
| Uruchom krok | Szczegółowa lista kroków, które Asystent podjął jako część operacji. Asystent może wywoływać narzędzia lub tworzyć komunikaty podczas jego uruchamiania. Badanie kroków procesu pozwala zrozumieć, w jaki sposób asystent dochodzi do wyników końcowych. |
Access danych asystentów
Obecnie asystenci, wątki, komunikaty i pliki utworzone dla asystentów są zarządzane na poziomie zasobów Azure OpenAI. W związku z tym każda osoba mająca dostęp do zasobu Azure OpenAI lub klucza interfejsu API może odczytywać/zapisywać asystentów, wątki, wiadomości i pliki.
Zdecydowanie zalecamy następujące kontrole dostępu do danych:
- Zaimplementuj autoryzację. Przed wykonaniem operacji odczytu lub zapisu na asystentach, wątkach, komunikatach i plikach upewnij się, że użytkownik końcowy ma do tego uprawnienia.
- Ogranicz dostęp do zasobów Azure OpenAI i klucza API. Zastanów się, kto ma dostęp do zasobów Azure OpenAI, w których są używani asystenci i skojarzone klucze API.
- Rutynowo przeprowadzaj inspekcję, które konta/osoby mają dostęp do zasobu Azure OpenAI. Klucze API i dostęp na poziomie zasobów umożliwiają szeroką gamę operacji, w tym odczytywanie i modyfikowanie wiadomości i plików.
- Włącz diagnostic settings aby umożliwić długoterminowe śledzenie niektórych aspektów dziennika aktywności zasobu Azure OpenAI.
Parametry
Interfejs API Asystentów obsługuje kilka parametrów, które umożliwiają dostosowanie danych wyjściowych Asystentów. Parametr tool_choice umożliwia wymusić użycie określonego narzędzia przez Asystenta. Możesz również tworzyć wiadomości z rolą assistant , aby tworzyć niestandardowe historie konwersacji w wątkach.
temperature, top_p, response_format umożliwia dalsze dostrajanie odpowiedzi. Aby uzyskać więcej informacji, zobacz dokumentację referencyjną.
Zarządzanie oknem kontekstowym
Asystenty automatycznie skracają tekst, aby zapewnić jego zgodność z maksymalną długością kontekstu modelu. To zachowanie można dostosować, określając maksymalną liczbę symboli, które chcesz wykorzystać podczas uruchomienia, i/lub maksymalną liczbę ostatnich komunikatów, które chcesz uwzględnić podczas uruchomienia.
Maksymalna liczba tokenów uzupełniania i maksymalna liczba tokenów wywołań
Aby kontrolować użycie tokenu w jednym przebiegu, ustaw max_prompt_tokens i max_completion_tokens podczas tworzenia przebiegu. Limity te dotyczą całkowitej liczby tokenów używanych we wszystkich operacjach przez cały cykl życia działania.
Na przykład zainicjowanie uruchomienia z ustawioną wartością max_prompt_tokens 500 i max_completion_tokens ustawieniem 1000 oznacza, że pierwsze ukończenie spowoduje obcięcie wątku do 500 tokenów i ograniczenie danych wyjściowych przy 1000 tokenach. Jeśli w pierwszym zakończeniu jest używanych tylko 200 tokenów monitów i 300 tokenów ukończenia, drugie ukończenie będzie miało dostępne limity 300 tokenów monitów i 700 tokenów ukończenia.
Jeśli proces max_completion_tokens osiągnie limit, uruchomienie zostanie zakończone ze statusem niekompletnym, a szczegóły będą dostępne w polu incomplete_details obiektu uruchomienia.
W przypadku korzystania z narzędzia wyszukiwania plików zalecamy ustawienie wartości nie mniejszej max_prompt_tokens niż 20 000. W przypadku dłuższych konwersacji lub wielu interakcji z wyszukiwaniem plików należy rozważyć zwiększenie tego limitu do 50 000 lub w idealnym przypadku całkowite usunięcie max_prompt_tokens limitów w celu uzyskania najwyższych wyników jakości.
Strategia skracania
Można również określić strategię obcinania, aby kontrolować sposób renderowania wątku w oknie kontekstowym modelu. Posługiwanie się strategią obcinania typu auto zastosuje domyślną strategię obcinania OpenAI. Użycie strategii obcinania typu last_messages umożliwia określenie liczby najnowszych komunikatów do uwzględnienia w oknie kontekstowym.
Zobacz także
- Dowiedz się więcej o asystentach i wyszukiwaniu plików
- Dowiedz się więcej o asystentach i interpreterze kodu
- Dowiedz się więcej o asystentach i wywoływaniu funkcji
- Przykłady interfejsu API Azure Asystentów OpenAI