Notatka
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Ten artykuł ułatwia ustanowienie procesu zabezpieczeń dla obciążeń sztucznej inteligencji w Azure. Bezpieczne środowisko sztucznej inteligencji obsługuje cele biznesowe i buduje zaufanie uczestników projektu do rozwiązań sztucznej inteligencji.
Zarządzanie sztuczną inteligencją, zarządzanie sztuczną inteligencją i zabezpieczanie sztucznej inteligencji to ciągłe procesy, przez które należy regularnie wykonywać iterowanie. Ponownie zapoznaj się ze strategią sztucznej inteligencji, planem sztucznej inteligencji i gotowym do użycia sztucznej inteligencji zgodnie z potrzebami.
Odnajdywanie zagrożeń bezpieczeństwa sztucznej inteligencji
Obciążenia sztucznej inteligencji tworzą nowe powierzchnie ataków, których nie można rozwiązać w tradycyjnych środkach zabezpieczeń. Należy systematycznie oceniać luki w zabezpieczeniach specyficzne dla sztucznej inteligencji, aby tworzyć skuteczne zabezpieczenia. Oto, jak to zrobić:
Identyfikowanie ryzyka systemu sztucznej inteligencji w całym środowisku. Wdrażanie sztucznej inteligencji wprowadza kategorie ryzyka, które tradycyjne modelowanie zagrożeń może nie być wyraźnie ujęte. Chociaż istniejąca struktura przedsiębiorstwa może już być w stanie modelować te zagrożenia, zarządzanie sztuczną inteligencją wymaga celowej weryfikacji, że faktycznie tak jest. Zacznij od ustalonej struktury modelowania zagrożeń, takiej jak STRIDE. Następnie zapoznaj się z bazami wiedzy i spisami dotyczącymi ryzyka specyficznego dla sztucznej inteligencji, takimi jak MITRE ATLAS i OWASP Generowanie sztucznej inteligencji, aby potwierdzić, że techniki ataków specyficzne dla sztucznej inteligencji, scenariusze nieprawidłowego użycia i ryzyka systemowe są odpowiednio rozwiązane. Użyj tych źródeł, aby uzupełnić, a nie zastąpić istniejącej platformy, i umożliwić spójny proces identyfikacji ryzyka sztucznej inteligencji w całej organizacji.
Ocenianie ryzyka związanego z danymi sztucznej inteligencji w przepływach pracy. Poufne dane w przepływach pracy sztucznej inteligencji zwiększają ryzyko poufnych zagrożeń i wycieków danych, które mogą naruszyć bezpieczeństwo operacji biznesowych. Ocena ryzyka danych ułatwia ustalanie priorytetów inwestycji w zabezpieczenia na podstawie rzeczywistych poziomów ekspozycji. Zarządzanie ryzykiem wewnętrznym w Microsoft Purview można zintegrować z innymi pakietami zabezpieczeń i rozwiązaniami w celu oceny ryzyka danych dla całego przedsiębiorstwa i określania ich priorytetów na podstawie poziomów poufności danych. Może również pomóc w eksfiltracji danych opartych na monitach i identyfikacji ryzykownych wzorców zachowania sztucznej inteligencji.
Testowanie modeli sztucznej inteligencji pod kątem luk w zabezpieczeniach. Modele sztucznej inteligencji zawierają unikatowe luki w zabezpieczeniach, takie jak wyciek danych, wstrzyknięcie monitu i inwersja modelu, które mogą wykorzystać osoby atakujące. Testowanie w świecie rzeczywistym wykrywa zagrożenia, których nie można wykryć przez statyczne przeglądy. Testowanie modeli pod kątem luk w zabezpieczeniach przy użyciu technik zapobiegania utracie danych i niepożądanych symulacji oraz czerwonego zespołu generującego sztuczną inteligencję i niegeneracyjne modele sztucznej inteligencji w celu symulowania rzeczywistych ataków.
Przeprowadzanie okresowych ocen ryzyka. Nowe zagrożenia pojawiają się w miarę rozwoju modeli sztucznej inteligencji, wzorców użycia i podmiotów zagrożeń. Regularne oceny zapewniają, że stan zabezpieczeń dostosowuje się do zmieniających się krajobrazów ryzyka. Uruchom cykliczne oceny, aby zidentyfikować luki w zabezpieczeniach w modelach, potokach danych i środowiskach wdrażania oraz skorzystaj z wyników oceny, aby kierować priorytetami ograniczania ryzyka we wszystkich środowiskach.
Ochrona zasobów i danych sztucznej inteligencji
Systemy sztucznej inteligencji zawierają cenne zasoby i dane, które wymagają silnej ochrony przed nieautoryzowanym dostępem i atakami. Aby chronić te krytyczne zasoby, należy zaimplementować określone mechanizmy kontroli zabezpieczeń.
Zabezpieczanie zasobów sztucznej inteligencji
Kompleksowe środki bezpieczeństwa chronią inwestycje w sztuczną inteligencję i utrzymują zaufanie uczestników projektu do rozwiązań sztucznej inteligencji. Stosowanie kontrolek docelowych w celu zabezpieczenia wszystkich składników infrastruktury sztucznej inteligencji. Oto, jak to zrobić:
Utwórz kompletny spis zasobów sztucznej inteligencji. Nieznane zasoby sztucznej inteligencji lub zasoby sztucznej inteligencji, które nie są śledzone pod kątem zgodności z zasadami sztucznej inteligencji organizacji, tworzą zagrożenia bezpieczeństwa, które mogą wykorzystać złych podmiotów w celu uzyskania nieautoryzowanego dostępu. Kompleksowy spis umożliwia efektywne monitorowanie i szybką reakcję na zdarzenia dla wszystkich składników sztucznej inteligencji. Użyj Azure Resource Graph aby odnaleźć zasoby sztucznej inteligencji w ramach subskrypcji. Użyj Microsoft Defender dla Chmury aby zidentyfikować generowane obciążenia sztucznej inteligencji. Wyniki stają się spisem sztucznej inteligencji i powinny być utrzymywane za pomocą zautomatyzowanego skanowania i regularnej weryfikacji.
Zabezpieczanie wszystkich kanałów komunikacyjnych sztucznej inteligencji. Uwidocznione ścieżki komunikacyjne między składnikami sztucznej inteligencji umożliwiają przechwytywanie danych i naruszenie zabezpieczeń systemu. Właściwie zabezpieczone kanały uniemożliwiają nieautoryzowany dostęp i chronią poufne informacje podczas przesyłania. Zaimplementuj tożsamości zarządzane w celu bezpiecznego uwierzytelniania tożsamości urządzeń i obciążeń (nie-ludzkich) bez konieczności przechowywania poświadczeń. Używanie sieci wirtualnych do izolowania komunikacji sztucznej inteligencji. Wdróż Azure API Management w celu zabezpieczenia punktów końcowych serwera protokołu MCP (Model Context Protocol).
Stosowanie mechanizmów kontroli zabezpieczeń specyficznych dla platformy. Różne modele wdrażania sztucznej inteligencji stoją w obliczu różnych zagrożeń bezpieczeństwa na podstawie ich architektury i punktów ekspozycji. Kontrolki dostosowane do platformy dotyczą określonych luk w zabezpieczeniach znajdujących się w każdym typie wdrożenia. Postępuj zgodnie z dedykowanymi wskazówkami dotyczącymi zabezpieczeń opartymi na modelu wdrażania:
Zabezpieczanie danych sztucznej inteligencji
Obciążenia sztucznej inteligencji opierają się na danych i artefaktach, które wymagają niezawodnej ochrony, aby zapobiec nieautoryzowanemu dostępowi, wyciekom danych i naruszeniom zgodności. Zaimplementuj kompleksowe środki zabezpieczeń danych w celu ochrony danych i artefaktów sztucznej inteligencji. Oto, jak to zrobić:
Definiowanie i utrzymywanie granic danych. Wyraźne granice danych zapewniają, że zestawy zadań AI mają dostęp wyłącznie do danych odpowiednich dla określonych odbiorców i zastosowań. Użyj Microsoft Purview do klasyfikowania poufności danych za pomocą typów informacji poufnych, klasyfikatorów uczących się i klasyfikacji danych w celu zdefiniowania zasad dostępu. Zaimplementuj Azure role-based access control (RBAC) w celu ograniczenia dostępu do danych według obciążeń roboczych i grup użytkowników. Użyj Azure Private Link aby umożliwić dostęp do Azure usług PaaS za pośrednictwem prywatnego punktu końcowego w sieci wirtualnej.
Implementowanie kompleksowej ochrony przed utratą danych. Nieautoryzowane ujawnienie danych za pośrednictwem odpowiedzi sztucznej inteligencji może naruszyć poufne informacje i naruszać wymagania prawne. Mechanizmy ochrony przed utratą danych uniemożliwiają przypadkowo ujawnianie chronionych danych w danych wyjściowych modeli sztucznej inteligencji. Użyj Ochrona przed utratą danych w Microsoft Purview do skanowania i blokowania poufnych danych w przepływach pracy sztucznej inteligencji. Skonfiguruj filtrowanie zawartości , aby zapobiec wyciekom poufnych informacji i zaimplementuj filtry niestandardowe w celu wykrywania i redagowania wzorców danych poufnych specyficznych dla organizacji. W przypadku Microsoft Copilot Studio Konfiguruj zasady ochrony przed utratą danych dla agentów.
Ochrona artefaktów sztucznej inteligencji przed naruszeniem zabezpieczeń. Niezabezpieczone modele sztucznej inteligencji i zestawy danych stają się celem kradzieży, zatrucia lub odwrotnych ataków inżynieryjnych. Chronione artefakty zachowują wartość własności intelektualnej i uniemożliwiają złośliwe manipulowanie systemami sztucznej inteligencji. Przechowywanie modeli i zestawów danych w Azure Blob Storage z prywatnymi punktami końcowymi, stosowanie szyfrowania danych w spoczynku i w trakcie przesyłania oraz implementowanie rygorystycznych zasad dostępu wraz z monitorowaniem do wykrywania nieautoryzowanych prób uzyskania dostępu.
Wykrywanie zagrożeń bezpieczeństwa sztucznej inteligencji
Systemy sztucznej inteligencji napotykają zmieniające się zagrożenia, które wymagają ciągłego monitorowania, aby zapobiec naruszeniom zabezpieczeń i przerwom w działaniu usług. Szybkie wykrywanie zagrożeń chroni inwestycje w sztuczną inteligencję i utrzymuje ciągłość działalności biznesowej. Implementowanie zautomatyzowanych funkcji monitorowania i reagowania w celu efektywnego rozwiązywania problemów związanych ze zdarzeniami zabezpieczeń specyficznymi dla sztucznej inteligencji. Oto, jak to zrobić:
Wdróż automatyczne wykrywanie ryzyka związanego ze sztuczną inteligencją w całym środowisku. Obciążenia sztucznej inteligencji wprowadzają dynamiczne zagrożenia, których ręczne monitorowanie nie może wykryć wystarczająco szybko, aby zapobiec uszkodzeniom. Zautomatyzowane systemy zapewniają wgląd w pojawiające się zagrożenia w czasie rzeczywistym i umożliwiają szybką reakcję na zdarzenia zabezpieczeń. Użyj zarządzania postawą bezpieczeństwa AI w Microsoft Defender dla Chmury, w celu automatyzacji wykrywania i korygowania ryzyk związanych z generatywną sztuczną inteligencją w środowisku Azure.
Ustanów procedury reagowania na zdarzenia ukierunkowane na sztuczną inteligencję. Niewykryte zdarzenia zabezpieczeń mogą prowadzić do utraty danych, naruszenia zabezpieczeń modelu lub przerw w działaniu usługi, które uszkadzają operacje biznesowe. Specjalistyczne procedury reagowania na incydenty uwzględniają unikalne cechy zdarzeń bezpieczeństwa AI. Twórz i testuj plany reagowania na zdarzenia, które dotyczą zagrożeń specyficznych dla sztucznej inteligencji i stale monitorują wskaźniki naruszenia zabezpieczeń w systemach sztucznej inteligencji. Ustanów jasne procedury eskalacji dla różnych typów zdarzeń zabezpieczeń sztucznej inteligencji.
Implementowanie strategii monitorowania specyficznych dla platformy. Obciążenia sztucznej inteligencji wdrożone na różnych platformach stoją przed różnymi wyzwaniami w zakresie zabezpieczeń, które wymagają dostosowanych metod monitorowania. Monitorowanie specyficzne dla platformy zapewnia kompleksowe pokrycie wszystkich potencjalnych wektorów ataków. Zastosuj wskazówki dotyczące monitorowania w oparciu o architekturę wdrożenia w następujący sposób:
- monitorowanie AI na platformach Azure (PaaS)
- monitorowanie AI w infrastrukturze Azure (IaaS)
zasoby Azure
| Kategoria | Narzędzie | Opis |
|---|---|---|
| Odnajdywanie zasobów | Azure Resource Graph Explorer | Odnajduje i inwentaryzuje zasoby sztucznej inteligencji w ramach subskrypcji Azure |
| Monitorowanie zabezpieczeń | Microsoft Defender dla Chmury | Identyfikuje generowane obciążenia sztucznej inteligencji i zagrożenia bezpieczeństwa |
| Zarządzanie tożsamością | Zarządzane tożsamości Microsoft Entra | Zapewnia uwierzytelnianie usługi AI bez przechowywania danych uwierzytelniających. |
| Bezpieczeństwo sieci | Sieci wirtualne | Izoluje komunikację ze sztuczną inteligencją i ogranicza dostęp do sieci |
| Zabezpieczenia interfejsu API | Azure API Management | Zabezpiecza punkty końcowe serwera protokołu modelu kontekstowego |
| Ochrona danych | Azure Blob Storage | Zapewnia zaszyfrowany magazyn artefaktów sztucznej inteligencji z mechanizmami kontroli dostępu |
| Zarządzanie danymi | Microsoft Purview | Kataloguje i klasyfikuje dane sztucznej inteligencji z etykietami wrażliwości |
Następne kroki
Jak wspomniano wcześniej, procesy rządzenia sztuczną inteligencją, zarządzania sztuczną inteligencją i zabezpieczania sztucznej inteligencji to ciągłe procesy, przez które należy regularnie przechodzić iteracje. Ponownie zapoznaj się ze strategią sztucznej inteligencji, planem sztucznej inteligencji i gotowym do użycia sztucznej inteligencji zgodnie z potrzebami. Skorzystaj z list kontrolnych wdrażania sztucznej inteligencji, aby określić, jaki powinien być następny krok.