04.10.2024
140
Według ostatnich szacunków, globalny rynek sztucznej inteligencji przekroczy 184 miliardy dolarów do 2024 roku przy złożonej rocznej stopie wzrostu wynoszącej 35%. Tempo i zakres innowacji w zakresie sztucznej inteligencji stale rośnie. Nowe dane pokazują jednak, że ewolucja sztucznej inteligencji stwarza poważne wyzwania dla bezpieczeństwa usług w chmurze. niesamowite tempo innowacji w zakresie sztucznej inteligencji, w połączeniu ze względną nowością technologii i nadmiernym naciskiem na szybkość wdrożenia, stwarza złożone wyzwania, które organizacje muszą zrozumieć i rozwiązać. W tym artykule przyjrzymy się pięciu najważniejszym wyzwaniom związanym z bezpieczeństwem AI dla usług w chmurze, ich znaczeniu i sposobom radzenia sobie z nimi.
Pierwszym wyzwaniem jest tempo rozwoju. Sztuczna inteligencja wciąż przyspiesza, a jej innowacje prowadzą do funkcji, które promują użyteczność kosztem kwestii bezpieczeństwa. Kontrolowanie tych zmian jest trudne i wymaga ciągłych badań, rozwoju i wdrażania zaawansowanych protokołów bezpieczeństwa. Usługi AI od dostawców usług w chmurze stale się rozwijają i ewoluują, a nowe modele AI, pakiety i zasoby stale się pojawiają. Na przykład tylko w tym roku dostawcy usług w chmurze wprowadzili szereg modeli sztucznej inteligencji innych firm: Google Vertex dodał Llama 3, Anthropic i Mistal, Azure OpenAI ogłosił dodanie Whisper, GPT-4o i GPT-4o mini-, a Amazon Bedrock wprowadził Cohere, Mistral AI, Stability AI i inne nowe modele Command R. Te szybkie i ciągłe zmiany stwarzają wyzwania dla zespołów ds. bezpieczeństwa. Na przykład ustawienia zabezpieczeń dla nowych usług AI muszą być odpowiednio skonfigurowane, a widoczność zasobów AI i zagrożeń musi być utrzymana.
Kolejnym problemem jest to, że jeśli chodzi o widoczność, zespołom ds. bezpieczeństwa często jej brakuje, zwłaszcza jeśli chodzi o działania związane ze sztuczną inteligencją. Shadow AI, czyli nieznane i niezatwierdzone technologie AI używane w organizacji, często powodują, że zespoły bezpieczeństwa nie rozumieją w pełni zagrożeń związanych z AI w chmurze. Shadow AI może utrudniać przyjęcie najlepszych praktyk i zasad bezpieczeństwa, co skutkuje zwiększoną powierzchnią ataku i wyższym ryzykiem dla organizacji. Rozdzielenie zespołów ds. bezpieczeństwa i rozwoju jest jednym z kluczowych czynników powodujących powstawanie shadow AI. Inne wyzwania obejmują brak rozwiązań bezpieczeństwa AI, które zapewniają zespołom bezpieczeństwa pełny wgląd we wszystkie modele AI, zestawy i inne zasoby wdrożone w środowisku, w tym shadow AI.
Trzecim wyzwaniem jest bezpieczeństwo AI, które wciąż znajduje się na wczesnym etapie, więc brakuje rozległych zasobów i doświadczonych ekspertów. Aby zabezpieczyć usługi AI, organizacje często muszą opracowywać własne rozwiązania bez zewnętrznych wskazówek lub paradygmatów. Podczas gdy dostawcy usług oferują najlepsze praktyki i restrykcyjne konfiguracje dla usług AI, zespołom ds. bezpieczeństwa może brakować czasu, możliwości lub świadomości, aby skutecznie je wdrożyć.
Czwartym wyzwaniem jest spełnienie nowych wymogów regulacyjnych. Wymagają one delikatnej równowagi między wspieraniem innowacji, zapewnianiem bezpieczeństwa i przestrzeganiem nowych przepisów prawnych. Firmy i polityki muszą być elastyczne i reagować na nowe przepisy dotyczące technologii AI. Duża część tej polityki wciąż się kształtuje, ale pojawiają się już oznaki przyjęcia unijnego rozporządzenia w sprawie sztucznej inteligencji.
Zmieniający się krajobraz regulacyjny stanowi poważne wyzwanie dla organizacji, które już zmagają się z przestrzeganiem technologii multi-cloud, dlatego ważne jest zapewnienie pełnej przejrzystości modeli, zasobów i wykorzystania AI, co jest trudne do osiągnięcia w przypadku shadow AI. Zasoby AI, podobnie jak zasoby w chmurze, są uruchamiane i kończone w określonej skali i z określoną częstotliwością, więc muszą być zautomatyzowane w całym cyklu życia zgodności, który obejmuje następujące elementy:
Piąty problem wynika z faktu, że po wprowadzeniu nowych usług zasoby są często źle zarządzane. Użytkownicy często zaniedbują prawidłową konfigurację ustawień związanych z rolami, działami, użytkownikami i innymi zasobami, co może stanowić poważne zagrożenie dla środowiska. Jak wspomniano powyżej, wiele organizacji nie konfiguruje prawidłowo ustawień zabezpieczeń dla usług AI w różnych domenach. Zagraża to bezpieczeństwu opublikowanych modeli AI, kluczy dostępu, zasobów superużytkowników i opublikowanych zasobów.
Na szczęście organizacje mogą chronić innowacje AI na dużą skalę dzięki nowemu rozwiązaniu o nazwie AI Security Practice Management (AI-SPM). Jest to oparte na chmurze rozwiązanie bezpieczeństwa, które zapewnia szereg funkcji bezpieczeństwa, takich jak shadow AI, zaawansowane wykrywanie ryzyka i priorytetyzacja wdrożeń, a także zautomatyzowane funkcje zgodności, które zapewniają zespołom bezpieczeństwa pełny wgląd w stan wdrożeń AI. Funkcje te opierają się na natywnej integracji z Cloud Application Protection Platform (CNAPP) i zdolności CNAPP do zapewnienia kompleksowego pokrycia i wykrywania ryzyka w całej chmurze.
Review
zostaw opinię