Wiadomości z amerykańskiego wywiadu: Jak sztuczna inteligencja jest powiązana z CIA

Wywiad USA i sztuczna inteligencja: Co je łączy

Amerykańskie służby wywiadowcze mają trudności z zaakceptowaniem rewolucji AI. Uważają, że jeśli tego nie zrobią, zostaną zmiażdżone przez wykładniczy wzrost ilości danych, ponieważ technologia nadzoru czujników w coraz większym stopniu obejmuje całą planetę. Urzędnicy państwowi zdają sobie jednak sprawę, że technologia ta jest wciąż młoda i podatna na zagrożenia, a generatywna sztuczna inteligencja (modele predykcyjne szkolone na ogromnych zbiorach danych w celu generowania tekstu, obrazów, wideo i rozmów podobnych do ludzkich na żądanie) nie nadaje się do niebezpiecznego zawodu, w którym szerzy się oszustwo.

Analitycy potrzebują "wyrafinowanych modeli sztucznej inteligencji zdolnych do przyswajania dużych ilości informacji z otwartych źródeł i potajemnie zebranych informacji", napisał niedawno dyrektor CIA William Burns w Foreign Affairs. Ale to nie jest łatwe".

Nando Marchandani, główny inżynier CIA, uważa, że modele sztucznej inteligencji "powodują halucynacje" i dlatego najlepiej traktować je jak "szalonych pijanych przyjaciół". Istnieją również obawy dotyczące bezpieczeństwa i prywatności. Wrogowie mogą je ukraść lub zatruć, a także mogą zawierać poufne dane osobowe, których pracownicy nie mogą zobaczyć. Mimo to eksperymenty są w większości tajne.

Ozyrys

Tysiące analityków z 18 amerykańskich agencji wywiadowczych korzysta z opracowanej przez CIA genetycznej sztucznej inteligencji o nazwie Osiris. Osiris pracuje z niesklasyfikowanymi, publicznie dostępnymi lub komercyjnie dostępnymi danymi, tzw. open source. Osiris tworzy podsumowania z adnotacjami, a funkcja chatbota pozwala analitykom zagłębiać się w zapytania.

Czym jest sztuczna inteligencja Osiris?

Marchandani powiedział, że system wykorzystuje modele sztucznej inteligencji od różnych dostawców komercyjnych, ale odmówił podania ich nazw. Nie powiedział również, czy CIA wykorzystuje sztuczną inteligencję w swoich tajnych sieciach. Marchandani powiedział: "To wciąż jest na wczesnym etapie i nasi analitycy muszą z absolutną pewnością określić, skąd pochodzą informacje". Według Marchandaniego, CIA przetestowała wszystkie główne modele sztucznej inteligencji, ale nie zdecydowała się na żaden z nich. Jego zdaniem genetyczna sztuczna inteligencja jest dobra jako wirtualny asystent szukający "jednej igły w stosie igieł". Ale nigdy nie zastąpi ludzkiego analityka, podkreślają urzędnicy.

Najpotężniejsza inteligentna aplikacja

Według Anshu Roy, CEO Lombus Power, najpotężniejszą inteligentną aplikacją będzie analityka predykcyjna. Będzie to jedna z największych zmian paradygmatu w całym krajobrazie bezpieczeństwa narodowego: zdolność do przewidywania zachowania przeciwnika. Sztuczna inteligencja firmy Lombus opiera się na ponad 5000 strumieni danych w 250 językach zebranych w ciągu dekady, w tym danych z globalnych źródeł wiadomości, zdjęć satelitarnych i cyberprzestrzeni. Wszystkie te dane mają charakter open source. Możemy śledzić ludzi, możemy śledzić obiekty" - mówi Roy.

Ściśle tajne sieci

Microsoft ogłosił 7 maja, że zaoferuje OpenAI GPT-4 dla swojej ściśle tajnej sieci. Konkurencyjna firma Primer AI liczy dwie nienazwane agencje wywiadowcze, w tym służby wojskowe, jako klientów, zgodnie z dokumentami opublikowanymi online na temat niedawnych wojskowych warsztatów AI. Firma oferuje wyszukiwanie wspomagane sztuczną inteligencją w 100 językach w celu "wykrywania nowych alertów o zdarzeniach nadzwyczajnych" ze źródeł takich jak Twitter, Telegram, Reddit i Discord oraz w celu identyfikacji "kluczowych osób, organizacji i miejsc". Primer twierdzi między innymi, że jego technologia powołuje się na celowanie, podczas demonstracji na konferencji wojskowej kilka dni po ataku Hamasu na Izrael w dniu 7 października, dyrektor firmy wyjaśnił, w jaki sposób jego technologia oddziela fikcję od faktów w internetowym przepływie informacji z Bliskiego Wschodu.

Czym zajmuje się Primer AI?

Ryzyko związane z wdrażaniem sztucznej inteligencji

W perspektywie krótkoterminowej to, w jaki sposób amerykańscy specjaliści ds. wywiadu wykorzystują genetyczną sztuczną inteligencję, może nie być tak ważne, jak przeciwdziałanie temu, w jaki sposób wykorzystują ją przeciwnicy. Podczas gdy Dolina Krzemowa pracuje nad technologią, Biały Dom obawia się, że modele AI wykorzystywane przez władze USA zostaną wdrożone i zatrute. Inną obawą jest zapewnienie prywatności "Amerykanów", których dane mogą być osadzone w dużych modelach językowych.

Zapytaj dowolnego badacza lub programistę szkolącego duży model językowy, czy możesz usunąć jedną informację z dużego modelu językowego, sprawić, by o niej zapomniał i uzyskać wiarygodne empiryczne gwarancje, że o niej zapomniał - to niemożliwe "- powiedział w wywiadzie John Baylor, szef sztucznej inteligencji w Biurze Dyrektora Wywiadu Narodowego. To jeden z powodów, dla których agencje wywiadowcze nie próbują szybko zakłócać sytuacji, jeśli chodzi o wdrażanie sztucznej inteligencji. Według Baylora "nie chcemy świata, w którym wdrażamy wszystkie te rzeczy tak szybko, że dwa lub trzy lata później odkrywane są informacje, efekty i nowe zachowania, których nie przewidzieliśmy". Na przykład, jeśli agencja rządowa zdecyduje się wykorzystać sztuczną inteligencję do badań nad bronią biologiczną lub cybernetyczną, będzie to stanowić problem.

William Hartung, starszy pracownik w Quincy Institute for Responsible Government, twierdzi, że agencje wywiadowcze muszą pamiętać o niezamierzonych konsekwencjach, takich jak nielegalna inwigilacja i zwiększona liczba ofiar cywilnych w konfliktach. Aby uniknąć niezamierzonych konsekwencji, sztuczna inteligencja musi być dokładnie oceniana pod kątem potencjalnych nadużyć. Ma to miejsce w kontekście powtarzających się twierdzeń wojskowych i wywiadowczych o "cudownej broni" i rewolucyjnych podejściach, które okazały się nieskuteczne - od elektronicznych pól bitewnych w Wietnamie po programy Gwiezdnych Wojen z lat 80. i "rewolucję wojskową" z lat 1990. i 2000.  Urzędnicy państwowi twierdzą, że rozumieją te obawy. Co więcej, zadania AI różnią się znacznie w poszczególnych agencjach rządowych. Nie ma jednego uniwersalnego rozwiązania.

Prośba o nowy rodzaj sztucznej inteligencji

W grudniu NGA opublikowała zapytanie ofertowe na stworzenie zupełnie nowego typu generatywnego modelu sztucznej inteligencji. Celem jest zebranie dokładnych informacji geoprzestrzennych za pomocą prostych wiadomości głosowych lub tekstowych, przy użyciu zdjęć z satelitów i ziemi. Modele generatywne nie mapują dróg ani linii kolejowych i "nie rozumieją podstaw geografii" - powiedział w wywiadzie Mark Mansell, dyrektor ds. innowacji w NGA. Mansell powiedział w wywiadzie.

Na konferencji w Arlington w stanie Wirginia w kwietniu Mansell powiedział, że rząd USA obecnie modeluje i mapuje tylko około 3% globu. Wykorzystanie sztucznej inteligencji ma sens w konfliktach cybernetycznych, w których atakujący i obrońcy toczą ciągłą walkę, a automatyzacja jest płynna. Ale wiele ważnych operacji wywiadowczych nie ma nic wspólnego z nauką o danych, mówi Zachary Tyson Brown, były oficer wywiadu obronnego. Uważa on, że jeśli agencje wywiadowcze wdrożą genetyczną sztuczną inteligencję zbyt szybko lub zbyt w pełni, pojawią się problemy. Modele nie wyciągają wniosków. Tworzą jedynie prognozy. A programiści nie potrafią dobrze wyjaśnić, jak to działa. Ostatecznie jest to słabe narzędzie do konkurowania z rywalami, którzy są mistrzami oszustwa.

Brown napisał niedawno w wewnętrznym dzienniku CIA: "Analiza wywiadowcza jest jak stare porzekadło o układaniu puzzli, ale ktoś inny zawsze próbuje ukraść twoje kawałki i umieścić zupełnie inne kawałki w stosie, nad którym pracujesz". Analitycy pracują z "niekompletnymi, niejednoznacznymi, często sprzecznymi, fragmentarycznymi i niewiarygodnymi informacjami". W dużej mierze polegają na intuicji, współpracownikach i pamięci organizacyjnej. "Nie sądzę, by sztuczna inteligencja zastąpiła analityków w najbliższym czasie" - mówi Weisgold, były zastępca dyrektora CIA ds. analiz. Zdarzają się sytuacje, w których decyzje dotyczące życia lub śmierci muszą być podejmowane na podstawie niekompletnych danych, a obecny model sztucznej inteligencji jest nadal zbyt nieprzejrzysty.

Review

zostaw opinię