30.05.2024
127
Den amerikanischen Geheimdiensten fällt es schwer, die KI-Revolution zu akzeptieren. Sie glauben, dass sie andernfalls vom exponentiellen Wachstum der Daten erdrückt werden, da die Sensorüberwachungstechnologie den Planeten zunehmend bedeckt. Regierungsbeamte sind sich jedoch bewusst, dass die Technologie noch jung und anfällig ist und dass generative KI (Vorhersagemodelle, die auf riesigen Datensätzen trainiert werden, um bei Bedarf Texte, Bilder, Videos und menschenähnliche Gespräche zu generieren) nicht für einen gefährlichen Beruf geeignet ist, in dem Betrug weit verbreitet ist.
Analysten brauchen "hochentwickelte Modelle künstlicher Intelligenz, die in der Lage sind, große Mengen an Informationen aus offenen Quellen und verdeckt gesammelten Informationen zu verarbeiten", schrieb CIA-Direktor William Burns kürzlich in Foreign Affairs. Aber das ist nicht einfach.
Nando Marchandani, der Chefingenieur der CIA, ist der Meinung, dass Modelle der künstlichen Intelligenz "Halluzinationen verursachen" und daher am besten als "verrückte, betrunkene Freunde" zu behandeln sind. Es gibt auch Sicherheits- und Datenschutzbedenken. Feinde können sie stehlen oder vergiften, und sie können sensible persönliche Daten enthalten, die die Mitarbeiter nicht sehen dürfen. Trotzdem werden die Experimente meist im Verborgenen durchgeführt.
Tausende von Analysten aus 18 US-Geheimdiensten nutzen eine von der CIA entwickelte genetische künstliche Intelligenz namens Osiris. Osiris arbeitet mit nicht klassifizierten, öffentlich zugänglichen oder kommerziell erhältlichen Daten, so genannten offenen Quellen. Osiris erstellt kommentierte Zusammenfassungen, und eine Chatbot-Funktion ermöglicht es den Analysten, ihre Fragen zu vertiefen.
Marchandani sagte, das System verwende Modelle künstlicher Intelligenz verschiedener kommerzieller Anbieter, deren Namen er jedoch nicht nennen wollte. Er sagte auch nicht, ob die CIA künstliche Intelligenz in ihren geheimen Netzwerken einsetzt. Marchandani sagte: "Wir befinden uns noch in einem frühen Stadium, und unsere Analysten müssen mit absoluter Sicherheit feststellen, woher die Informationen kommen". Marchandani zufolge hat die CIA alle wichtigen Modelle künstlicher Intelligenz getestet, sich aber für keines entschieden. Seiner Ansicht nach eignet sich genetische KI gut als virtueller Assistent, der nach "einer Nadel in einem Stapel von Nadeln" sucht. Aber sie wird niemals einen menschlichen Analysten ersetzen, betonen die Beamten.
Laut Anshu Roy, CEO von Lombus Power, wird die leistungsfähigste intelligente Anwendung die prädiktive Analytik sein. Sie wird einen der größten Paradigmenwechsel in der gesamten nationalen Sicherheitslandschaft darstellen: die Fähigkeit, das Verhalten von Gegnern vorherzusagen. Die künstliche Intelligenz von Lombus basiert auf mehr als 5.000 Datenströmen in 250 Sprachen, die über ein Jahrzehnt hinweg gesammelt wurden, darunter Daten aus globalen Nachrichtenquellen, Satellitenbildern und aus dem Cyberspace. Alle diese Daten sind Open Source. Wir können Menschen und Objekte verfolgen", sagt Roy.
Microsoft gab am 7. Mai bekannt, dass es OpenAI GPT-4 für sein streng geheimes Netzwerk anbieten wird. Das konkurrierende Unternehmen Primer AI zählt zwei ungenannte Geheimdienste, darunter das Militär, zu seinen Kunden, wie aus online veröffentlichten Dokumenten über einen kürzlich abgehaltenen KI-Workshop des Militärs hervorgeht. Das Unternehmen bietet eine KI-gestützte Suche in 100 Sprachen an, um "neue Warnungen über Notfallereignisse" aus Quellen wie Twitter, Telegram, Reddit und Discord zu erkennen und "wichtige Personen, Organisationen und Orte" zu identifizieren. Primer behauptet unter anderem, dass seine Technologie bei einer Demonstration auf einer Militärkonferenz wenige Tage nach dem Hamas-Angriff auf Israel am 7. Oktober erklärt hat, wie seine Technologie im Online-Informationsfluss aus dem Nahen Osten Fiktion von Fakten trennt.
Kurzfristig ist die Art und Weise, wie die US-Geheimdienste die genetische künstliche Intelligenz einsetzen, vielleicht nicht so wichtig wie die Art und Weise, wie der Gegner sie einsetzt. Während das Silicon Valley mit der Technologie arbeitet, befürchtet das Weiße Haus, dass die von den US-Behörden eingesetzten KI-Modelle eingesetzt und vergiftet werden könnten. Eine weitere Sorge ist die Wahrung der Privatsphäre von "Amerikanern", deren Daten in große Sprachmodelle eingebettet werden können.
Fragen Sie einen Forscher oder Entwickler, der ein großes Sprachmodell trainiert, ob Sie eine Information aus einem großen Sprachmodell entfernen und es dazu bringen können, sie zu vergessen, und ob Sie verlässliche empirische Garantien dafür erhalten können, dass es sie vergessen hat - es ist unmöglich", sagte John Baylor, Leiter der Abteilung für künstliche Intelligenz im Office of the Director of National Intelligence, in einem Interview. Das ist ein Grund, warum die Geheimdienste beim Einsatz von KI nicht versuchen, die Dinge schnell zu ändern. Baylor zufolge "wollen wir nicht, dass wir all diese Dinge so schnell einsetzen, dass zwei oder drei Jahre später Informationen, Auswirkungen und neue Verhaltensweisen entdeckt werden, die wir nicht vorhergesehen haben". Wenn beispielsweise eine Regierungsbehörde beschließt, KI zur Erforschung von Biowaffen oder Cyberwaffentechnologien einzusetzen, wäre das ein Problem.
William Hartung, Senior Fellow am Quincy Institute for Responsible Government, sagt, dass Nachrichtendienste unbeabsichtigte Folgen, wie illegale Überwachung und mehr zivile Opfer in Konflikten, berücksichtigen müssen. Um unbeabsichtigte Folgen zu vermeiden, muss KI sorgfältig auf möglichen Missbrauch geprüft werden. Dies geschieht vor dem Hintergrund wiederholter militärischer und geheimdienstlicher Behauptungen über "Wunderwaffen" und revolutionäre Ansätze, die sich nicht bewährt haben - von den elektronischen Schlachtfeldern in Vietnam bis zu den Star-Wars-Programmen der 1980er Jahre und der "militärischen Revolution" der 1990er und 2000er Jahre. Regierungsvertreter sagen, dass sie diese Bedenken verstehen. Hinzu kommt, dass die Aufgaben der KI in den verschiedenen Regierungsbehörden sehr unterschiedlich sind. Es gibt keine Einheitslösung für alle.
Im Dezember veröffentlichte die NGA eine Aufforderung zur Einreichung von Vorschlägen, um eine völlig neue Art von generativem KI-Modell zu entwickeln. Ziel ist es, durch einfache Sprach- oder Textnachrichten genaue geografische Informationen zu sammeln und dabei Bilder von Satelliten und vom Boden zu verwenden. Generative Modelle kartieren keine Straßen oder Eisenbahnlinien und "verstehen die Grundlagen der Geografie nicht", sagte Mark Mansell, der Innovationsdirektor der NGA, in einem Interview. Mansell sagte in einem Interview.
Auf einer Konferenz in Arlington, Virginia, im April sagte Mansell, die US-Regierung modelliere und kartiere derzeit nur etwa 3% des Globus. Der Einsatz von KI ist bei Cyberkonflikten sinnvoll, wo Angreifer und Verteidiger in einem ständigen Kampf stehen und die Automatisierung fließend ist. Doch viele wichtige Geheimdienstoperationen haben nichts mit Datenwissenschaft zu tun, meint Zachary Tyson Brown, ein ehemaliger Offizier des Verteidigungsnachrichtendienstes. Er glaubt, dass es Probleme geben wird, wenn Geheimdienste genetische KI zu schnell oder zu umfassend einsetzen. Die Modelle ziehen keine Schlussfolgerungen. Sie machen nur Vorhersagen. Und die Entwickler können nicht gut erklären, wie sie funktionieren. Letztlich ist es ein schlechtes Instrument, um gegen Rivalen anzutreten, die Meister der Täuschung sind.
Brown schrieb kürzlich in einem internen CIA-Journal: "Geheimdienstanalyse ist wie das alte Sprichwort vom Zusammensetzen eines Puzzles, bei dem immer jemand anderes versucht, deine Teile zu stehlen und völlig andere Teile in den Stapel zu legen, an dem du gerade arbeitest". Analysten arbeiten mit "unvollständigen, mehrdeutigen, oft widersprüchlichen, fragmentierten und unzuverlässigen Informationen". Sie verlassen sich in hohem Maße auf Intuition, Kollegen und das organisatorische Gedächtnis. "Ich glaube nicht, dass KI die Analysten in absehbarer Zeit ersetzen wird", sagt Weisgold, der ehemalige stellvertretende Leiter der CIA-Abteilung für Analysen. Es gibt Zeiten, in denen Entscheidungen über Leben und Tod auf der Grundlage unvollständiger Daten getroffen werden müssen, und das derzeitige KI-Modell ist noch zu undurchsichtig.
Review
Feedback hinterlassen