KI bringt den Roboter-Wingman in den Luftkampf
Ein Luftwaffenprogramm zeigt, wie das Pentagon beginnt, das Potenzial einer sich schnell entwickelnden Technologie zu nutzen, mit weitreichenden Auswirkungen auf Kriegstaktiken, Militärkultur und die Verteidigungsindustrie.
Das pilotlose Experimentalflugzeug XQ-58A Valkyrie der Luftwaffe wird von künstlicher Intelligenz gesteuert. Bildnachweis: Edmund D. Fountain für die New York Times
Unterstützt durch
Von Eric Lipton
Berichterstattung von der Eglin Air Force Base, Florida und Washington
Es wird von einem Raketentriebwerk in den Flug angetrieben. Es kann eine Distanz zurücklegen, die der Breite Chinas entspricht. Es verfügt über ein Tarnsystem und ist in der Lage, Raketen zu tragen, die feindliche Ziele weit außerhalb seiner Sichtweite treffen können.
Aber was das pilotlose Experimentalflugzeug XQ-58A Valkyrie der Air Force wirklich auszeichnet, ist, dass es von künstlicher Intelligenz gesteuert wird und damit an der Spitze der Bemühungen des US-Militärs steht, die Kapazitäten einer aufstrebenden Technologie zu nutzen, deren enorme potenzielle Vorteile jedoch durch tiefgreifende Einschränkungen gemildert werden Bedenken darüber, wie viel Autonomie einer tödlichen Waffe gewährt werden soll.
Im Wesentlichen handelt es sich bei der Valkyrie um eine Drohne der nächsten Generation. Sie ist ein Prototyp dessen, was die Air Force zu einer wirksamen Ergänzung ihrer Flotte traditioneller Kampfflugzeuge werden möchte, indem sie menschlichen Piloten einen Schwarm hochleistungsfähiger Roboter-Flügelmänner an die Hand gibt, die sie im Kampf einsetzen können. Seine Aufgabe besteht darin, künstliche Intelligenz und seine Sensoren zu vereinen, um feindliche Bedrohungen zu identifizieren und zu bewerten und dann, nach Zustimmung des Menschen, zur Tötung überzugehen.
An einem kürzlichen Tag bereitete sich Maj. Ross Elder, 34, ein Testpilot aus West Virginia, auf dem Luftwaffenstützpunkt Eglin an der Golfküste Floridas auf eine Übung vor, bei der er seinen F-15-Jäger neben der Valkyrie fliegen sollte.
„Es ist ein sehr seltsames Gefühl“, sagte Major Elder, als andere Mitglieder des Air Force-Teams sich darauf vorbereiteten, den Motor der Valkyrie zu testen. „Ich fliege vom Flügel von etwas, das seine eigenen Entscheidungen trifft. Und es ist kein menschliches Gehirn.“
Das Valkyrie-Programm bietet einen Einblick in die Art und Weise, wie das US-Waffengeschäft, die Militärkultur, die Kampftaktiken und der Wettbewerb mit rivalisierenden Nationen durch den raschen technologischen Fortschritt auf möglicherweise weitreichende Weise verändert werden.
Das Aufkommen künstlicher Intelligenz trägt dazu bei, eine neue Generation von Pentagon-Auftragnehmern hervorzubringen, die versuchen, die langjährige Vormachtstellung der Handvoll Riesenfirmen, die die Streitkräfte mit Flugzeugen, Raketen, Panzern und Schiffen beliefern, zu untergraben oder zumindest zu zerstören.
Die Möglichkeit, Flotten intelligenter, aber relativ kostengünstiger Waffen zu bauen, die in großer Zahl eingesetzt werden könnten, ermöglicht es den Beamten des Pentagons, über den Kampf gegen feindliche Streitkräfte auf neue Weise nachzudenken.
Es zwingt sie auch dazu, sich der Frage zu stellen, welche Rolle Menschen in Konflikten spielen sollten, die mit Software ausgetragen werden, die zum Töten geschrieben wurde, eine Frage, die für die Vereinigten Staaten angesichts ihrer Vergangenheit an Fehlangriffen konventioneller Drohnen, die zivile Opfer fordern, besonders heikel ist.
Und die Erlangung und Aufrechterhaltung eines Vorsprungs in der künstlichen Intelligenz ist ein Element eines zunehmend offenen Wettlaufs mit China um die technologische Überlegenheit in der nationalen Sicherheit.
Militärplaner befürchten, dass man sich nicht mehr darauf verlassen kann, dass die aktuelle Mischung aus Luftwaffenflugzeugen und Waffensystemen – trotz der in sie investierten Billionen Dollar – dominieren wird, wenn ein umfassender Konflikt mit China ausbricht, insbesondere wenn es dazu kommt eine chinesische Invasion in Taiwan.
Das liegt daran, dass China seine Küsten und die künstlichen Inseln, die es im Südchinesischen Meer errichtet hat, mit mehr als tausend Anti-Schiffs- und Flugabwehrraketen säumt, was die Fähigkeit der Vereinigten Staaten, auf eine mögliche Invasion Taiwans ohne massiven Angriff zu reagieren, erheblich einschränkt Verluste in der Luft und auf See.
Nachdem jahrzehntelang immer weniger und immer teurere Kampfflugzeuge gebaut wurden – der F-35-Kampfjet kostet 80 Millionen US-Dollar pro Einheit – verfügt die Air Force nun über die kleinste und älteste Flotte in ihrer Geschichte.
Hier kommt die neue Generation von KI-Drohnen ins Spiel, die sogenannten kollaborativen Kampfflugzeuge. Die Luftwaffe plant, 1.000 bis 2.000 davon für nur 3 Millionen US-Dollar pro Stück zu bauen, was einem Bruchteil der Kosten eines fortschrittlichen Kampfflugzeugs entspricht , weshalb einige bei der Luftwaffe das Programm „erschwingliche Masse“ nennen.
Es wird eine Reihe spezieller Typen dieser Roboterflugzeuge geben. Einige werden sich auf Überwachungs- oder Nachschubmissionen konzentrieren, andere werden in Angriffsschwärmen fliegen und wieder andere werden einem menschlichen Piloten als „treuer Flügelmann“ dienen.
Die Drohnen könnten beispielsweise vor bemannten Kampfflugzeugen fliegen und so eine frühzeitige, risikoreiche Überwachung durchführen. Sie könnten auch eine wichtige Rolle dabei spielen, die feindliche Luftabwehr außer Gefecht zu setzen, indem sie das Risiko eingehen, landgestützte Raketenziele auszuschalten, die für ein von Menschen gesteuertes Flugzeug als zu gefährlich gelten würden.
Die KI – eine spezialisiertere Version der Art von Programmierung, die heute vor allem für Chatbots bekannt ist – würde Informationen von ihren Sensoren sammeln und auswerten, wenn sie sich feindlichen Streitkräften nähert, um andere Bedrohungen und hochwertige Ziele zu identifizieren, und zuvor den menschlichen Piloten um Erlaubnis bitten jeden Angriff mit seinen Bomben oder Raketen starten.
Die billigsten gelten als entbehrlich, was bedeutet, dass sie wahrscheinlich nur eine Mission haben. Laut einer Schätzung des Repräsentantenhauses könnte das anspruchsvollere dieser Roboterflugzeuge bis zu 25 Millionen US-Dollar kosten, immer noch weit weniger als ein bemannter Kampfjet.
„Ist es eine perfekte Antwort? Wenn man in die Zukunft blickt, ist das nie eine perfekte Antwort“, sagte Generalmajor R. Scott Jobe, der bis zu diesem Sommer für die Festlegung der Anforderungen für das Luftkampfprogramm verantwortlich war, da die Luftwaffe daran arbeitet, KI in ihr Programm zu integrieren Kampfjets und Drohnen.
„Aber man kann potenzielle Gegner vor Dilemmata stellen – und eines dieser Dilemmata ist die Masse“, sagte General Jobe in einem Interview im Pentagon und bezog sich dabei auf den Einsatz einer großen Anzahl von Drohnen gegen feindliche Streitkräfte. „Man kann mit potenziell weniger Leuten Masse in den Kampfraum bringen.“
Die Bemühungen stellen den Beginn einer gewaltigen Veränderung in der Art und Weise dar, wie die Luftwaffe einige ihrer wichtigsten Werkzeuge kauft. Nachdem sich das Pentagon jahrzehntelang auf den Kauf von Hardware konzentriert hat, die von traditionellen Auftragnehmern wie Lockheed Martin und Boeing hergestellt wurde, verlagert sich der Schwerpunkt auf Software, die die Leistungsfähigkeit von Waffensystemen verbessern kann, wodurch neuere Technologieunternehmen die Möglichkeit haben, sich Teile der riesigen Kapazitäten des Pentagons zu sichern Beschaffungsbudget.
„Maschinen greifen tatsächlich auf die Daten zurück und erzeugen dann ihre eigenen Ergebnisse“, sagte Brig. General Dale White, der Pentagon-Beamte, der für das neue Akquisitionsprogramm verantwortlich war.
Die Luftwaffe ist sich bewusst, dass sie sich auch mit großen Bedenken hinsichtlich des militärischen Einsatzes künstlicher Intelligenz auseinandersetzen muss, sei es mit der Angst, dass sich die Technologie gegen ihre menschlichen Schöpfer wenden könnte (wie Skynet in der „Terminator“-Filmreihe), oder mit unmittelbareren Bedenken, Algorithmen den Einsatz steuern zu lassen von tödlicher Gewalt.
„Sie überschreiten eine moralische Grenze, indem Sie das Töten an Maschinen auslagern – indem Sie Computersensoren anstelle von Menschen erlauben, Menschenleben zu töten“, sagte Mary Wareham, die Interessenvertretung der Waffenabteilung von Human Rights Watch, die sich für internationale Grenzen einsetzt zu sogenannten tödlichen autonomen Waffen.
Eine kürzlich überarbeitete Pentagon-Richtlinie zum Einsatz künstlicher Intelligenz in Waffensystemen erlaubt den autonomen Einsatz tödlicher Gewalt – aber jeder konkrete Plan zum Bau oder Einsatz einer solchen Waffe muss zunächst von einem speziellen Militärgremium überprüft und genehmigt werden.
Auf die Frage, ob Drohnen der Luftwaffe irgendwann in der Lage sein könnten, tödliche Angriffe wie diesen durchzuführen, ohne dass jeder Angriff ausdrücklich von einem Menschen genehmigt werden muss, sagte eine Sprecherin des Pentagons in einer Erklärung gegenüber der New York Times, dass die Frage zu hypothetisch sei, um sie zu beantworten.
Jede autonome Drohne der Luftwaffe, heißt es in der Erklärung, müsse „so konzipiert sein, dass sie es Kommandanten und Bedienern ermöglicht, ein angemessenes Maß an menschlichem Urteilsvermögen über den Einsatz von Gewalt auszuüben“.
Beamte der Luftwaffe sagten, sie seien völlig darüber im Klaren, dass Maschinen nicht so intelligent seien wie Menschen. Auch die KI-Technologie kann Fehler machen – wie es in den letzten Jahren bei selbstfahrenden Autos immer wieder passiert ist – und Maschinen haben keinen eingebauten moralischen Kompass. Die Beamten sagten, sie hätten diese Faktoren beim Aufbau des Systems berücksichtigt.
„Es ist eine gewaltige Verantwortung“, sagte Col. Tucker Hamilton, der Chef von AI Test and Operations der Air Force, der auch bei der Beaufsichtigung der Flugtestteams auf der Eglin Air Force Base hilft, und bemerkte, dass „dystopisches Geschichtenerzählen und Popkultur eine …“ Art von Raserei“ rund um künstliche Intelligenz.
„Wir müssen einfach methodisch, bewusst und ethisch dorthin gelangen – in kleinen Schritten“, sagte er.
Der lange, holzgetäfelte Korridor im Pentagon, in dem die Spitzen der Luftwaffe ihre Büros haben, ist gesäumt von Porträts von Anführern aus einem Jahrhundert, gemischt mit Bildern der Fluggeräte, die den Vereinigten Staaten seither die weltweite Vorherrschaft in der Luft verschaffen Zweiter Krieg.
Aus den Bildern geht ein gemeinsames Thema hervor: die ikonische Rolle des Piloten.
Menschen werden weiterhin eine zentrale Rolle in der neuen Vision der Luftwaffe spielen, sagten hochrangige Pentagon-Beamte, aber sie werden zunehmend mit Software-Ingenieuren und Experten für maschinelles Lernen zusammenarbeiten, die die Algorithmen für den Betrieb der Roboter-Flügelmänner ständig verfeinern werden wird neben ihnen fliegen.
Nahezu jeder Aspekt des Luftwaffeneinsatzes muss überarbeitet werden, um diesem Wandel gerecht zu werden. Diese Aufgabe wurde diesen Sommer größtenteils den Generälen White und Jobe anvertraut, deren Partnerschaft Luftwaffenoffiziere den Spitznamen „Dale and Frag Show“ gaben (General Jobes Rufzeichen als Pilot ist Frag).
Das Pentagon hat über seine Forschungsabteilungen wie DARPA und das Air Force Research Laboratory bereits mehrere Jahre damit verbracht, Prototypen wie die Valkyrie und die Software, mit der sie läuft, zu bauen. Aber das Experiment entwickelt sich nun zu einem sogenannten Programm of Record, das heißt, wenn der Kongress zustimmt, werden beträchtliche Steuergelder für den Kauf der Fahrzeuge bereitgestellt: insgesamt 5,8 Milliarden US-Dollar in den nächsten fünf Jahren, so der Plan der Air Force.
Im Gegensatz zu F-35-Kampfflugzeugen, die von Lockheed Martin und seinen Subunternehmern als Paket geliefert werden, plant die Luftwaffe, das Flugzeug und die Software als separate Einkäufe aufzuteilen.
Kratos, der Erbauer der Valkyrie, bereitet sich bereits darauf vor, auf einen künftigen Auftrag zu bieten, ebenso wie andere große Unternehmen wie General Atomics, das seit Jahren Angriffsdrohnen für den Einsatz im Irak und in Afghanistan baut, und Boeing, das über ein eigenes experimentelles autonomes Flugzeug verfügt Prototyp eines Kampfflugzeugs, der MQ-28 Ghost Bat.
Eine separate Gruppe von Software-First-Unternehmen – Technologie-Start-ups wie Shield AI und Anduril, die durch Risikokapital in Höhe von Hunderten Millionen Dollar finanziert werden – wetteifern um das Recht, dem Pentagon die Algorithmen der künstlichen Intelligenz zu verkaufen, die für Missionsentscheidungen zuständig sind .
Die Liste der Hürden, die es zu überwinden gilt, ist lang.
Das Pentagon hat eine miserable Bilanz bei der Entwicklung fortschrittlicher Software und dem Versuch, ein eigenes Programm für künstliche Intelligenz zu starten. Im Laufe der Jahre hat es verschiedene mit Akronymen übersäte Programmbüros durchlaufen, die gegründet und dann geschlossen wurden, ohne dass es wenig zu zeigen gab.
Unter den Führungskräften im Pentagon kommt es zu ständigen Wechseln, was die Bemühungen erschwert, im Zeitplan voranzukommen. General Jobe wurde bereits eine neue Rolle zugewiesen und General White wird diese bald übernehmen.
Das Pentagon muss auch die eiserne Kontrolle, die die großen Verteidigungsunternehmen über den Fluss der Militärausgaben ausüben, durchbrechen. Wie aus der Struktur des Valkyrie-Programms hervorgeht, möchte das Militär mehr tun, um das Fachwissen einer neuen Generation von Softwareunternehmen zu nutzen, um wichtige Teile des Pakets zu liefern und mehr Wettbewerb, unternehmerische Geschwindigkeit und Kreativität in das zu bringen, was seit langem ein Risiko darstellt. abgeneigtes und langsames System.
Die wichtigste Aufgabe lag, zumindest bis vor Kurzem, bei General Jobe, der sich vor zwei Jahrzehnten erstmals in der Luftwaffe einen Namen machte, als er dabei half, eine Bombenangriffsstrategie zu entwickeln, um tief vergrabene Bunker im Irak zu sprengen, in denen sich wichtige militärische Kommunikationsschalter befanden .
Er wurde gebeten, wichtige Entscheidungen zu treffen und den Rahmen für den Bau der KI-betriebenen Roboterflugzeuge festzulegen. Während eines Pentagon-Interviews und bei anderen jüngsten Veranstaltungen sagten die Generäle Jobe und White beide, dass es ein klares Gebot sei, dass Menschen die letztendlichen Entscheidungsträger bleiben – und nicht die Roboterdrohnen, bekannt als CCAs, das Akronym für kollaborative Kampfflugzeuge.
„Ich werde diesen Roboter nicht rausgehen lassen und einfach anfangen, auf Dinge zu schießen“, sagte General Jobe während eines Briefings mit Pentagon-Reportern Ende letzten Jahres.
Er fügte hinzu, dass immer ein Mensch entscheiden würde, wann und wie ein KI-fähiges Flugzeug einen Feind angreift, und dass Entwickler eine Firewall um bestimmte KI-Funktionen errichten, um die Eigenleistung der Geräte einzuschränken.
„Betrachten Sie es einfach als eine Erweiterung Ihres Waffenschachts, wenn Sie in einer F-22, F-35 oder was auch immer sitzen“, sagte er.
Im Jahr 1947 war Chuck Yeager, damals ein junger Testpilot aus Myra, West Virginia, der erste Mensch, der schneller als die Schallgeschwindigkeit flog.
76 Jahre später ist ein weiterer Testpilot aus West Virginia einer der ersten Air-Force-Piloten, der neben einer autonomen, KI-gestützten Kampfdrohne flog.
Groß und schlaksig, mit einem leichten Appalachen-Akzent, flog Major Elder letzten Monat seine F-15 Strike Eagle in einer Entfernung von 1.000 Fuß zum experimentellen XQ-58A Valkyrie – und beobachtete ihn genau, wie ein Elternteil, der neben einem Kind herläuft, das Fahrradfahren lernt Die Drohne flog selbstständig und erreichte bestimmte zugewiesene Geschwindigkeiten und Höhen.
Die grundlegenden Funktionstests der Drohne waren nur der Auftakt zur eigentlichen Show, bei der die Valkyrie über den Einsatz fortschrittlicher Autopilot-Tools hinausgeht und beginnt, die Kriegsfähigkeiten ihrer künstlichen Intelligenz zu testen. In einem für später in diesem Jahr geplanten Test soll die Kampfdrohne über dem Golf von Mexiko ein simuliertes feindliches Ziel verfolgen und dann töten und dabei eine eigene Strategie für die Mission entwickeln.
In der aktuellen Phase besteht das Ziel darin, die Flugfähigkeit der Valkyrie und die KI-Software zu testen, sodass das Flugzeug keine Waffen trägt. Der geplante Luftkampf wird mit einem „konstruierten“ Feind stattfinden, obwohl der KI-Agent an Bord der Valkyrie glauben wird, dass er real ist.
Major Elder hatte in diesem frühen Entwicklungsstadium keine Möglichkeit, direkt mit der autonomen Drohne zu kommunizieren, daher musste er sehr genau beobachten, wie sie zu ihrer Mission aufbrach.
„Sie will töten und überleben“, sagte Major Elder über das Training, das die Drohne erhalten hat.
In Eglin, einem der größten Luftwaffenstützpunkte der Welt, wurde ein ungewöhnliches Team aus Luftwaffenoffizieren und Zivilisten zusammengestellt. Dazu gehört auch Kapitänin Rachel Price aus Glendale, Arizona, die gerade ihren Doktortitel abschließt. am Massachusetts Institute of Technology über Computer Deep Learning, sowie Maj. Trent McMullen aus Marietta, Georgia, der einen Master-Abschluss in maschinellem Lernen von der Stanford University hat.
Major Elder achtet unter anderem auf etwaige Diskrepanzen zwischen Simulationen, die der Computer vor dem Flug durchführt, und den Aktionen der Drohne, wenn sie sich tatsächlich in der Luft befindet – ein „Sim-to-Real“-Problem nennen sie es – oder noch besorgniserregender: Jedes Anzeichen von „aufkommendem Verhalten“, bei dem die Roboterdrohne auf potenziell schädliche Weise handelt.
Bei Testflügen können Major Elder oder der Teammanager im Kontrollturm der Eglin Air Force Base die KI-Plattform abschalten, während der grundlegende Autopilot der Valkyrie weiterläuft. Das gilt auch für Kapitän Abraham Eaton aus Gorham, Maine, der bei dem Projekt als Flugtestingenieur fungiert und die Aufgabe hat, bei der Bewertung der Leistung der Drohne mitzuhelfen.
„Wie bewertet man einen Agenten der künstlichen Intelligenz?“ fragte er rhetorisch. „Bewerten Sie es auf einer menschlichen Skala? Wahrscheinlich nicht, oder?“
Echte Gegner werden wahrscheinlich versuchen, die künstliche Intelligenz zu täuschen, indem sie beispielsweise eine virtuelle Tarnung für feindliche Flugzeuge oder Ziele erstellen, um den Roboter glauben zu lassen, dass er etwas anderes sieht.
Die ursprüngliche Version der KI-Software ist „deterministischer“, was bedeutet, dass sie weitgehend den Skripten folgt, mit denen sie trainiert wurde, basierend auf Computersimulationen, die die Luftwaffe beim Aufbau des Systems millionenfach ausgeführt hat. Letztendlich muss die KI-Software in der Lage sein, die Welt um sie herum wahrzunehmen – und lernen, diese Art von Tricks zu verstehen und zu überwinden, Fähigkeiten, die eine umfangreiche Datenerfassung erfordern, um die Algorithmen zu trainieren. Die Software muss stark vor Hackerangriffen durch einen Feind geschützt werden.
Der schwierigste Teil dieser Aufgabe, sagte Major Elder und andere Piloten, ist der entscheidende Vertrauensaufbau, der ein so zentrales Element der Bindung zwischen Pilot und Wingman ist – ihr Leben hängt voneinander ab und davon, wie jeder von ihnen reagiert. Auch im Pentagon gibt es Anlass zur Sorge.
„Ich muss wissen, dass diese CCAs tun werden, was ich von ihnen erwarte, denn wenn sie es nicht tun, könnte es schlecht für mich enden“, sagte General White.
In ersten Tests haben die autonomen Drohnen bereits gezeigt, dass sie sich auf ungewöhnliche Weise verhalten, wobei die Walküre in einem Fall eine Reihe von Rollen ausführte. Zuerst dachte Major Elder, dass etwas nicht stimmte, aber es stellte sich heraus, dass die Software festgestellt hatte, dass ihre Infrarotsensoren ein klareres Bild liefern könnten, wenn sie kontinuierliche Drehungen durchführte. Für einen menschlichen Piloten wäre das Manöver wie eine Achterbahnfahrt gewesen, bei der sich der Magen umdrehen würde, aber das Team kam später zu dem Schluss, dass die Drohne bei der Mission ein besseres Ergebnis erzielt hatte.
Air-Force-Piloten haben Erfahrung damit, Computerautomatisierungen zu vertrauen – etwa den Kollisionsvermeidungssystemen, die eingreifen, wenn ein Kampfjet in den Boden stürzt oder mit einem anderen Flugzeug kollidieren soll – zwei der häufigsten Todesursachen unter Piloten.
Die Piloten zögerten zunächst, mit aktiviertem System in die Luft zu gehen, da es Computern ermöglichen würde, die Kontrolle über die Flugzeuge zu übernehmen, sagten mehrere Piloten in Interviews. Als sich die Beweise dafür verdichteten, dass das System Leben rettete, fand es breite Zustimmung. Aber zu lernen, Roboter-Kampfdrohnen zu vertrauen, wird eine noch größere Hürde sein, räumten hochrangige Beamte der Luftwaffe ein.
Beamte der Luftwaffe verwendeten das Wort „Vertrauen“ Dutzende Male in einer Reihe von Interviews über die Herausforderungen, denen sie bei der Schaffung von Akzeptanz bei Piloten gegenüberstehen. Sie haben bereits damit begonnen, die Prototypen der Roboterdrohnen mit Testpiloten in der Nähe zu fliegen, damit sie diesen Prozess in Gang bringen können.
Die Luftwaffe hat außerdem ein zweites Testprogramm namens Project Venom gestartet, bei dem Piloten in sechs F-16-Kampfflugzeuge eingesetzt werden, die mit Software für künstliche Intelligenz ausgestattet sind, die wichtige Missionsentscheidungen treffen wird.
Das Ziel, sagten Beamte des Pentagons, sei eine unberechenbarere und tödlichere Luftwaffe, die eine größere Abschreckung für alle Schritte Chinas und einen weniger tödlichen Kampf, zumindest für die US-Luftwaffe, schaffen würde.
Beamte schätzen, dass es fünf bis zehn Jahre dauern könnte, ein funktionierendes KI-basiertes System für den Luftkampf zu entwickeln. Die Kommandeure der Luftwaffe drängen darauf, die Bemühungen zu beschleunigen – sind sich jedoch bewusst, dass Geschwindigkeit nicht das einzige Ziel sein kann.
„Wir werden nicht sofort dort sein, aber wir werden dort ankommen“, sagte General Jobe. „Es ist fortschrittlich und wird jeden Tag besser, wenn man diese Algorithmen weiter trainiert.“
Eric Lipton ist ein in Washington ansässiger investigativer Reporter. Als dreimaliger Gewinner des Pulitzer-Preises arbeitete er zuvor für die Washington Post und den Hartford Courant. Mehr über Eric Lipton
Werbung