2026年4月26日 星期日

Project Maven: A Marine Colonel, His Team, and the Dawn of AI Warfare

 

Project Maven: A Marine Colonel, His Team, and the Dawn of AI Warfare(Katrina Manson)

                          打破一下習慣,今年要增讀一點當季的英文書,偶爾跳脫對譯本依賴.主要不想受制於國內出版者的選書意識,另現今AI輔助方便,有利直接讀外文.2026年第一季裡,我目前選了幾本,分別是與AI有關的"Project Maven",一起發生在倫敦的死亡事件引發對金融事件陰暗面探討的"London Falling",有關市場與博弈歷史的"Lucky Devils",還有涉及經濟及複雜系統的"Planet Money",當然這些將是隨性與隨機性的穿插閱讀,不會連續看下來.

                          Project Maven原是美國國防部的一個專案計畫,計畫將AI引入現代戰爭.Project Maven的最初推動者是海軍陸戰隊上校情報官 Drew Cukor,他在參與伊拉克與阿富汗戰爭時感受到美軍傳統情資在當地運作判讀的慢速,低效,於是透過引進"演算法",希望能藉由軟體自動辨識無人機拍攝影像中的目標,來提高戰場情資判讀的效率與作用,這便是Project Maven.

                         同名"Project Maven"則是一本剛出版的原文新書.就是透過介紹這段引入演算法的專案歷史,講述AI如何從單一目標擴大成為美國國防部全面性武器化AI思維的實踐過程.書中詳述了軍方如何與 Google,Palantir,Anduril 等矽谷科技公司合作,揭開了美國國防部內部官僚體系的衝突及開發AI武器過程中的道德爭議.作者Manson藉由對數百名內部人士的訪談,探討了 AI 如何縮短"擊殺鏈"並改變全球武力平衡,這本書描繪了演算法戰爭時代的降臨,以及人類將生死決策權交予機器的深遠影響.

                        Cukor 領導在2017年啟動的Project Maven,正式名稱為 "Algorithmic Warfare Cross Functional Team"(演算法戰爭跨功能小組).這是美國將AI置於戰爭核心的首個重大嘗試,Palantir執行長Alex Karp曾公開稱Cukor是這項領域的奠基者.雖然計畫表面上的目標是利用電腦視覺分類數千小時的無人機影像,但Cukor及支持者的真實意圖始終是利用 AI 來作為戰場輔助工具,專用AI作為攻擊武器鎖定人與物體,也就是俗稱的"目標定位",Cukor希望藉著這項工具能縮短從"發現"(find)敵人,'鎖定"(Fix)目標,到"完成打擊"(Finish)的完整"擊殺鏈"(kill chain),最終目標是完成上述"擊殺鏈"的全程自動化,也就是不久的未來,美國人將從武器操作的角色中完全退出,所有的武器將會是全程由演算法操作.

                          Project Maven是美國國防部於2017年啟動的一項計劃,目標在加速機器學習,資料整合在美國軍事情報工作流程中的應用,特別是在情報,監視,目標獲取,偵察以及地理空間情報領域,計劃最初專注在應用電腦視覺技術處理圖像和視訊以用於情報目的,但是發展到現在,這項計劃已經擴大範圍,且NGA( The National Geospatial-Intelligence Agency,國家地理空間情報局)負責.這項擴大範圍的計劃涵蓋了國防部多個應用領域,包括軍事行動目標支援,面向分析人員的資料整合和視覺化,以及利用標記的軍事資產和基礎設施資料集訓練機器學習,計畫整合來自無人機,衛星和其他感測器的數據,以標記潛在目標,最後將分析結果呈現給分析人員,並將他們的決策傳遞給作戰系統.在Cukor領導下開發的 Maven Smart System (MSS),如今已部署在美國所有軍種,並在突襲ISIS(伊斯蘭國)領袖巴格達迪(al-Baghdadi)以及烏克蘭戰爭,以色列屠殺加薩阿拉伯人,美以兩國攻擊伊朗等重大軍事行動中,被用來加速目標的識別與打擊.可以說Cukor一手催生了現代 AI 輔助戰爭的運作模式.

                        在MSS建構前,美軍面臨著無人機傳回的數千小時影像無法及時處理的難題,被稱為有情資卻沒有情報,因為單靠人眼辨識,很難在影像圖形中分清一個小點是人,是物,是男是女,或是小孩,或是汽車型號,更別說具體的標的物.利用電腦視覺(Computer Vision)模型自動分類無人機傳回的全動態影像(full motion video,FMV),讓演算法來自動識別分類物體,如人,車輛,建築物,並在螢幕上以"白點"或"方框"標註.利用AI處理由偵察機上的Gorgon Stare等複雜感測器的數據,讓系統能同時監控整座城市,並透過"回溯"(backtracking)功能追蹤特定目標的歷史路徑,能發現人類分析師可能遺漏的模式,這種方法通稱廣域動態影像(WAMI),是一種監視,偵察和情報收集方法,它利用專用軟體和強大的攝影系統,通常是機載並且持續作業,來探測和追蹤在城市大小,直徑數公里範圍內的開闊區域內移動的數百名人員和車輛.MSS 能整合超過150種數據來源,包括無人機,衛星影像,通訊截聽(SIGINT)以及社交媒體,如 TikTok的標籤資訊,當 AI 偵測與通訊訊號出現在同一地點時,系統會標註為高價值目標,因此這個系統能顯著加快確認速度.而在 Palantir等國防承包商 開發的介面中,操作員可以直接在目標工作台進行目標驗證,優先級排序,並自動獲取準確的地理座標.AI 的介入讓美軍的"擊殺鏈"從'感知目標"到"發動攻擊"的時間從數小時縮短至數分鐘,例如在烏克蘭戰場中,美軍將 AI 偵測到的可疑座標透過'戰術數據鏈路"直接傳送到武器系統上,同時根據NGA官員透露,利用電腦視覺技術,美軍每日能打擊的目標從不足100個提升至1000個以上,而在加入AI大型語言模型(LLMs)輔助後,每日處理目標量更提升超過5000個.實戰中的烏克蘭戰場,美軍透過MSS為烏克蘭提供"興趣點"(points of interest),協助烏軍HIMARS部隊精確打擊俄羅斯的彈藥庫,燃料庫和指挥中心,傳遞了數以萬計的目標資訊.在反恐行動中,不論是在突襲ISIS伊斯蘭國領袖巴格達迪(al-Baghdadi)或是狙殺伊朗聖城旅指揮官蘇萊曼尼(Qassem Soleimani)的行動中,AI 技術都被美軍用於追蹤目標車輛,提供即時的態勢感知.在 2021年喀布爾撤軍期間,美軍高層包括國防部長與參謀長聯席會議主席利用MSS即時監控機場人流,物流與潛在威脅.都是MSS利用的實例.MSS本來僅是由Cukor管理的特別專案, 在2023年11 月轉為由國家地理空間情報局(NGA)管理的"正式計畫",從此獲得美國國會長期的專門編制預算支持,北約已於2025年春季開始採用MSS,並有超過 10 個成員國表示有意跟進採用,使它成為西方主要的AI軍事作業系統.

                      Cukor在阿富汗服役期間,深感美軍雖有強大火力,超越敵方的無人機,衛星,卻竟然只能用 Office這類落後軟體手動處理情資,以人眼判別影像資料,除了錯誤率高外,速度完全跟不上變化迅速的戰場.2010年好友之子陣亡,成為他決心用 AI 銜接情報與作戰的動力,2017 年Project Maven計畫啟動時,目標僅僅是一個單純的電腦視覺影像判讀項目,目的在利用演算法自動篩選數千小時的無人機全動態影像,標註出車輛,建築物和人員.早期參與的科技公司包括 Google,Clarifai,IDenTV,Pilot AI與 Xnor.關鍵的轉折出現在2018年,Google決定退出Project Maven,理由是一個極端嚴肅,直到現在都會被列為考量的重要因素,就是Google參與的員工突然發現,他們設計的軟體可能"涉及殺害人命"這種行動,儘管他們不是直接執行者,卻提供殺人者資訊與素材,2018 年Google 員工抗議導致合約終止,Cukor 轉向 尋求Microsoft研發算法,並由 AWS(Amazon Web Service)提供國防雲端基礎設施.為了讓 AI 變的可操作,Cukor引進國防協力商Palantir共同開發MSS與"目標開發工作台"(Target Workbench),這能將單純的影像識別轉化為一個數位決策平台,整合了超過150種數據源.

                      雖然這個系統被美軍首次運用在索馬利亞遭遇慘敗,因為AI將雲朵誤判為校車,但後來在阿富汗與突襲巴格達迪行動中證明了AI追蹤目標的速度優於人類,於是提高了使用信心的美自2020年起展開AI全領域擴張,從無人機影像到全域戰鬥,Project Maven開始跳脫影像識別,將觸角伸向其他軍種與維度.從空中走入海洋與水下的Harbinger計畫是Project Maven的分支,它應用 AI 處理聲納數據,協助Virginia級核潛艦偵測敵方潛艇,並透過AUKUS協議與英,澳分享數據.而在太空衛星影像與時空分析上,計畫擴展到分析 Maxar等商業與軍用衛星影像,開發Broad Area Search for Targeting 能在幾秒鐘內搜索數千平方公里的地面目標.陸軍第18空降旅在"Scarlet Dragron"演習中,首度實現由AI識別目標後,自動將座標傳送到 HIMARS(海馬斯)火箭炮系統擊毀目標,完成初次"擊殺鏈"全自動化,完整的AI武器化可以說現實可行,而這套自主AI武器可能於2026年底在美日聯合軍事指揮演習"Yama Sakura"上首次在遠東地區登場.而與我國有關的是Project Maven中開發的"自動目標識別"演算法(Automatic target recognition)現已加載到"複製者"(Project Replicator)的自主無人機中,包括 Goalkeeper(自殺無人機)與 Whiplash(自動武裝滑水艇,其實就是自殺水上摩托車),這些新的小型武器設備都是因應未來若通訊遭敵方干擾截斷,訊號消失下的AI自主化武器,也是美軍前印太司令部司令Samuel Paparo所構思的"Hellscape"(地獄景觀)防禦戰略中的核心,他極力推薦台灣建構,美軍已多次向台灣軍方簡報如何利用Maven進行 AI目標定位,旨在利用 AI 的超人速度建立無數的神風自殺機,神風摩托艇.可以說Project Maven從一個影像識別工具,透過 Palantir的平台整合,演變為一套全球戰爭大腦.它串聯了Nvidia的運算,Microsoft的算法,AWS的雲端,Scale AI的數據標記,以及 HIMARS,潛艦,自主無人機等武裝裝備.它在中東發現敵人,在烏克蘭摧毀補給,在太平洋監控動態,最終目標是將"擊殺鏈"縮短到幾分鐘甚至幾秒鐘,將戰爭推向機器對抗機器的自動化未來.

                        這本書講述了許多關於以上所述設備,軟體,系統,武器開發的過程,與相關人物,也就是美國AI武器化的簡史,書裡頭有好多位華裔,台裔人士的涉及AI服務與設備的美國軍方協力商的內容,有興趣者可以自行參考,如Scale AI 的 Alexandr Wang,Shield AI 的 Brandon Tseng(曾國光),Pilot AI的Jonathan Su,這場軍事革命背後,有一群極其年輕的華裔技術精英,他們代表了矽谷的一種新趨勢:不再避諱戰爭,而是將複雜的演算法壓縮到極致,讓 AI 即使在斷網的極端環境下,依然具備獵殺決策能力. 但是這本書的另一個重心,我以為可以說是整本書真正的重心,其實是探討另一件事情,那就是攸關AI武器化涉及的倫理與道德問題.書籍零星分布分別從幾個受眾來探索這個議題,只是並沒有清晰的標註為項目.

                        關於讓AI武器化會面臨道德與倫理問題的人,首推當然是科技人員,因為軍人殺人就是職業,不太可能先有感知這個議題的能力.對Cukor來說,開槍殺人,還是講一句話讓AI進入"擊殺鏈"並無太大差異.矽谷科技公司與五角大廈在合作開發演算法戰爭技術時,面臨了深刻多維度的文化衝突.這些衝突不僅體現在工作流程上,更涉及道德準則,生活方式以及對戰爭本質的看法.演算法本來只是被用來從圖中,或影片中標示特定物件的,從技術來說算法挑中誰是中立的,但是被算法挑中的人,後面可能就要面臨GPS武器的攻擊,這下算法還能是中立無辜的嗎?它算殺人武器上的一個環節嗎?.如果軍方跟算法科學家說你的算法我打算用在街頭搜尋兇嫌,罪犯,但實際上卻是拿去標定他國政要或者武裝要員殺之,這種情形下,算法提供者也算是同謀嗎?矽谷許多研發人員認為技術應造福人類,Google的座右銘是"不作惡"(Don't be evil),因此當員工發現自己的電腦視覺技術被用於"戰爭業務"以輔助無人機追蹤目標時,引發了巨大的道德恐慌,頂尖 AI 研究人員如Joe Redmon對自己的成果被用於殺人感到恐懼,他曾表示看到他的算法被用於識別戰場影像讓他感到驚恐,並因此決定放棄電腦視覺研究,矽谷內部部分人士存在"AI 終將毀滅人類"的擔憂,這與軍方希望利用 AI 取得競爭優勢,甚至是自動化打擊目標的初衷背道而馳.其次,即使AI存在許多技術問題,這會間接導致人命傷亡,在軟體界,AI模型出錯可能只是誤判一張照片,但在戰場上,AI 的"幻覺"或誤判,比如將雲朵標註為校車,或無法區分平民與戰鬥人員,可能導致無辜平民死亡或發生誤擊友軍的慘劇,即使不使用全自動擊殺鏈,科技人員仍可能因為算法幻覺導致無關的平民喪命而自責.

                       Google 員工在 2018 年對Project Maven發起大規模抗議,主要原因是他們認為 Google 不應參與戰爭業務.研發人員恐懼其技術被用於殺人,例如工程師 Laura Nolan 擔心她開發的程式碼會直接導致無辜的人被導彈炸死.有的工程師早就對無意中研發協助"殺手機器人"有自我警戒,他們知道利用 AI 自動識別物體會演變成自動選擇打擊目標是可行的,最終恐怕就是促成*全自動自主武器,也就是殺手機器人的誕生.倫理專家Meredith Whittaker指出當AI系統被設定存在某種偏見與種族歧視等問題時,將這樣的演算法引入戰場是非常危險的,加上員工對於管理層試圖隱瞞合約細節感到憤怒,根據洩露的郵件,Google Cloud 領導層曾指示要"不惜一切代價避免提及 AI,以免造成媒體對武器化 AI的負面聯想",這讓員工感到受到欺騙,而部分員工認為這項計畫是讓大型科技公司與全球最致命軍事組織掛鉤的開端,會產生錯誤的激勵機制並對社會造成威脅.這場抗議最終迫使 Google決定不續簽Project Maven的合約,並促使公司發布了一套新的 AI 準則,承諾不設計或部署會直接造成人身傷害的 AI 技術.

                       第二類讓AI武器化會感知到道德與倫理問題就是軍方現場的戰鬥人員.前面提過AI會有錯誤,甚至到目前為止都有不可解決的"幻覺"問題,將這種不成熟的技術運用在戰場,必然會出錯.一個最大與此有關的問題是軍方在系統尚未完善或可靠之前就將AI部署到"熱戰區"(hot wars),進行美其名為"邊實戰邊學習"(field to learn)策略,這也是Cukor上校最受人爭議的決定之一.這種高風險做法主要面臨以下幾方面的風險.第一個生命代價與誤擊風險,戰場並非實驗室,設備故障或算法錯誤可能直接導致死亡,AI其實無法準確區分戰鬥人員與平民,若AI發生誤判,如將平民誤認為目標l可能導致無辜平民死亡,在戰場壓力下.,錯誤的 AI 提示可能引發人類操作員的"確認偏誤",導致誤擊友軍.第二是技術故障與系統癱瘓風險.未經充分測試的系統在極端環境下極其脆弱,比如在索馬利亞的首次部署中,Maven 團隊曾因發送過多數據包導致整個特種作戰網路癱瘓45分鐘,導致實戰的作業失敗.早期開發中曾因未聽取建議,導致昂貴的GPU晶片在密閉空間內過熱,直接燒毀價值數百萬美元的伺服器盒.第三個是算法失靈與環境適應性風險.AI 模型往往在特定數據上訓練,一旦環境改變,準確率會大幅下降,比如在烏克蘭戰爭初期,使用原本在中東沙漠環境訓練的模型時,準確率從70%驟降至 10%.第四則是使用者信任風險.如果AI 在初期部署時表現太差,會讓前線戰士失去信心,由於早期算法框選了太多錯誤目標,干擾了視覺掃描,特種部隊成員曾一度決定關閉 AI,認為它讓情況變得更糟.一旦系統在實戰中出錯導致醜聞,可能引發國會撤資或軍方內部的禁令,進而扼殺整項技術的發展.第五個風險是法律與道德責任的模糊.當AI 參與目標定位並導致錯誤擊殺時,責任歸屬變得困難,"誰該負責?當 AI 進行瞄準,射擊,而導彈擊中了載有家庭的麵包車時,誰該負責這個錯誤?",而且採用AI武器會形成一種戰爭遊戲化的感受,類似遊戲主機的顯示介面可能誘使士兵產生"遊戲倫理",降低對奪取生命的道德感.從而採取不合理的冒險行為.最後一種倫理風險來自自動化偏誤(Automation Bias).人類傾向於信任機器的輸出,在高度緊張的實戰環境中,士兵可能不加思索地按下"接受"按鈕,將 AI 的結論視為正確,從而放大了機器本身的缺陷,也放棄了人類特有的倫理道德屬性.

                         Cukor在推動Project Maven時也展現出極其高明的手段來應對矽谷工程師對軍事任務的道德抵制.他主要透過人道主義敘事,技術去敏感化以及訴諸大國競爭等多重策略,來軟化科技界的反對立場.Cukor 擅長將致命的軍事技術包裝成"救人"的工具,例如在說服Clarifai創辦人Matt Zeiler時.他講述了一個關於 AI 預防士兵在非洲河邊因驚慌而誤殺動物的故事,以此強調 AI 可以減少壓力並拯救生命.他也常向科技高層分享美國將領John Kelly之子陣亡的故事.將 AI 描繪成能辨識平民,預防悲劇的必要手段.為了讓沒有安全審查權限的工程師工作,Cukor 獲得特別許可,將機密的無人機影像進行"清洗"與"脫敏"處理**,這包括剪掉所有涉及打擊,血腥畫面或具體戰場坐標的片段,僅保留車輛或人的物體影像,讓工程師覺得自己只是在做一般的物體辨識訓練.雖然 Cukor 的核心目標一直是"目標標定"(Targeting),但在與科技公司溝通時,他會刻意避免提及"打擊"(Strike)或"殺傷"(Kill)等詞彙.在 Google 爭議期間,他甚至在內部通訊中指示部屬不能將計畫與打擊目標掛鉤,以免進一步激發研發人員的恐慌.而當面對道德質疑時,Cukor 也會適時將問題上升到國家生存層次,他主張如果美國工程師不開發這項技術,"中國將會超越美國",這會導致未來的美國士兵在戰場上白白犧牲,將AI武器的必需性描述為一場"生存性"的軍備競賽,成功讓部分技術人員產生責任感.在 Google 員工發起大規模抗議並導致公司退出後,Cukor 採取了"非正式禁言令",讓計畫轉入地下.他成功為計畫申請了"國家安全豁免權",使計畫免因為"資訊自由法"(FOIA)必須受到媒體的關注審查,藉此切斷公眾與媒體對技術侷限性或道德爭議的追蹤路徑.當 Google 因為道德壓力退出後,Cukor 並未妥協,而是迅速轉向那些道德包袱較輕或更有意願合作的公司,並告知他們這是一個展現愛國心的機會,同時也是進入利潤豐厚的國防雲端市場的門票.總結來說,Cukor 並未直接挑戰工程師的價值觀,而是透過精確的資訊控制與情緒敘事,將參與戰爭業務轉化為一項"技術救人"與"保衛西方價值"的高尚任務. 

                      第三個感受到AI武器化威脅與道德倫理問題的,便是美國以外其他的國際社會成員,畢竟除了大國外,其他國家既無能力也無資金從事這個面向的研究.本書的後半部探討了演算法戰爭在全球外交,技術開發風險以及個人道德後果方面的最終反響.這部分開始敘事的核心放在於演算法戰爭引發的全球外交博弈與道德防線的崩潰,內容描述了 2025 年聯合國大會針對"殺手機器人"的辯論,各國對於AI被"有意義的人類控制"定義分歧,因此試圖在聯合國建立規則,但因為技術已跑在法律前面,美國為了大國競賽拒絕妥協,其他國家即使透過聯合國也不可能阻止自動化擊殺鏈武器生成,而為了兌現政治承諾,美軍加速部署未完善的自主技術,導致加州測試事故,並揭露了秘密量產的殺手機器人,更證明"自動化殺戮"已成既定事實.另一個事實是,僅管聯合國的許多成員反對AI在戰術武器上的發展,卻認為戰略考量上運用AI有助世界和平,顯然對這種技術認識是充滿矛盾心理的.

                     不過,AI武器化技術的創始人雖然達成了技術目標,卻在心理上付出了巨大代價,被迫面對自己創造的"死亡數據庫"曾經創造的暴行,可以說AI 已經永久改變了戰爭,但人類是否能成為好的監護者,連它的創造者都沒有答案,對他們而言,AI武器化彷彿150多年的溫徹斯特槍的出現,改變了戰爭樣貌.但是透過 Cukor 妻子的視角將 AI 戰爭與著名的 Sarah Winchester 宅邸對比,Sarah 擔心被自家生產的步槍殺害的亡靈詛咒而瘋狂築牆,透過Cukor妻子的敘述反映了創始人 Cukor 在退伍後飽受創傷後壓力症候群(PTSD)與噩夢困擾,並對 AI 在加薩等地造成的"數據驅動的死亡"感到不安,這應該是本書中AI武器創始者所表現的最大道德與心理負疚,它既是主角事後的真意表現,其實也是本書作者Manson在本書中想表現她對AI武器化的主要核心感受.曾經身為 AI 武器教父的 Cukor,也在退伍後被PTSD與"數據驅動的死亡"所困擾,這是一個巨大的諷刺,人類發明了能夠讓殺戮變得輕鬆的技術,卻發現自己並沒有成為更好,更強大的監護者,反而成為了被自己創造物囚禁的靈魂.

                     從全書較高的視角來看,我以為Manson 對AI武器化持有一種高度警戒且批判性的現實主義態度.作者在文本中不斷透過實例,如索馬利亞的雲朵,烏克蘭的雪地,加薩的誤判,挑戰美國軍方宣稱AI能"減少平民傷亡"的說法,她認為AI 的"機率性"本質與戰爭的"不可預測性"結合,往往會放大錯誤而非消除錯誤.同時作者深刻捕捉到當戰場簡化成螢幕上的白點和方框時,士兵容易產生"遊戲倫理",降低對奪取生命的道德感.她對"接受,接受,接受"這種快速點擊的操作流程感到恐懼,認為這削弱了人類的責任感.文本敘述中將Cukor 描繪成一名"官僚忍者",揭示了他為了保住計畫而採取的各種不透明手段,比如申請國安豁免以避開 FOIA,正好驗證她擔心一個"不受監督的科技軍事複合體"正在形成,且數據被鎖定在特定私營公司,如 Palantir手中.不過作者並不全然否定AI 武器化的戰略價值,她詳實記錄了美軍在烏克蘭利用 AI 扭轉補給線劣勢的成功,承認在"大國競賽"的邏輯下,如果一方放棄 AI,可能會像李世石對抗 AlphaGo 一樣遭遇毀滅性失敗,但最終作者還是回歸人文訴求,透過"溫徹斯特宅邸"的隱喻,定調了她對 AI 武器化的終極看法:"一場技術上的勝利,卻可能是道德上的詛咒",她最後借創始人Cukor之口提出了全書的質問:"我們擁有所有的技術,但我們是它最好的監護者嗎?" .

                           另外一個作者試圖在本書呈現的是美國官方對於AI武器化明確又閃躲的政策.在暗面,他們確實已經完成自動化"擊殺鏈"的過程,但是,在明面,卻幾乎不曾承認這一點,而且不斷的以減少傷亡的論點來強調武器化的重要度.多位軍方高層,技術推動者及合作廠商的代表都曾公開或私下表示,他們所開發的 AI 技術並非為了創造"自動殺人機器",而是為了提高打擊精確度,減少人為錯誤,並最終拯救平民與士兵的生命.Cukor 上校多次表示發起該計畫的初衷之一是希望"遏止不斷發生的錯誤",這些錯誤導致美軍意外殺死平民,盟友甚至友軍.Google的雲端負責人Aileen Black堅信Project Maven是關於拯救所有無辜的生命,而不僅僅是美國人的生命.Clarifai創辦人兼執行長Matt Zeiler認為許多軍事任務可以透過 AI 自動化,這"實際上會拯救生命,而不是傷害生命".美國前國防部副部長認為 AI 與自動化技術能減少美軍部隊面臨危險的人數,並"提高戰爭中決策的質量與速度",中將Jack Shanahan主張AI 將帶來"情境感知能力的巨大提升",助於減輕人為錯誤的機會.前特戰部隊成員Wes Bryant則從技術角度提出了另一種看法,他認為 AI 在戰場上的最佳功能可能不是引入"確定性",而是"引入懷疑",從而促使指揮官思考,進而避免誤擊.至於川普政府在2025年提交給聯合國關於軍事領域 AI 的報告中,將 AI武器自動化解釋為"自動化目標定位是一種人道主義利益,因為它能增加精確度並減少戰爭中附帶的有害影響",因此美國官方立場普遍就是認為 AI 能幫助人員在戰爭中做出更好,更快的決定.而作者對此提出質疑,採用的是傑文斯悖論(Jevons Paradox),這種理論說明了效率與傷亡量間的悖論,當正確效率提高,例如更精準的尋找目標的技術,往往最終會導致消費使用量的增加.比如Maven讓美軍每日能打擊的目標量從不足 100 個激增至 5,000 個,雖然支持者認為精確性能減少平民傷亡,但這種規模化的"殺戮效率"反而可能導致傷亡總量的增加,而非減少,而這是一個簡單卻頗值得深思的說法.

                        在"Project Maven"的後段作者也詳細描述了美軍如何利用AI技術協助烏克蘭火砲精準打擊目標的過程,以及這套模式未來應用於台灣的考量.負責指揮的 Donahue 將軍在2022年底向五角大廈的高層將領簡報時指出,在烏克蘭的成功經驗證明美軍已更擅長使用 AI工具,同時明確主張"我們可以為台灣這麼做".美軍認為如果烏克蘭可以透過各種安全方案直接與火力平台連結,那麼台灣也可以採取相同的模式.但在技術轉移與實際實施上,面臨幾項重大挑戰.首先是"海上環境導致的導航技術難題".與烏克蘭的陸地戰場相比,台灣海峽的海面環境對自主無人機的定位構成了極高難度,地理上缺乏固定參考點,台灣海峽雲層覆蓋率高,會干擾依賴星光的導航系統.其次是軟硬體整合與技術將受不同的物理環境影響.即便是簡單的物理問題也可能導致 AI 失效,例如"海浪噴濺"(ocean spray)若濺到攝影機鏡頭上,就可能污染數據源並中斷目標追蹤功能.第三個移植障礙在於缺乏情資與數據.美國政府仍難以決定如何將其手中掌握的高品質"解放軍船隻與武器平台"標記影像數據及模型,分享給商業 AI 公司或盟友使用,目前尚無法有效將建立在極機密感測器上的監視系統,與不具備機密權限的商業演算法完美統整.最後是工業產能與訓練不足.美國目前的無人機產能遠遜於中國,每一架美國商用無人機對應的是中國生產的一百多架,這限制了構建"地獄景觀"(Hellscape)所需的數千架"消耗型"自主系統的規模.目前美軍雖投入大量資金研發技術,但在如何操作這些系統,何時會出錯以及出錯後的標準作業程序(Doctrine)方面,仍缺乏完整的培訓.總之,美軍認為要將這套技術轉移給台灣,不僅僅是軟體拷貝的問題,還必須克服複雜的海上導航,脆弱的軟硬體整合,以及數據共享的體制障礙.

                         在 Paparo的"地獄景象"(Hellscape)中,主角不再是昂貴的航空母艦,而是如 Goalkeeper 的群集自殺無人機,以及 Whiplash由廉價民用水上摩托車改造而成的自主武裝艇.這些武器的核心精神是"可耗損性"(Dispensable),目的是在通訊遭干擾下,由 AI 自行決定殺誰.這標誌著戰爭性質的轉變,從人類指揮戰爭,變成人類布置一個自動化的死亡迷宮.然後交由演算法接手,至於本地人要不要接受美軍描繪的"地獄景象",去構建這種戰術部署,那是另個議題,不在此延伸論述,只能說當前美軍協助的能力也僅能如此.如果我們從單從閱讀的角度來看這本"Project Maven",它論述範圍與內容應該是頗值得一看的.只是基於在下對於原文的理解有限,即使有AI輔助,大概也只能讀到以上本篇所寫的程度而已.以上.


沒有留言:

張貼留言

注意:只有此網誌的成員可以留言。

上個月的網頁瀏覽數次數