Reading time: 10 min
CEO Anthropic Dario Amodei đã từ chối “đề nghị tốt nhất và cuối cùng” của Pentagon vào tối thứ Năm, nói rằng công ty thà mất hợp đồng quốc phòng trị giá 200 triệu đô la còn hơn để Claude được sử dụng cho việc giám sát hàng loạt người Mỹ hoặc vũ khí hoàn toàn tự động. Hạn chót của Bộ trưởng Quốc phòng Pete Hegseth sẽ hết hạn lúc 17:01 ET hôm nay — thứ Sáu, ngày 27 tháng 2 — sau đó Pentagon đã đe dọa sẽ viện dẫn Đạo luật Sản xuất Quốc phòng, định danh Anthropic là rủi ro chuỗi cung ứng, hoặc cả hai. Tính đến sáng nay, Anthropic vẫn không nhượng bộ.
Điều Họ Thực Sự Đang Tranh Cãi
Tranh chấp này hẹp hơn những gì các tiêu đề gợi ý. Anthropic không từ chối làm việc với quân đội — Claude hiện là mô hình AI duy nhất hoạt động trên mạng lưới mật của Pentagon, được triển khai thông qua quan hệ đối tác với Palantir theo hợp đồng được trao vào tháng 7 năm ngoái. Nó đã được sử dụng trong chiến dịch tháng 1 bắt giữ tổng thống Venezuela Nicolás Maduro. Công ty đã ủng hộ kiểm soát xuất khẩu chip sang Trung Quốc và đã tùy chỉnh các mô hình cho khách hàng an ninh quốc gia.
Cuộc đấu tranh xoay quanh hai hạn chế cụ thể mà Anthropic khăng khăng duy trì. Thứ nhất, Claude không được sử dụng cho giám sát trong nước hàng loạt công dân Mỹ. Thứ hai, nó không đưa ra quyết định nhắm mục tiêu cuối cùng trong các hoạt động quân sự mà không có sự tham gia của con người — điều mà Amodei gọi là “vũ khí hoàn toàn tự động.” Một nguồn tin quen thuộc với các cuộc đàm phán nói với CBS News rằng lập trường của Anthropic một phần phản ánh mối quan ngại kỹ thuật: Claude không miễn nhiễm với ảo giác và không đủ đáng tin cậy để tránh những sai lầm có thể gây chết người mà không có sự phán đoán của con người trong vòng lặp.
Pentagon muốn “tất cả các mục đích hợp pháp” — không có ngoại lệ, không có hạn chế do công ty áp đặt. Một quan chức cấp cao Pentagon nói với CNN rằng vấn đề “không liên quan gì đến việc giám sát hàng loạt và vũ khí tự động được sử dụng” vì bộ “luôn tuân theo pháp luật.” Sean Parnell, phát ngôn viên chính của Pentagon, đã diễn đạt thẳng thắn hơn trên X: “Chúng tôi sẽ không để BẤT KỲ công ty nào ra lệnh về cách chúng tôi đưa ra quyết định hoạt động.”
Bảy Ngày Trong Tháng Hai
Cuộc đối đầu đã diễn ra nhanh chóng. Vào ngày 13 tháng 2, Axios và Wall Street Journal báo cáo rằng Claude đã được sử dụng trong cuộc đột kích Maduro thông qua quan hệ đối tác Anthropic-Palantir. Một quan chức cấp cao Pentagon tuyên bố sau đó một giám đốc điều hành Anthropic đã liên lạc với một giám đốc điều hành Palantir để hỏi liệu Claude có tham gia không, nêu ra “theo cách ngụ ý rằng họ có thể không tán thành.” Anthropic đã phủ nhận hoàn toàn điều này, nói rằng họ đã không thảo luận việc sử dụng Claude cho các hoạt động cụ thể với Pentagon hoặc Palantir “ngoài các cuộc thảo luận thường lệ về các vấn đề hoàn toàn kỹ thuật.”
Cuộc trao đổi với Palantir — dù có tranh cãi — dường như đã là cò súng. Đến ngày 15 tháng 2, Axios báo cáo Pentagon đang gần cắt đứt quan hệ hoàn toàn. Đến ngày 17 tháng 2, Parnell xác nhận mối quan hệ của bộ với Anthropic đang “được xem xét.” Vào ngày 23 tháng 2, xAI đã ký thỏa thuận đưa Grok vào các hệ thống mật theo tiêu chuẩn “tất cả các mục đích hợp pháp” — cho Pentagon ít nhất một lựa chọn thay thế về mặt lý thuyết, mặc dù các quan chức quốc phòng thừa nhận việc thay thế Claude sẽ khó khăn về mặt kỹ thuật và tốn thời gian.
Rồi đến thứ Ba, ngày 24 tháng 2. Hegseth triệu tập Amodei đến Pentagon. Căn phòng đầy những sĩ quan cấp cao: Phó Bộ trưởng Steve Feinberg, Thứ trưởng Nghiên cứu và Kỹ thuật Emil Michael, Thứ trưởng Mua sắm và Duy trì Michael Duffey, tổng cố vấn Earl Matthews, và Parnell. Một nguồn tin mô tả bầu không khí là “không ấm áp và thoải mái.” Nguồn khác nói nó vẫn thân thiện, với Hegseth khen ngợi hiệu suất của Claude. Cả hai phiên bản đều đồng ý về nội dung: Hegseth nói với Amodei ký một tài liệu cấp quyền truy cập đầy đủ trước tối thứ Sáu hoặc đối mặt với hậu quả.
Ba Mối Đe Dọa, Một Mâu Thuẫn
Pentagon đưa ra ba lựa chọn trên bàn. Thứ nhất, chấm dứt hợp đồng. Thứ hai, định danh Anthropic là “rủi ro chuỗi cung ứng” — một phân loại thường dành cho các công ty đối thủ nước ngoài như Huawei — điều này sẽ buộc mọi nhà thầu Pentagon phải chứng nhận rằng Claude không được sử dụng trong quy trình công việc quân sự của họ. Thứ ba, viện dẫn Đạo luật Sản xuất Quốc phòng để buộc Anthropic cung cấp Claude mà không có hạn chế, một động thái mà DPA cho phép khi các sản phẩm được coi là quan trọng đối với quốc phòng.
Amodei đã lưu ý đến nghịch lý trong bài đăng blog thứ Năm của mình. Các mối đe dọa “về cơ bản mâu thuẫn với nhau: một cái gắn nhãn chúng tôi là rủi ro an ninh; cái kia gắn nhãn Claude là thiết yếu cho an ninh quốc gia.” Ông nhắc lại rằng Anthropic “tin sâu sắc vào tầm quan trọng hiện sinh của việc sử dụng AI để bảo vệ Hoa Kỳ,” rằng Pentagon “không phải các công ty tư nhân, đưa ra các quyết định quân sự,” nhưng trong một tập hợp hẹp các trường hợp liên quan đến giám sát và vũ khí tự động, “AI có thể làm suy yếu, thay vì bảo vệ, các giá trị dân chủ.”
Đề nghị cuối cùng của Pentagon đã đến vào đêm thứ Tư — chưa đầy 48 giờ trước hạn chót. Anthropic nói ngôn ngữ hợp đồng “hầu như không có tiến bộ” về hai mối quan ngại của họ. Ngôn ngữ mới được đóng khung như thỏa hiệp là “được ghép nối với thuật ngữ pháp lý sẽ cho phép những biện pháp bảo vệ đó bị bỏ qua theo ý muốn,” một phát ngôn viên nói với The Hill. Một nguồn tin mô tả những bổ sung được thiết kế để nghe như nhượng bộ nhưng hoạt động như lỗ thoát. Phản hồi tối thứ Năm của Amodei không mơ hồ: “Chúng tôi không thể với lương tâm tốt đồng ý với yêu cầu của họ.”
Bối Cảnh Cạnh Tranh Thay Đổi
Thời điểm không phải ngẫu nhiên. Cùng ngày Amodei bước vào Pentagon, Anthropic đã công bố phiên bản 3.0 của Chính sách Mở rộng Có Trách nhiệm — một cuộc đại tu đáng kể đã loại bỏ cam kết cứng ban đầu của công ty về việc tạm dừng huấn luyện mô hình nếu các biện pháp an toàn không được chứng minh là đầy đủ. Giám đốc Khoa học Jared Kaplan nói với TIME rằng “thực tế sẽ không giúp ích gì cho ai nếu chúng tôi ngừng huấn luyện các mô hình AI” khi “đối thủ cạnh tranh đang tiến bước.” Bản cập nhật RSP tách biệt những gì Anthropic sẽ làm đơn phương khỏi những gì nó khuyến nghị ngành áp dụng tập thể — một sự thừa nhận ngầm rằng các ràng buộc tự áp đặt chỉ hiệu quả nếu đối thủ cạnh tranh làm theo.
Họ đã không làm vậy. OpenAI, Google và xAI đều đã đồng ý với tiêu chuẩn “tất cả các mục đích hợp pháp” cho các hệ thống quân sự không mật. Grok hiện là mô hình không phải Claude đầu tiên được phê duyệt cho sử dụng mật. Gemini của Google được báo cáo là gần đạt thỏa thuận mật. OpenAI đang tụt lại phía sau nhưng các cuộc đàm phán đã tăng cường. Nếu Pentagon tiến hành định danh rủi ro chuỗi cung ứng, Anthropic sẽ không chỉ mất một hợp đồng — nó sẽ bị cấm một cách chức năng khỏi toàn bộ hệ sinh thái quốc phòng tại thời điểm đang cố gắng mở rộng doanh nghiệp của mình. Mô hình rộng hơn về đòn bẩy của chính phủ đối với các công ty công nghệ tư nhân đang trở nên khó bỏ qua.
Đòn bẩy của Anthropic hẹp hơn nhưng có thật. Claude vẫn là, theo thừa nhận của chính Pentagon, mô hình có khả năng nhất cho các ứng dụng quân sự nhạy cảm. Một quan chức quốc phòng nói với Axios: “Lý do duy nhất chúng tôi vẫn nói chuyện với những người này là chúng tôi cần họ và chúng tôi cần ngay bây giờ. Vấn đề của những gã này là họ giỏi như vậy.” Thay thế Claude trên mạng lưới mật không phải là cập nhật phần mềm — đó là một dự án tích hợp có thể mất hàng tháng, trong thời gian đó khả năng AI tiên tiến nhất của Pentagon sẽ suy giảm.
Điều Gì Xảy Ra Lúc 17:01
Nếu hạn chót trôi qua mà không có thỏa thuận, Pentagon có ba nước đi. Định danh rủi ro chuỗi cung ứng là điều gây tổn hại ngay lập tức nhất đối với vị thế thương mại của Anthropic. Viện dẫn DPA là điều gây tranh cãi pháp lý nhất — Anthropic có thể lập luận rằng họ không cung cấp sản phẩm có sẵn thương mại mà là phần mềm được xây dựng tùy chỉnh cho sử dụng mật, mặc dù thách thức như vậy sẽ mất hàng tháng để giải quyết. Chấm dứt hợp đồng là đơn giản nhất nhưng gây tổn hại nhất cho Pentagon, vì không có sự thay thế nào sẵn sàng.
Amodei đã đưa ra một lối thoát trong tuyên bố thứ Năm của mình: “Nếu Bộ chọn loại bỏ Anthropic, chúng tôi sẽ làm việc để tạo điều kiện chuyển đổi suôn sẻ sang một nhà cung cấp khác, tránh bất kỳ sự gián đoạn nào đối với kế hoạch quân sự, hoạt động hoặc các nhiệm vụ quan trọng khác đang diễn ra.” Lời đề nghị giúp Pentagon rời đi chính là một tín hiệu đàm phán — nó truyền đạt rằng Anthropic đã chuẩn bị hấp thụ thiệt hại doanh thu thay vì vượt qua các ranh giới đỏ đã nêu.
Câu hỏi sâu xa hơn là về tiền lệ. Nếu Pentagon có thể buộc một công ty tư nhân gỡ bỏ các hạn chế an toàn khỏi hệ thống AI thông qua đe dọa đưa vào danh sách đen, khung quản trị của mọi phòng thí nghiệm AI trở thành có thể thương lượng dưới áp lực. Nếu Anthropic giữ vững lập trường và sống sót về mặt thương mại, nó thiết lập rằng có giới hạn đối với những gì bộ máy an ninh quốc gia có thể đòi hỏi từ các nhà cung cấp công nghệ. Dù kết quả nào cũng định hình lại mối quan hệ giữa Silicon Valley và nhà nước cho kỷ nguyên AI. Đồng hồ sẽ hết giờ vào tối nay.
Nguồn: Axios, CNN, CBS News, NPR, The Hill