top of page
​AD

Hoa Kỳ: Lệnh Cấm Liên Bang Sử Dụng Công Nghệ Của Anthropic

Đã cập nhật: vài giây trước

Giữa cuộc đối đầu với chính phủ Hoa Kỳ, Anthropic giữ vững hai giới hạn đạo đức của AI.

Ảnh minh họa bởi NKI.
Ảnh minh họa bởi NKI.

Trong động thái được xem là cứng rắn nhất từ trước đến nay đối với một công ty AI nội địa, Tổng thống Donald Trump đã chỉ đạo toàn bộ các cơ quan liên bang ngừng sử dụng công nghệ của Anthropic, bao gồm mô hình Claude và các dịch vụ liên quan.


Chỉ thị này không chỉ áp dụng cho các cơ quan dân sự mà còn bao trùm các hệ thống đang tích hợp AI trong phân tích dữ liệu, hỗ trợ hoạch định chính sách, an ninh mạng và các nền tảng nội bộ. Các cơ quan hiện đang sử dụng sản phẩm của Anthropic được cấp thời hạn chuyển đổi trong vòng sáu tháng để thay thế hoặc loại bỏ hoàn toàn công nghệ này khỏi hạ tầng vận hành.



Trong một bài đăng trên Truth Social, Tổng thống Donald Trump tuyên bố:


“HỢP CHỦNG QUỐC HOA KỲ SẼ KHÔNG BAO GIỜ CHO PHÉP MỘT CÔNG TY CỰC TẢ, ‘WOKE’ RA LỆNH CHO QUÂN ĐỘI VĨ ĐẠI CỦA CHÚNG TA PHẢI CHIẾN ĐẤU VÀ GIÀNH CHIẾN THẮNG TRONG CÁC CUỘC CHIẾN NHƯ THẾ NÀO! Quyết định đó thuộc về TỔNG TƯ LỆNH của các bạn — và những nhà lãnh đạo xuất sắc mà tôi bổ nhiệm để điều hành quân đội. Những kẻ cực đoan cánh tả tại Anthropic đã phạm một SAI LẦM THẢM HỌA khi cố gắng GÂY SỨC ÉP lên Bộ Chiến tranh và buộc họ phải tuân theo Điều khoản Dịch vụ của công ty thay vì Hiến pháp của chúng ta. Sự ích kỷ của họ đang đặt SINH MẠNG NGƯỜI MỸ vào nguy hiểm, khiến binh sĩ của chúng ta đối mặt rủi ro và đặt AN NINH QUỐC GIA vào tình thế NGUY HIỂM. Vì vậy, tôi chỉ đạo MỌI cơ quan liên bang của Chính phủ Hoa Kỳ phải NGAY LẬP TỨC CHẤM DỨT mọi việc sử dụng công nghệ của Anthropic. Chúng ta không cần nó, chúng ta không muốn nó, và chúng ta sẽ không còn làm ăn với họ nữa! Sẽ có thời hạn sáu tháng để các cơ quan — bao gồm cả Bộ Chiến tranh — đang sử dụng sản phẩm của Anthropic ở nhiều cấp độ khác nhau tiến hành loại bỏ dần. Anthropic tốt nhất nên nhanh chóng điều chỉnh và hợp tác trong giai đoạn chuyển tiếp này; nếu không, tôi sẽ sử dụng TOÀN BỘ QUYỀN LỰC CỦA CHỨC VỤ TỔNG THỐNG để buộc họ phải tuân thủ, với những hậu quả dân sự và hình sự nghiêm trọng. CHÚNG TA sẽ quyết định vận mệnh đất nước mình — KHÔNG PHẢI một công ty AI cực tả mất kiểm soát do những người không hiểu gì về thế giới thực điều hành. Cảm ơn sự quan tâm của các bạn tới vấn đề này. LÀM NƯỚC MỸ VĨ ĐẠI TRỞ LẠI! TỔNG THỐNG DONALD J. TRUMP.”

Thời điểm của lệnh cấm xuất hiện gần như ngay sau khi Bộ Quốc phòng Mỹ (Bộ Chiến tranh) vừa triển khai GenAI.mil — nền tảng AI quy mô lớn được thiết kế để đưa các mô hình trí tuệ nhân tạo tiên tiến trực tiếp vào môi trường làm việc của hàng triệu quân nhân và nhân viên quốc phòng. Nền tảng này được triển khai cuối năm 2025 và chỉ trong vài tháng đã đạt hơn một triệu người dùng trong nội bộ quân đội, trở thành môi trường AI thống nhất cho toàn bộ lực lượng.


GenAI.mil được xây dựng theo mô hình tích hợp nhiều nhà cung cấp công nghệ AI hàng đầu khác nhau để tạo ra một môi trường AI linh hoạt cho các nhiệm vụ như phân tích thông tin, mô phỏng, lập kế hoạch tác chiến và xử lý dữ liệu vận hành. Bên cạnh Google (Gemini), xAI (Grok) và OpenAI (ChatGPT), Anthropic (Claude) ban đầu chính là một trong những công ty nằm trong hệ sinh thái AI của nền tảng này.


Đây là lần đầu tiên một công ty AI hàng đầu của Mỹ bị đặt vào vị trí tương tự như các thực thể bị hạn chế vì lý do an ninh quốc gia. Tính chất toàn diện của lệnh cấm cho thấy chính quyền không coi đây là một bất đồng kỹ thuật, mà là một vấn đề mang tính nguyên tắc về quyền kiểm soát và điều kiện sử dụng công nghệ trong khu vực công.


Song song với chỉ thị từ Nhà Trắng, Bộ Chiến tranh được cho là đã tiến hành hoặc cân nhắc áp dụng phân loại “rủi ro chuỗi cung ứng” đối với Anthropic.



Động thái này cực kỳ hiếm, vì trong hệ thống an ninh Mỹ, danh sách “rủi ro chuỗi cung ứng” thường gắn với các công ty nước ngoài có nguy cơ làm suy yếu tính toàn vẹn, bảo mật hoặc khả năng sẵn sàng của hệ thống quốc phòng. Việc một doanh nghiệp Mỹ bị đặt vào diện đe dọa an ninh quốc gia này là điều chưa từng có tiền lệ.


Hệ quả của việc phân loại này không chỉ dừng ở các hợp đồng trực tiếp với Bộ Chiến tranh. Nó còn có thể lan sang mạng lưới nhà thầu quốc phòng, nhà cung cấp phụ trợ và các đối tác chiến lược vốn phụ thuộc vào tiêu chuẩn tuân thủ của Bộ Chiến tranh. Nếu bị áp dụng đầy đủ, Anthropic có thể bị loại khỏi toàn bộ hệ sinh thái quốc phòng, gây ra hậu quả nghiêm trọng tới vị thế của công ty trong thị trường công nghệ liên bang.


“Điều này tương đương với án tử hình đối với Claude vì Amazon Web Services và Google Cloud không còn có thể lưu trữ dịch vụ cho Anthropic nữa”, Adam Conner, phó chủ tịch phụ trách chính sách công nghệ tại Trung tâm Tiến bộ Hoa Kỳ, đã viết trên X rằng Anthropic dựa vào các nhà cung cấp dịch vụ điện toán đám mây quy mô lớn để đào tạo mô hình và lưu trữ dịch vụ.


Nguồn gốc của cuộc đối đầu nằm ở những “hàng rào an toàn” mà Anthropic kiên quyết duy trì trong hợp đồng.


Trước cuộc tấn công vào Iran, Bộ Chiến tranh đã yêu cầu Anthropic giao nộp trí tuệ nhân tạo của mình mà không kèm theo bất kỳ hạn chế nào để sử dụng cho mục đích quân sự hợp pháp. Công ty này đã từ chối.


“Chúng tôi có hai lằn ranh đỏ này ngay từ ngày đầu tiên, và chúng tôi sẽ không thay đổi chúng,” Dario Amodei, Giám đốc điều hành của Anthropic, nói trong một cuộc phỏng vấn với CBS News, khẳng định công ty không có ý định rút lại các “lằn ranh đỏ” về an toàn AI, bất chấp áp lực từ chính quyền.



Hai lằn ranh đó là không cho phép AI của Anthropic được dùng để giám sát quy mô lớn người dân Mỹ và không cho phép AI vận hành vũ khí hoàn toàn tự động mà không có con người trong vòng quyết định.


Amodei giải thích rằng AI hiện nay chưa đủ đáng tin để thay thế phán đoán của con người trong các quyết định sinh tử, cảnh báo rằng hệ thống có thể dẫn đến bắn nhầm dân thường, nhầm lẫn mục tiêu hoặc bắn nhầm quân mình.


“Chúng tôi không muốn bán một sản phẩm mà chúng tôi tin rằng có thể khiến binh sĩ của chúng ta hoặc người vô tội thiệt mạng,” Amodei nhấn mạnh.


Dario Amodei, Giám đốc điều hành của Anthropic, trong một cuộc phỏng vấn độc quyền với CBS News, ngày 27/2/2026. Ảnh: CBS News
Dario Amodei, Giám đốc điều hành của Anthropic, trong một cuộc phỏng vấn độc quyền với CBS News, ngày 27/2/2026. Ảnh: CBS News

Về phía chính phủ, lập luận lại hoàn toàn khác. Bộ trưởng Chiến tranh Pete Hegseth cho rằng các điều khoản của Anthropic đang hạn chế khả năng quân đội sử dụng công nghệ trong các nhiệm vụ “hợp pháp” do nhà nước xác định. Quan điểm này dựa trên nguyên tắc rằng cơ quan dân cử và hệ thống pháp luật mới có thẩm quyền quyết định phạm vi ứng dụng quân sự chứ không phải doanh nghiệp tư nhân.


Trong khi đó, Anthropic cho rằng việc loại bỏ hoàn toàn các giới hạn có thể tạo tiền lệ nguy hiểm, làm suy yếu giá trị dân chủ và vượt quá khả năng an toàn của công nghệ hiện tại. Công ty lập luận rằng AI ở mức tiên tiến ngày nay vẫn tồn tại rủi ro sai lệch, nhầm lẫn hoặc lạm dụng nếu không có cơ chế kiểm soát rõ ràng.


Chính sự khác biệt căn bản về triết lý quản trị công nghệ này đã biến một cuộc thương lượng hợp đồng thành một tranh luận mang tính hệ thống về vai trò của khu vực tư nhân trong an ninh quốc gia.



Chính quyền Mỹ không yêu cầu chấm dứt ngay lập tức tất cả hệ thống đang vận hành, mà thiết lập một giai đoạn chuyển tiếp kéo dài sáu tháng. Trong khoảng thời gian này, các cơ quan phải kiểm kê toàn bộ hệ thống đang tích hợp công nghệ của Anthropic, sau đó đánh giá mức độ phụ thuộc, tìm kiếm và triển khai giải pháp thay thế nhằm đảm bảo không làm gián đoạn các nhiệm vụ quan trọng.


Tuy nhiên, bên cạnh lộ trình chuyển đổi, các quan chức cũng được cho là đã cảnh báo về khả năng áp dụng các công cụ pháp lý mạnh mẽ hơn nếu công ty không hợp tác. Những công cụ này có thể bao gồm biện pháp cưỡng chế theo luật sản xuất quốc phòng hoặc các chế tài hợp đồng khác.


Sự kết hợp giữa thời hạn chuyển đổi và khả năng cưỡng chế pháp lý cho thấy chính quyền đang sử dụng cả đòn bẩy hành chính lẫn áp lực chính trị để định hình lại quan hệ với nhà cung cấp AI.


Lập trường của chính phủ Mỹ có thể tóm lược ở ba điểm. Nhà nước giữ quyền quyết định tối hậu về mục đích sử dụng công nghệ trong khu vực quốc phòng và an ninh. Mọi nhà thầu liên bang phải chấp nhận nguyên tắc “sử dụng hợp pháp không hạn chế”, thay vì áp đặt các giới hạn đạo đức riêng. Nếu một công ty không phù hợp với định hướng chiến lược, chính phủ sẵn sàng thay thế bằng nhà cung cấp khác để đảm bảo tính liên tục của hệ thống.


Cuộc đối đầu này mở ra nhiều biến số quan trọng.



Về khía cạnh pháp lý, liệu Anthropic có khởi kiện nếu bị chính thức phân loại là “rủi ro chuỗi cung ứng”? Tòa án liên bang sẽ phải cân nhắc giới hạn quyền hành pháp trong việc loại bỏ nhà thầu công nghệ vì lý do chính sách.


Amodei phản bác tuyên bố Anthropic là “rủi ro chuỗi cung ứng” của Bộ Chiến tranh, cho rằng “điều đó không đúng luật”. Ông giải thích luật chỉ cấm sử dụng Anthropic trong một số hợp đồng quân sự, không phải cấm mọi công ty làm việc với Anthropic.


Về tác động thị trường, các công ty AI khác sẽ điều chỉnh chiến lược hợp đồng quốc phòng ra sao? Họ có chấp nhận điều khoản bất kỳ mục đích hợp pháp nào để tránh xung đột tương tự?


Về hệ quả chiến lược, việc thay thế một hệ thống AI đã tích hợp sâu trong cơ sở hạ tầng liên bang có thể tạo ra khoảng trống ngắn hạn về năng lực phân tích và vận hành. Điều này có thể ảnh hưởng đến tốc độ triển khai các chương trình AI quốc gia.


Quan trọng hơn cả, trong một nền dân chủ, công nghệ có thể do tư nhân phát triển, nhưng quyền triển khai trong lĩnh vực an ninh quốc gia cuối cùng đều phải nằm trong tay bộ máy nhà nước.


Khi được hỏi nếu gặp tổng thống, ông sẽ nói gì, Amodei trả lời: “Chúng tôi là những người Mỹ yêu nước. Mọi thứ chúng tôi làm đều nhằm hỗ trợ an ninh quốc gia của Mỹ. Tôi tin rằng chúng ta phải bảo vệ đất nước khỏi các đối thủ độc tài như Trung Quốc và Nga. Trong khi tự vệ trước các đối thủ độc tài, chúng ta vẫn phải bảo vệ các giá trị dân chủ của mình. Chúng tôi vạch ra các lằn ranh đỏ vì tin rằng vượt qua chúng sẽ đi ngược lại các giá trị của nước Mỹ. Bất đồng với chính phủ là điều Mỹ nhất mà một người có thể làm.”



Giám sát không giới hạn


Nếu một ngày nào đó những “hàng rào an toàn” quanh AI bị gỡ bỏ, điều thay đổi sẽ diễn ra thầm lặng. Cuộc sống vẫn diễn ra bình thường. Nhưng phía sau màn hình, cấu trúc quyền lực sẽ bắt đầu dịch chuyển.


Hãy tưởng tượng toàn bộ những gì bạn để lại mỗi ngày — vị trí điện thoại, lịch sử tìm kiếm, những người bạn trò chuyện, các nhóm bạn tham gia, những nơi bạn lui tới — đều tồn tại rải rác dưới dạng dữ liệu. Phần lớn trong số đó, riêng lẻ, không có gì đáng sợ. Nhiều loại dữ liệu thậm chí có thể được thu thập hoặc mua lại một cách hợp pháp.


Điểm khác biệt của AI không nằm ở việc thu thập. Nó nằm ở khả năng ghép nối tất cả lại với nhau.


“AI có thể khiến những thứ trước đây không thể làm được trở nên khả thi,” Amodei giải thích lý do lo ngại về giám sát. “Những dữ liệu này có thể được dùng để xây dựng hồ sơ về người dân Mỹ.”


Khi những mảnh ghép đó được đưa vào một hệ thống đủ mạnh, nó không chỉ ghi nhận bạn đã làm gì. Nó bắt đầu dự đoán bạn có thể làm gì. Nó nhận diện xu hướng, thói quen, mối liên hệ. Nó vẽ ra một bản đồ hành vi mà chính bạn cũng chưa từng nhìn thấy bản đồ đó.


Bạn có thể bị lập hồ sơ mà không hề biết. Chỉ đơn giản là trong một cơ sở dữ liệu nào đó, tên bạn được gắn với một chỉ số rủi ro.



Vậy nếu bạn không làm gì sai thì bạn không có gì phải sợ. Lập luận này nghe rất hợp lý ở bề mặt. Nó dựa trên một giả định quen thuộc rằng hệ thống chỉ nhắm vào người có hành vi sai trái. Nhưng khi đưa AI vào phương trình — đặc biệt là AI có khả năng thu thập và dự đoán hành vi ở quy mô lớn — lập luận này bắt đầu bộc lộ những điểm yếu sâu sắc.


Trước hết, nó giả định rằng “sai” là một khái niệm ổn định, rõ ràng và không thay đổi theo thời gian. Lịch sử lại cho thấy điều ngược lại. Nhiều hành vi từng bị coi là nguy hiểm hoặc bất hợp pháp — từ hoạt động công đoàn, vận động quyền dân sự, đến phản biện chính sách — sau này được nhìn nhận là chính đáng, thậm chí cần thiết cho tiến bộ xã hội. Khi hệ thống giám sát đủ mạnh để ghi nhớ và lưu trữ mọi liên kết, mọi phát biểu, mọi sự tham gia, thì những gì không sai hôm nay có thể bị diễn giải khác đi trong bối cảnh chính trị ngày mai.


Lập luận này giả định rằng hệ thống luôn đúng. Nhưng AI không chỉ ghi nhận hành vi; nó suy luận từ xác suất. Nó tìm kiếm mô hình tương đồng. Nó gán nhãn dựa trên dữ liệu lịch sử. Nếu bạn có đặc điểm giống với một nhóm từng bị đánh giá là rủi ro cao, bạn có thể bị đặt vào cùng cụm phân tích. Bạn không cần làm gì sai; bạn chỉ cần giống với một mẫu thống kê nào đó. Vấn đề không nằm ở tội lỗi, mà ở sự tương đồng.


Trong một xã hội pháp quyền, nhà nước cần có lý do cụ thể để nghi ngờ một cá nhân. Khi AI phân tích ở quy mô lớn, logic có thể làm đảo chiều nguyên tắc pháp lý. Mọi người đều được quét, và những người khác biệt sẽ bị làm nổi bật. Điều này làm xói mòn nguyên tắc rằng quyền riêng tư là mặc định, còn giám sát là ngoại lệ.


Quyền riêng tư không phải để che giấu hành vi sai trái. Nó là không gian để con người thử nghiệm ý tưởng, thay đổi quan điểm, tìm hiểu những điều mới mà không bị đánh giá tức thì. Khi biết rằng mọi hành vi tìm kiếm, mọi cuộc trò chuyện có thể bị phân tích và gắn vào hồ sơ lâu dài, con người sẽ dè dặt hơn trong việc khám phá. Sự sáng tạo, phản biện và đổi mới thường bắt đầu từ những suy nghĩ chưa hoàn chỉnh. Một môi trường bị quan sát liên tục có thể làm nghèo đi quá trình đó.


Lập luận “không làm gì sai thì không sợ” cũng bỏ qua vấn đề quyền lực. Khi một hệ thống có khả năng dự đoán hành vi và phân loại rủi ro, nó không chỉ quan sát quá khứ mà nó ảnh hưởng đến tương lai. Nếu một cá nhân bị đánh giá là “nguy cơ cao”, họ có thể đối mặt với giám sát nhiều hơn, cơ hội ít hơn, hoặc bị đưa vào diện kiểm tra bổ sung. Điều này dẫn đến nhiều theo dõi hơn, và nhiều theo dõi hơn làm tăng khả năng phát hiện điều gì đó bất thường.



Sự tồn tại của một hệ thống như vậy làm thay đổi mối quan hệ giữa công dân và nhà nước. Trong mô hình dân chủ truyền thống, nhà nước chịu trách nhiệm trước công dân. Khi giám sát trở nên toàn diện và tự động hóa, công dân trở thành đối tượng phân tích liên tục. Ngay cả khi không ai bị truy tố, sự mất cân bằng này vẫn có ý nghĩa chính trị sâu sắc.


Nỗi lo không nằm ở cảm giác tội lỗi. Nó nằm ở quyền tự quyết. Một xã hội tự do không chỉ là nơi người vô tội được an toàn. Nó là nơi con người có không gian để sống mà không bị quan sát toàn diện, không bị dự đoán liên tục, không bị gắn nhãn trước khi hành động.


Ở quy mô nhỏ, sai sót có thể được sửa. Ở quy mô hàng chục triệu người, sai sót trở thành con số thống kê. Một hệ thống chính xác 99% vẫn có thể khiến hàng trăm nghìn người bị phân loại nhầm. Và khi nghi ngờ được tạo ra bởi thuật toán thay vì hành vi cụ thể, nguyên tắc “vô tội cho đến khi được chứng minh có tội” bắt đầu trở nên mong manh.


Nguy cơ lớn nhất không phải là bạn sẽ bị bắt oan. Nguy cơ lớn hơn là bạn sẽ tự điều chỉnh mình trước khi điều đó xảy ra.


Khi con người tin rằng mọi hành động trực tuyến đều có thể bị phân tích, mọi mối quan hệ đều có thể bị suy luận, họ bắt đầu thận trọng hơn không phải vì luật pháp thay đổi, mà vì cảm giác bị quan sát. Họ ngại phát biểu. Ngại tham gia các nhóm tranh luận. Ngại tiếp xúc với quan điểm gây tranh cãi. Sự tự do không biến mất; nó co lại.


Và công nghệ giám sát, một khi đã được xây dựng, hiếm khi bị tháo dỡ. Nó có thể được chuyển giao cho chính quyền kế tiếp, được mở rộng trong một khủng hoảng mới, được tái định nghĩa dưới danh nghĩa an ninh. Lịch sử cho thấy quyền lực phòng ngừa thường tăng lên chứ không giảm đi theo thời gian.



Quyết định sát thương không cần con người


Ngược lại, nếu những giới hạn về vũ khí tự hành hoàn toàn bị loại bỏ, rủi ro lại nằm ở tốc độ.


Hệ thống tự hành có thể phát hiện mục tiêu, đánh giá và khai hỏa trong vài giây. Không do dự. Không sợ hãi. Không cân nhắc đạo đức. Điều đó nghe có vẻ hiệu quả cho đến khi xảy ra nhầm lẫn.


Chính vì vậy, nhiều chuyên gia quân sự đã cảnh báo rằng tốc độ của máy móc có thể vượt quá khả năng kiểm soát của con người.


“Tốc độ của máy móc đang vượt qua tốc độ ra quyết định của con người,” Paul Scharre, cựu sĩ quan Lầu Năm Góc và tác giả cuốn ‘Army of None’, từng nhận xét. “Nếu chúng ta không cẩn thận, chiến tranh có thể trở thành một cuộc trao đổi giữa các thuật toán.”


AI hiện nay vẫn có thể phân loại sai hình ảnh. Vẫn có thể bị đánh lừa bởi dữ liệu bất thường. Vẫn có thể tự tin trong một kết luận sai. Trong môi trường dân sự, sai sót gây phiền toái. Trong môi trường chiến sự, sai sót cướp đi mạng sống.


“Khi bạn trao quyền quyết định ai sống ai chết cho một thuật toán, bạn đang cho phép lỗi phần mềm trở thành lỗi chết người,” Stuart Russell, giáo sư khoa học máy tính tại University of California, Berkeley và một trong những nhà nghiên cứu AI hàng đầu, cảnh báo rằng các hệ thống vũ khí tự hành có thể biến sai sót phần mềm thành thảm họa.



Nếu một phương tiện dân sự bị nhận diện nhầm là mục tiêu quân sự, nếu một tòa nhà bị gán nhãn sai, và không có con người nào trong vòng phê duyệt cuối cùng để dừng lại, sai lầm sẽ không còn cơ hội được sửa trước khi hậu quả xảy ra.


Tốc độ còn kéo theo nguy cơ leo thang.


Khi phản ứng được tự động hóa, thời gian để đánh giá tình hình và cân nhắc ngoại giao bị rút ngắn. Một chuỗi trả đũa có thể diễn ra nhanh hơn khả năng kiểm soát của con người.


“AI có thể rút ngắn thời gian ra quyết định đến mức con người không còn đủ thời gian để suy nghĩ,” Henry Kissinger, trong những năm cuối đời khi bàn về trí tuệ nhân tạo và chiến tranh, từng cảnh báo.


Lịch sử cho thấy nhiều cuộc khủng hoảng được ngăn chặn nhờ độ trễ. Máy móc không có bản năng chần chừ.


Và nếu một hệ thống gây ra thiệt hại, ai sẽ chịu trách nhiệm? Nhà phát triển? Chỉ huy? Nhà sản xuất? Hay thuật toán?



“Những cỗ máy có quyền và khả năng tước đi sinh mạng con người mà không có sự kiểm soát của con người là điều không thể chấp nhận về mặt đạo đức,” António Guterres, Tổng thư ký United Nations, từng nói về vấn đề này rất thẳng thắn.


Khoảng trống trách nhiệm đó có thể làm suy yếu nền tảng pháp lý vốn được xây dựng quanh giả định rằng con người là chủ thể của quyết định sát thương.


Khi một quốc gia chấp nhận vũ khí tự hành hoàn toàn, các quốc gia khác sẽ không đứng yên. Không ai muốn tụt lại phía sau trong một cuộc chạy đua công nghệ quân sự.


“Ai trở thành người dẫn đầu trong AI sẽ trở thành người thống trị thế giới,” Tổng thống Nga Vladimir Putin từng phát biểu nổi tiếng năm 2017.


Những câu nói như vậy khiến nhiều nhà hoạch định chiến lược lo ngại rằng nếu một quốc gia triển khai hệ thống tự động hóa chiến tranh, các quốc gia khác sẽ bị cuốn vào cùng một logic.


Và như vậy, tiêu chuẩn toàn cầu có thể dần dịch chuyển từ con người kiểm soát sang máy móc quyết định.



Nói một cách đơn giản, rủi ro cốt lõi không phải là AI nổi loạn như trong các bộ phim khoa học viễn tưởng. Rủi ro nằm ở chỗ quyền lực phân tích con người và quyền lực sử dụng vũ lực trở nên nhanh hơn, rộng hơn và ít ma sát hơn.


Các nền dân chủ được thiết kế với những thủ tục cần thiết như giám sát, tranh luận, con người trong vòng quyết định. Khi công nghệ làm giảm ma sát đó, hệ thống trở nên hiệu quả hơn nhưng cũng dễ vượt qua những ranh giới mà trước đây cần nhiều bước cân nhắc.


Hệ quả dài hạn nghiêm trọng nhất không đến trong một ngày. Nó đến dần dần.


Giám sát ở quy mô thuật toán, nếu được hợp thức hóa, có thể dần trở thành một chuẩn mực vận hành của nước Mỹ hiện đại. Những quyết định sát thương có yếu tố tự động hóa, ban đầu chỉ xuất hiện trong các kịch bản thử nghiệm, cũng có thể từng bước trở nên quen thuộc trong hệ thống quân sự. Và cùng với đó, vai trò của con người trong những quyết định liên quan đến quyền tự do hay sinh mạng được đưa ra có nguy cơ thu hẹp lại.


Những thay đổi như vậy hiếm khi diễn ra bằng một bước ngoặt đột ngột. Chúng tích tụ dần, thông qua các quyết định kỹ thuật, các ngoại lệ trong thời khủng hoảng, hay những cải tiến được biện minh bằng hiệu quả và tốc độ.


Khi hạ tầng công nghệ đã được xây dựng và tích hợp sâu vào hệ thống vận hành, nó tạo ra các thế hệ chính sách sau đó sẽ tiếp tục hoạt động bên trong cấu trúc đã tồn tại, thay vì quay lại từ đầu để đặt lại câu hỏi căn bản.


Chính vì vậy, vấn đề của công nghệ nằm ở những giới hạn mà xã hội lựa chọn đặt ra cho nó. Bởi trước khi một hệ thống được tự động hóa, điều thực sự được quyết định không phải là năng lực của máy móc, mà là mức độ khoảng dừng, sự cân nhắc và trách nhiệm con người mà chúng ta vẫn muốn giữ lại trong những quyết định quan trọng nhất của mình.

Không bao giờ bỏ lỡ bản tin mới

Đăng ký nhận tin từ Ngoài Kia

Cảm ơn bạn. Chúng tôi sẽ liên hệ sớm.

bottom of page