Henry Kissinger, Eric Schmidt, Daniel Huttenlocher
Đỗ Kim Thêm dịch

Tính hủy diệt của các vũ khí hạt nhân và những bí ẩn của các vũ khí trong không gian mạng ngày càng được kết hợp bởi các khả năng mới dựa trên các nguyên tắc của thông minh nhân tạo được thảo luận trong các chương trước. Trong âm thầm, đôi khi qua nhiều dự kiến, nhưng với động lực không thể nhầm lẫn, các quốc gia đang phát triển và điều động thông minh nhân tạo đem lại điều kiện cho hành động chiến lược qua một loạt các khả năng quân sự, với những tác động mang tính cách mạng tiềm tàng đối với chính sách về an ninh.
Việc du nhập tinh thần thuần lý không liên hệ đến con người trong các hệ thống quân sự và tiến trình sẽ thay đổi chiến lược. Các quân đội và việc huấn luyện về an ninh hoặc đối tác với thông minh nhân tạo sẽ đạt được những hiểu biết và ảnh hưởng gây ngạc nhiên và đôi khi gây bối rối. Những quan hệ đối tác này có thể phủ nhận hoặc củng cố dứt khoát các khía cạnh của các chiến lược và chiến thuật truyền thống.
Nếu thông minh nhân tạo được giao phó một biện pháp kiểm soát về các vũ khí qua không gian mạng (tấn công hoặc phòng thủ) hoặc vũ khí vật chất như máy bay, nó có thể nhanh chóng đảm nhiệm các chức năng mà con người chỉ thực hiện với khó khăn. Các thông minh nhân tạo như μ Zero của Không quân Mỹ đã điều khiển máy bay và vận hành các hệ thống radar trong các chuyến bay thử nghiệm. Trong trường hợp của μ Zero, các nhà triển khai thông minh nhân tạo đã thiết kế nó để thực hiện „các cuộc gọi cuối cùng“ mà không cần con người can thiệp nhưng hạn chế khả năng điều khiển máy bay và vận hành hệ thống radar. Các quốc gia khác và các nhóm thiết kế có thể thực hiện ít kiềm chế hơn.
Bổ sung cho tiện ích có tiềm năng biến đổi của nó, khả năng tự chủ của thông minh nhân tạo tự tạo và phân cách một lớp không thể đo lường được. Hầu hết các chiến lược và chiến thuật quân sự truyền thống đều dựa trên giả định của đối phương là con người mà hành vi và tính toán là quyết định phù hợp trong một khuôn khổ có thể nhận ra được hoặc đã được xác định bởi kinh nghiệm và khôn ngoan thông thường.
Tuy nhiên, thông minh nhân tạo điều khiển máy bay hoặc quét các mục tiêu theo cách logic riêng của nó, điều này là bí hiểm đối với đối phương và đối với các tín hiệu truyền thống và các nghi binh là không thể nhận ra – và trong hầu hết các trường hợp, sẽ tiến hành nhanh hơn tốc độ suy nghĩ của con người.
Chiến tranh luôn là một lĩnh vực thuộc tình trạng bất trắc và dự phòng, nhưng sự tham gia của thông minh nhân tạo vào không gian này sẽ du nhập những chiều hướng mới. Bởi vì thông minh nhân tạo rất năng động và trỗi dậy, ngay cả những sức mạnh tạo ra hoặc sử dụng vũ khí do thông minh nhân tạo thiết kế hoặc vận hành có thể không biết chính xác nó mạnh như thế nào hoặc chính xác những gì nó sẽ làm trong một tình huống nhất định.
Làm thế nào để người ta phát triển một chiến lược – tấn công hoặc phòng thủ – cho một cái gì đó nhận thức được các khía cạnh của môi trường mà con người có thể không, hoặc có thể không nhanh chóng, và có thể học hỏi và thay đổi thông qua các quá trình, trong một số trường hợp, vượt quá tốc độ hoặc phạm vi suy nghĩ của con người? Nếu tác động của vũ khí được thông minh nhân tạo hỗ trợ phụ thuộc vào nhận thức của thông minh nhân tạo trong chiến đấu – và kết luận mà nó rút ra từ các hiện tượng mà nó nhận thấy – liệu tác động chiến lược của một số vũ khí chỉ có thể được chứng minh thông qua việc sử dụng?
Nếu một đối thủ cạnh tranh đào tạo thông minh nhân tạo của mình trong im lặng và bí mật, các nhà lãnh đạo có thể biết – bên ngoài một cuộc xung đột – liệu là họ đang đi trước hay theo sau trong một cuộc chạy đua vũ trang?
Trong một cuộc xung đột truyền thống, tâm lý của kẻ thù là một tâm điểm quan trọng để biết hành động chiến lược nào nhằm mục đích gì. Một thuật toán chỉ biết các cách hướng dẫn và mục tiêu của nó, không biết đến vấn đề tinh thần hay nghi ngờ.
Do tiềm năng của thông minh nhân tạo để thích ứng với các hiện tượng mà nó gặp phải, khi hai hệ thống vũ khí thông minh nhân tạo được triển khai chống lại nhau, không bên nào có khả năng hiểu chính xác về kết quả tương tác của chúng sẽ tạo ra hoặc hiệu ứng chung của chúng. Họ chỉ có thể phân biệt một cách không chính xác về khả năng và hình phạt của đối phương khi tham gia trong vào một cuộc xung đột.
Đối với các kỹ sư và nhà xây dựng, những hạn chế này có thể thúc đẩy về tốc độ, chiều rộng của các hiệu ứng và độ bền – các thuộc tính có thể làm cho các xung đột trở nên dữ dội hơn và được cảm nhận rộng rãi hơn, và trên hết, không thể đoán trước.
Đồng thời, ngay cả với thông minh nhân tạo, phòng thủ mạnh mẽ là điều kiện tiên quyết của an ninh. Việc đơn phương từ bỏ công nghệ mới bị ngăn cản bởi sự phổ biến của nó.
Tuy nhiên, ngay cả khi các chính phủ tự vũ trang, nên đánh giá và cố gắng khám phá cách bổ sung tính thuần lý của thông minh nhân tạo trong trải nghiệm chiến đấu của con người, để nó có thể làm cho chiến tranh nhân đạo và chính xác hơn và phản ánh về tác động đối với ngoại giao và trật tự thế giới.
Thông minh nhân tạo và việc học của máy sẽ thay đổi các lựa chọn chiến lược và chiến thuật của các tác nhân bằng cách mở rộng khả năng của các loại vũ khí hiện có. Thông minh nhân tạo không chỉ có thể cho phép các vũ khí thông thường được nhắm mục tiêu chính xác hơn, nó còn có thể cho phép chúng được nhắm mục tiêu theo những cách mới và độc đáo – chẳng hạn như (ít nhất là về mặt lý thuyết) nhắm vào một cá nhân hoặc một đối tượng cụ thể, không phải là một địa điểm.
Bằng cách xem xét một lượng lớn về thông tin, vũ khí trong không gian mạng có thông minh nhân tạo có thể học cách xâm nhập hệ thống phòng thủ mà không cần con người khám phá các lỗ hổng của các phần mềm mà nó có thể bị tận dụng. Cũng tương tự như vậy, thông minh nhân tạo có thể được sử dụng về mặt phòng thủ, định vị và sửa chữa các khuyết điểm trước khi chúng bị khai thác. Nhưng vì kẻ tấn công có thể chọn mục tiêu, thông minh nhân tạo mang lại cho bên tấn công một lợi thế cố hữu nếu không muốn nói là không thể vượt qua.
Nếu một quốc gia phải đối phó chiến đấu với một đối thủ đã có đào tạo về thông minh nhân tạo của mình để lái máy bay, đưa ra quyết định nhắm mục tiêu độc lập và bắn, những thay đổi nào trong chiến thuật, chiến lược hoặc sẵn sàng sử dụng vũ khí lớn hơn (hoặc thậm chí hạt nhân) sẽ tạo ra sự kết hợp của công nghệ này?
Thông minh nhân tạo mở ra những chân trời mới về khả năng trong không gian thông tin, bao gồm cả trong lĩnh vực thông tin sai lệch. Thông minh nhân tạo có thể tạo ra một lượng lớn thông tin sai lệch nhưng có thể tin được. Thông tin sai lệch và chiến tranh tâm lý được tạo điều kiện bởi thông minh nhân tạo, bao gồm việc sử dụng tư liệu cá nhân, hình ảnh, video và bài phát biểu được tạo ra, đã sẵn sàng để gây khả năng tổn thương mới khó giải quyết, đặc biệt là cho các xã hội tự do.
Các cuộc biểu tình được chia sẻ rộng rãi đã tạo ra những hình ảnh và video dường như là thực tế của các nhân vật công chúng nói những điều họ chưa bao giờ nói. Về lý thuyết, thông minh nhân tạo có thể được sử dụng để xác định những cách hiệu quả nhất để cung cấp nội dung tổng hợp do thông minh nhân tạo tạo ra này cho mọi người, điều chỉnh nó theo những thành kiến và kỳ vọng của họ. Nếu hình ảnh tổng hợp của một nhà lãnh đạo quốc gia bị ngụy tạo bởi một kẻ thù để gây bất hòa hoặc đưa ra các chỉ thị sai lệch, liệu công chúng (hoặc thậm chí các chính phủ và quan chức khác) có nhận ra sự lừa dối kịp thời không?
Trái ngược với lĩnh vực các vũ khí hạt nhân, không có quy định được chia sẻ rộng rãi và không có khái niệm rõ ràng về răn đe (hoặc mức độ leo thang) tham dự trong việc sử dụng thông minh nhân tạo như vậy. Các đối thủ của Mỹ đang chuẩn bị cho vũ khí do thông minh nhân tạo hỗ trợ cả về vật chất và trong không gian mạng, và một số được cho là đã được sử dụng. Cường quốc thông minh nhân tạo có thể triển khai các máy móc và hệ thống thực hiện logic nhanh chóng và hành vi nổi lên và phát triển để tấn công, bảo vệ, giám sát, truyền bá thông tin sai lệch và xác định và vô hiệu hóa thông minh nhân tạo của đối phương.
Khi khả năng của thông minh nhân tạo biến đổi và lan rộng, trong trường hợp không có sự hạn chế có thể được kiểm chứng, các cường quốc sẽ tiếp tục phấn đấu để đạt được một vị trí vượt trội. Họ sẽ cho rằng sự phổ biến của thông minh nhân tạo chắc chắn sẽ xảy ra một khi các khả năng thông minh nhân tạo mới hữu ích được giới thiệu.
Do đó, khi được hỗ trợ bởi việc sử dụng trong cả hai lĩnh vực dân sự và quân sự của công nghệ như vậy và dễ dàng sao chép và truyền tải, các nguyên tắc cơ bản và đổi mới quan trọng của thông minh nhân tạo sẽ được công khai.
Khi thông minh nhân tạo được kiểm soát, các việc kiểm soát có thể chứng minh là không hoàn hảo, hoặc là vì những tiến bộ trong công nghệ khiến chúng trở nên lỗi thời hoặc vì chúng chứng minh được là thâm nhập do một tác nhân kiên quyết. Người dùng mới có thể điều chỉnh các thuật toán cơ bản cho các mục tiêu rất khác nhau.
Một sự đổi mới thương mại của một xã hội có thể được điều chỉnh cho các mục đích an ninh hoặc chiến tranh thông tin bởi một xã hội khác. Các khía cạnh quan trọng nhất về mặt chiến lược của việc phát triển thông minh nhân tạo tiên tiến sẽ thường xuyên được các chính phủ áp dụng để đáp ứng các khái niệm của họ về lợi ích quốc gia.
Những nỗ lực để khái niệm hóa sự cân bằng quyền lực và răn đe thông minh nhân tạo trên mạng đang ở giai đoạn sơ khai, nếu điều đó xảy ra. Cho đến khi các khái niệm này được xác định, lập kế hoạch sẽ mang một tính chất trừu tượng. Trong một cuộc xung đột, một bên tham chiến có thể tìm cách áp đảo ý chí của kẻ thù thông qua việc sử dụng, hoặc đe dọa sử dụng, của một vũ khí mà tác dụng của nó không được hiểu rõ.
Hiệu ứng mang tính cách mạng và không thể đoán trước nhất có thể xảy ra tại thời điểm thông minh nhân tạo và trí thông minh của con người gặp nhau. Trong lịch sử, các quốc gia có kế hoạch chiến đấu đã có thể hiểu được, , các học thuyết, chiến thuật và tâm lý chiến lược của đối thủ, nếu không là hoàn hảo. Điều này đã cho phép phát triển các chiến lược và chiến thuật đối nghịch cũng như một ngôn ngữ biểu tượng của các hành động quân sự thể hiện, chẳng hạn như chặn một máy bay phản lực gần biên giới hoặc hành trình cho mộ chiến hạm qua một thủy lộ còn tranh chấp.
Tuy nhiên, khi một quân đội sử dụng thông minh nhân tạo để lập kế hoạch hoặc nhắm mục tiêu – hoặc thậm chí hỗ trợ năng động trong quá trình tuần tra hoặc xung đột – những khái niệm và tương tác quen thuộc này có thể trở nên kỳ lạ vì chúng sẽ liên quan đến giao tiếp và giải thích một trí thông minh không quen thuộc trong phương pháp và chiến thuật của nó.
Về cơ bản, việc thay đổi các hệ thống phòng thủ và vũ khí hỗ trợ thông minh nhân tạo và thông minh nhân tạo liên quan đến một biện pháp phụ thuộc vào – và, trong những trường hợp cực đoan, ủy nhiệm – một trí thông minh có tiềm năng phân tích đáng kể hoạt động trên một mô hình kinh nghiệm khác nhau về cơ bản. Sự phụ thuộc như vậy sẽ gây ra những rủi ro chưa biết đến hoặc biết quá ít. Vì lý do này, các nhân viên điều hành phải tham gia và định vị để giám sát và kiểm soát các hành động thông minh nhân tạo có tác động có khả năng gây chết người. Nếu vai trò con người này không tránh được tất cả sai lầm, ít nhất nó phải đảm bảo được về trách nhiệm đạo đức và giải trình.
Tuy nhiên, thách thức sâu xa nhất có thể là về mặt triết học. Nếu các khía cạnh của chiến lược hoạt động được trong các lĩnh vực khái niệm và phân tích mà thông minh nhân tạo có thể truy cập được, nhưng không phải với lý do con người, chúng sẽ trở nên mù mờ – trong các tiến trình, phạm vi tiếp cận và ý nghĩa cuối cùng của chúng.
Nếu các nhà hoạch định chính sách kết luận rằng sự hỗ trợ của thông minh nhân tạo trong việc tìm kiếm các mô hình thực tế sâu sắc nhất là cần thiết để hiểu khả năng và ý định của các đối thủ (những người có thể đưa ra thông minh nhân tạo của riêng họ) và phản ứng kịp thời với họ, việc ủy thác các quyết định quan trọng cho máy móc có thể phát triển không thể tránh khỏi. Các xã hội có khả năng đạt được các giới hạn bản năng khác nhau về những gì cần ủy thác và những rủi ro và hậu quả để chấp nhận.
Các nước lớn không nên chờ đợi một cuộc khủng hoảng đến để bắt đầu một cuộc đối thoại về những tác động – chiến lược, giáo lý và đạo đức – của những tiến hóa này. Nếu họ làm như vậy, tác động của họ có thể là không thể đảo ngược. Một nỗ lực quốc tế để hạn chế những rủi ro này là bắt buộc.
Quản lý thông minh nhân tạo
Những vấn đề này phải được xem xét và hiểu trước khi các hệ thống thông minh được gửi đến để đối đầu nhau. Những vấn đề này có được sự cấp bách bổ sung bởi vì việc sử dụng chiến lược các khả năng không gian mạng và khả năng thông minh nhân tạo ngụ ý một lĩnh vực rộng lớn hơn cho các cuộc thử thách chiến lược. Các cuộc thử thách sẽ mở rộng ra ngoài các bải chiến trường lịch sử, theo một ý nghĩa bất cứ nơi nào mà nó được kết nối với một mạng theo kỹ thuật số.
Các chương trình kỹ thuật số hiện đang kiểm soát một lĩnh vực rộng lớn và đang phát triển của các hệ thống vật lý, và ngày càng có nhiều hệ thống này được nối mạng, trong một số trường hợp xuống đến khóa cửa và tủ lạnh. Điều này đã tạo ra một hệ thống vô cùng phức tạp, việc tiếp cận và dễ bị tổn thương.
Đối với các cường quốc về mặt thông minh nhân tạo, việc theo đuổi một số hình thức hiểu biết và kiềm chế lẫn nhau là quan trọng. Trong trường hợp các hệ thống và khả năng bị thay đổi dễ dàng và tương đối không bị phát hiện bởi sự thay đổi trong mã số của máy tính, mỗi chính phủ có thể cho rằng các đối thủ của mình sẵn sàng thực hiện nghiên cứu, phát triển và triển khai thông minh nhân tạo nhạy cảm về mặt chiến lược một bước xa hơn những gì họ đã công khai thừa nhận hoặc thậm chí cam kết riêng tư.
Từ góc độ thuần túy về kỷ thuật, các ranh giới giữa việc tham gia thông minh nhân tạo trong việc theo dõi, nhắm mục tiêu và hành động gây chết người tương đối dễ dàng – khiến việc tìm kiếm các hệ thống kiềm chế và xác minh lẫn nhau trở nên khó khăn như khi bắt buộc.
Việc tìm kiếm sự trấn an và kiềm chế sẽ phải đối mặt với bản chất năng động của thông minh nhân tạo. Một khi chúng được tung ra thế giới, các vũ khí trong không gian mạng được hỗ trợ bởi thông minh nhân tạo có thể thích nghi và học hỏi vượt xa các mục tiêu được dự định. Các khả năng của vũ khí có thể thay đổi khi thông minh nhân tạo phản ứng với môi trường của nó. Nếu các vũ khí có thể thay đổi theo những cách khác nhau về phạm vi hoặc loại với những gì người tạo ra chúng dự đoán hoặc đe dọa, các tính toán răn đe và leo thang có thể trở nên ảo tưởng.
Bởi vì phạm vi hoạt động mà thông minh nhân tạo có khả năng thực hiện, cả ở giai đoạn thiết kế ban đầu và trong giai đoạn triển khai, có thể cần phải được điều chỉnh để con người giữ lại khả năng giám sát và tắt hoặc chuyển hướng một hệ thống đã bắt đầu đi lạc. Để tránh những kết quả bất ngờ và có khả năng thảm khốc, những hạn chế như vậy phải hổ tương.
Những hạn chế về thông minh nhân tạo và khả năng trong không gian mạng sẽ là thách thức để xác định và phổ biến vũ khí hạt nhân sẽ khó dừng lại. Các khả năng được phát triển và sử dụng bởi các cường quốc có khả năng rơi vào tay những kẻ khủng bố và các tác nhân lừa đảo. Tương tự như vậy, các quốc gia nhỏ hơn không sở hữu về các vũ khí hạt nhân và có khả năng vũ khí thông thường hạn chế có thể tạo ra ảnh hưởng ngoại cỡ bằng cách đầu tư vào thông minh nhân tạo và kho vũ khí mạng hàng đầu.
Chắc chắn, các quốc gia sẽ ủy thác các nhiệm vụ rời rạc, không gây hại cho các thuật toán thông minh nhân tạo (một số được điều hành bởi các tư nhân), bao gồm cả việc thực hiện các chức năng phòng thủ phát hiện và ngăn chặn sự xâm nhập vào không gian mạng. „Bề mặt tấn công“ của một xã hội được kết nối mạng cao độ qua kỹ thuật số, sẽ quá rộng lớn để các nhà khai thác có thể bảo vệ theo cách thủ công.
Khi nhiều khía cạnh của cuộc sống con người thay đổi trực tuyến và khi các nền kinh tế tiếp tục số hóa, thông minh nhân tạo trong mạng lừa đảo có thể phá vỡ toàn bộ các lĩnh vực. Các quốc gia, các doanh nghiệp và thậm chí cả cá nhân nên đầu tư vào nơi an toàn để tránh khỏi các kịch bản như vậy.
Hình thức bảo vệ cực đoan nhất như vậy sẽ liên quan đến việc cắt đứt kết nối mạng và đưa các hệ thống ra khỏi đường dây. Đối với các quốc gia, ngắt bỏ việc kết nối có thể trở thành hình thức cuối cùng của việc phòng thủ.
Thiếu các biện pháp cực đoan như vậy, chỉ có thông minh nhân tạo mới có khả năng thực hiện một số chức năng phòng thủ trong không gian mạng quan trọng nhất định, một phần vì phạm vi rộng lớn của không gian mạng và hàng loạt các hành động có thể có trong phạm vi này. Do đó, khả năng phòng thủ quan trọng nhất trong lĩnh vực này có thể sẽ nằm ngoài tầm với của tất cả trừ một vài quốc gia.
Ngoài các hệ thống phòng thủ do thông minh nhân tạo điều kiện là loại khả năng gây khó chịu nhất – các hệ thống vũ khí tự động gây chết người – thường được hiểu là bao gồm các hệ thống, một khi được kích hoạt, có thể chọn và tấn công các mục tiêu mà không cần sự can thiệp của con người hơn nữa. Vấn đề chính trong lĩnh vực này là sự giám sát của con người và khả năng can thiệp kịp thời của con người.
Một hệ thống tự trị có thể có một người „thạo vấn đề“, giám sát các hoạt động của nó một cách thụ động, hoặc „trong vòng kiểm soát“, với sự cho phép của con người cần thiết cho một số hành động nhất định. Trừ khi bị hạn chế bởi thỏa thuận hổ tương mà nó được quan sát và kiểm chứng, hình thức tương thuận của hệ thống vũ khí cuối cùng có thể bao gồm toàn bộ các chiến lược và mục tiêu – chẳng hạn như bảo vệ biên giới hoặc đạt được một kết quả cụ thể chống lại kẻ thù – và hoạt động mà không có sự tham gia đáng kể của con người.
Trong các lĩnh vực này, bắt buộc phải đảm bảo vai trò thích hợp cho sự phán xét của con người trong việc giám sát và chỉ đạo việc sử dụng vũ lực. Những hạn chế như vậy sẽ chỉ có ý nghĩa hạn chế nếu chúng chỉ được áp dụng đơn phương – bởi một quốc gia hoặc một nhóm nhỏ các quốc gia. Các chính phủ của các nước công nghệ tiên tiến nên khám phá những thách thức của sự kiềm chế lẫn nhau được hỗ trợ bởi xác minh có thể thực thi.
Thông minh nhân tạo làm tăng nguy cơ cố hữu của sự tiên phong và sử dụng sớm leo thang thành xung đột. Một quốc gia lo ngại rằng đối thủ của mình đang phát triển các khả năng tự động có thể tìm cách ngăn chặn xung đột: nếu cuộc tấn công „thành công“, có thể không có cách nào để biết liệu nó có biện minh được hay không.
Để ngăn chặn sự leo thang ngoài ý muốn, các cường quốc nên theo đuổi sự cạnh tranh của họ trong khuôn khổ các giới hạn có thể kiểm chứng. Đàm phán không chỉ nên tập trung vào việc hoà hoản một cuộc chạy đua vũ trang mà còn đảm bảo rằng cả hai bên đều biết, nói chung, những gì bên kia đang làm. Nhưng cả hai bên phải mong đợi (và có kế hoạch phù hợp) rằng đối phương sẽ giữ lại những bí mật nhạy cảm nhất về an ninh của mình. Sẽ không bao giờ có sự tin tưởng hoàn toàn. Nhưng như các cuộc đàm phán vũ khí hạt nhân trong Chiến tranh Lạnh đã chứng minh, điều đó không có nghĩa là không thể đạt được sự hiểu biết nào.
Chúng ta nêu ra những vấn đề này trong nỗ lực xác định những thách thức mà thông minh nhân tạo đưa ra cho chiến lược. Đối với tất cả các lợi ích của nó, các hiệp ước (và các cơ chế liên lạc, thực thi và xác minh kèm theo) đã xác định thời đại hạt nhân không phải là điều không thể tránh khỏi trong lịch sử. Chúng là sản phẩm của con người và là sự công nhận lẫn nhau về mức nguy hiểm và tinh thần trách nhiệm.
(còn tiếp)