Henry Kissinger, Eric Schmidt, Daniel Huttenlocher
Đỗ Kim Thêm dịch

Tác động đến các công nghệ dân sự và quân sự
Theo truyền thống, ba phẩm chất đã tạo điều kiện cho việc tách biệt các lĩnh vực quân sự và dân sự: sự khác biệt về công nghệ, kiểm soát tập trung và mức độ ảnh hưởng. Các công nghệ với các ứng dụng độc quyền cho quân sự hoặc độc quyền cho dân sự được mô tả là khác biệt. Kiểm soát tập trung đề cập đến các công nghệ mà chính phủ có thể dễ dàng quản lý trái ngược với các công nghệ lan toả dễ dàng và do đó thoát khỏi sự kiểm soát của chính phủ. Cuối cùng, mức độ ảnh hưởng đề cập đến tiềm năng phá hủy của công nghệ.
Trong suốt lịch sử, nhiều công nghệ đã được sử dụng song hành. Những công nghệ khác đã lan truyền dễ dàng và rộng rãi, và một số đã có tiềm năng phá hoại to lớn. Tuy nhiên, cho đến nay, không có gì là có cả ba: sử dụng song hành, dễ dàng lan toả, có khả năng phá hoại đáng kể. Các tuyến đường sắt vận chuyển hàng hóa ra thị trường cũng giống như việc đưa binh lính ra trận, nhưng chúng không có tiềm năng hủy diệt. Các công nghệ hạt nhân thường được sử dụng kép và có thể tạo ra khả năng phá hủy to lớn, nhưng cơ sở hạ tầng phức tạp của chúng cho phép chính phủ kiểm soát tương đối an toàn. Một khẩu súng săn có thể được sử dụng rộng rãi và có cả các ứng dụng quân sự và dân sự, nhưng khả năng hạn chế của nó ngăn cản người sử dụng gây ra sự hủy diệt ở mức độ chiến lược.
Thông minh nhân tạo phá vỡ mô hình giá trị này. Nó được sử dụng kép một cách dứt khoát. Nó lan toả một cách dễ dàng – về bản chất, không nhiều hơn các dòng mã: hầu hết các thuật toán (với một số ngoại lệ đáng chú ý) có thể được chạy trên các máy tính duy nhất hoặc các mạng nhỏ, có nghĩa là các chính phủ gặp khó khăn trong việc kiểm soát công nghệ bằng cách kiểm soát cơ sở hạ tầng. Cuối cùng, các ứng dụng về thông minh nhân tạo có tiềm năng phá hủy đáng kể. Việc kết hợp độc đáo một cách tương đối các phẩm chất, khi kết hợp với các bên có liên quan, tạo ra những thách thức chiến lược về sự phức tạp mới lạ.
Các vũ khí do thông minh nhân tạo hỗ trợ có thể cho phép đối thủ phát động các cuộc tấn công bằng kỹ thuật số với tốc độ đặc biệt, tăng tốc đáng kể khả năng của con người trong việc khai thác các tính cách gây tổn thương của kỹ thuật số. Như vậy, một quốc gia có thể không có thời gian để đánh giá các dấu hiệu của một cuộc tấn công sắp tới một cách có hiệu quả.
Thay vào đó, quốc gia có thể cần phải phản ứng tức thời hoặc có nguy cơ vô hiệu hóa. Nếu một quốc gia có các phương tiện, nó có thể chọn phản ứng gần như đồng thời, trước khi cuộc tấn công có thể xảy ra toàn diện, bằng cách xây dựng một hệ thống thông minh nhân tạo hỗ trợ để nhận ra các cuộc tấn công và tạo khả năng cho hệ thống này có khả năng phản công.
Đối với đối phương, sự tồn tại của một hệ thống như vậy và kiến thức mà nó có thể hành động không cần cảnh báo có thể phục vụ như một động lực để xây dựng và hoạch định bổ sung, có thể bao gồm phát triển công nghệ song song hoặc dựa trên các thuật toán khác nhau. Trừ khi thực hiện việc theo dõi để phát triển một khái niệm chung về các giới hạn, sự ép buộc phải hành động trước tiên có thể áp đảo sự cần thiết phải hành động một cách khôn ngoan – như trường hợp vào đầu thế kỷ XX – nếu thực sự con người tham gia vào các quyết định như vậy.
Trên thị trường chứng khoán, các doanh nghiệp được gọi là tinh vi đã nhận ra rằng các thuật toán thông minh nhân tạo có thể phát hiện các mô hình thị trường và phản ứng với tốc độ vượt quá tốc độ của ngay cả những nhà giao dịch có khả năng nhất. Theo đó, các doanh nghiệp như vậy đã ủy quyền kiểm soát một số khía cạnh nhất định của giao dịch chứng khoán của họ cho các thuật toán này. Trong nhiều trường hợp, các hệ thống thuật toán này có thể vượt quá lợi nhuận của con người với một biên độ đáng kể. Tuy nhiên, đôi khi các hệ thống tính toán sai lầm – có khả năng vượt xa lỗi tồi tệ nhất của con người.
Trong thế giới tài chính, những sai lầm như vậy tàn phá bảng danh mục đầu tư nhưng không làm chết người. Tuy nhiên, trong lĩnh vực chiến lược, một lỗi thuật toán tương tự như „sự cố“ có thể là thảm họa. Nếu phòng thủ chiến lược trong lĩnh vực kỹ thuật số đòi hỏi tấn công chiến thuật, nếu một bên sai lầm trong tính toán hoặc hành động của nó, một mô hình leo thang có thể được kích hoạt một cách vô tình.
Những nỗ lực để kết hợp những khả năng mới này vào một khái niệm về chiến lược đã được định nghĩa và quân bình quốc tế rất phức tạp bởi thực tế là hiểu biết chuyên môn cần thiết cho ưu thế công nghệ không còn tập trung hoàn toàn trong chính phủ. Nhiều tác nhân và tổ chức tham gia vào việc định hình công nghệ với ý nghĩa chiến lược – từ các nhà thầu cho chính phủ theo truyền thống đến các nhà phát minh cá nhân, doanh nhân, doanh gia khởi nghiệp và các phòng thí nghiệm nghiên cứu của tư nhân.
Không phải tất cả mọi người sẽ coi nhiệm vụ của họ là vốn đã tương thích với các mục tiêu quốc gia theo định nghĩa của chính phủ liên bang. Một tiến trình giáo dục hỗ tương giữa ngành công nghiệp, học viện và chính phủ có thể giúp thu hẹp khoảng cách này và đảm bảo rằng các nguyên tắc chính trong ý nghĩa chiến lược của thông minh nhân tạo được hiểu trong một khuôn khổ khái niệm chung. Ít thời đại đã phải đối mặt với một thách thức chiến lược và công nghệ rất phức tạp như vậy và với rất ít có sự đồng thuận về bản chất của thách thức hoặc thậm chí từ vựng cần thiết để thảo luận về nó.
Thách thức chưa được giải quyết của thời đại hạt nhân là nhân loại đã phát triển một nền công nghệ mà các nhà chiến lược không thể tìm thấy học thuyết điều hành khả thi. Tình thế tiến thoái lưỡng nan của thời đại thông minh nhân tạo sẽ là khác biệt: việc định nghĩa công nghệ sẽ được chấp nhận, chế ngự và sử dụng một cách rộng rãi. Thành quả trong sự kiềm chế chiến lược hỗ tương, hoặc thậm chí đạt được một định nghĩa chung về sự kiềm chế, sẽ khó khăn hơn bao giờ hết, cả về hai mặt khái niệm và thực tế.
Việc quản lý các vũ khí hạt nhân, nỗ lực từ nửa thế kỷ, vẫn chưa hoàn tất và phân hoá. Tuy nhiên, thách thức của việc đánh giá tình trạng quân bình về hạt nhân tương đối đơn giản. Đầu đạn có thể được đếm, và năng suất của chúng đã được biết đến. Ngược lại, khả năng của thông minh nhân tạo không cố định; các khả năng này năng động. Không giống như các vũ khí hạt nhân, thông minh nhân tạo rất khó theo dõi: một khi được huấn luyện, chúng có thể được sao chép dễ dàng và được cho chạy trên các máy tương đối nhỏ. Và với nền công nghệ hiện tại, việc phát hiện sự hiện diện hoặc xác minh sự vắng mặt của thông minh nhân tạo là có khó khăn hoặc là không thể Trong thời đại này, sự răn đe có thể sẽ phát sinh từ sự phức tạp, từ sự đa dạng của các vectơ thông qua đó một cuộc tấn công do thông minh nhân tạo hỗ trợ có thể di chuyển và từ tốc độ của các phản ứng của thông minh nhân tạo tiềm tàng.
Để xử lý thông minh nhân tạo, các nhà chiến lược phải xem xét làm thế nào nó có thể được tích hợp vào trong một mô hình quan hệ quốc tế đầy trách nhiệm. Trước khi các vũ khí được điều động, các chiến lược gia phải hiểu được tác động lặp đi lặp lại của việc sử dụng chúng, tiềm năng của leo thang và phương cách để giảm việc leo thang. Một chiến lược sử dụng có trách nhiệm, hoàn chỉnh với các nguyên tắc kiềm chế là chủ yếu. Giới hoạch định chính sách nên nỗ lực giải quyết đồng thời vũ trang, công nghệ phòng thủ và chiến lược, cùng với kiểm soát vũ khí thay vì coi chúng là các biện pháp khác biệt về mặt thời gian và đối kháng về mặt chức năng. Các học thuyết phải được soạn thảo và các quyết định phải được đưa ra trước khi sử dụng.
Vậy thì những yêu cầu của sự kiềm chế sẽ là gì? Việc áp đặt sự kiềm chế theo truyền thống là một khởi điểm rõ ràng. Trong thời Chiến tranh Lạnh, khảo hướng đánh dấu một số tiến bộ, ít nhất là về mặt biểu tượng. Một số khả năng bị hạn chế (ví dụ như đầu đạn); những loại khảo hướng khác (chẳng hạn như các loại tên lửa tầm trung) đã bị cấm hoàn toàn. Nhưng việc không hạn chế các khả năng cơ bản của thông minh nhân tạo cũng như không hạn chế số lượng của chúng sẽ hoàn toàn tương thích với việc sử dụng rộng rãi trong lĩnh vực dân sự và sự phát triển liên tục của nền công nghệ. Các hạn chế bổ sung sẽ phải được nghiên cứu, tập trung vào việc thông minh nhân tạo và các khả năng.
Trong một quyết định đã phần nào thấy trước được thách thức này, Hoa Kỳ đã phân biệt giữa việc làm cho cuộc chiến do con người tiến hành chính xác hơn, gây chết người hơn và hiệu quả hơn, và đưa ra quyết định gây chết người từ các máy do con người điều động nhưng theo một cách tự động của máy. Hoa Kỳ đã tuyên bố mục tiêu của mình để hạn chế sử dụng cho loại đầu tiên. Hoa Kỳ khao khát một thế giới trong đó không một ai, kể cả chính Hoa Kỳ, sở hữu loại máy thứ hai. Sự phân biệt này là khôn ngoan.
Đồng thời, khả năng học hỏi về công nghệ và do đó phát triển có thể khiến những hạn chế đối với một số khả năng nhất định là không đủ. Xác định bản chất và cách thức kiềm chế đối với các vũ khí do thông minh nhân tạo hỗ trợ và đảm bảo sự kiềm chế hỗ tương, sẽ rất là quan trọng.
Trong thế kỷ XIX và XX, các quốc gia đã phát triển những hạn chế đối với một số hình thức nhất định về binh pháp: ví dụ như việc sử dụng các vũ khí hóa học và đặt mục tiêu không phù hợp vào các dân thường. Khi vũ khí thông minh nhân tạo làm cho các loại hoạt động mới rộng lớn trở nên khả thi, hoặc làm cho các hình thức hoạt động cũ trở nên mới mạnh mẽ, các quốc gia trên thế giới phải đưa ra quyết định khẩn cấp liên quan đến những gì tương thích với các khái niệm về phẩm giá cố hữu nơi con người và nền tảng đạo đức. Nền an ninh đòi hỏi dự đoán về những gì sắp xảy ra, không chỉ đơn thuần là phản ứng với những gì vốn dĩ đã hiện diện.
Nền công nghệ về vũ khí có liên quan đến thông minh nhân tạo đặt ra vấn đề nan giải trong việc duy trì nghiên cứu và phát triển là cần thiết cho sự sống còn của quốc gia. Nếu không có vũ khí, chúng ta sẽ mất khả năng cạnh tranh thương mại và sự liên quan. Nhưng cho đến nay, sự phổ biến gắn liền với nền công nghệ mới đã cản trở bất kỳ nỗ lực kiềm chế đàm phán nào, ngay cả về mặt khái niệm.
Một dò dẫm xưa cũ trong một thế giới mới
Mỗi quốc gia công nghệ tiên tiến quan trọng cần phải hiểu rằng nó đang ở ngưỡng cửa của một sự chuyển đổi chiến lược có hậu quả như sự ra đời của các vũ khí hạt nhân, nhưng với các hiệu ứng sẽ đa dạng hơn, phân tán và không thể đoán trước. Mỗi xã hội đang tiến triền tới các lằn ranh của thông minh nhân tạo nên nhằm mục đích triệu tập một cơ quan ở cấp quốc gia để cứu xét các khía cạnh quốc phòng và an ninh của thông minh nhân tạo và kết nối các quan điểm của các đường hướng khác nhau mà nó sẽ định hình trong việc tạo ra và triển khai của thông minh nhân tạo. Cơ quan này nên được giao phó hai chức năng: đảm bảo khả năng cạnh tranh với các nơi khác của thế giới và, đồng thời, phối hợp nghiên cứu về cách ngăn chặn hoặc ít nhất là hạn chế tình trạng leo thang hoặc khủng hoảng không mong muốn. Trên cơ sở này, một số hình thức đàm phán với các đồng minh và đối thủ sẽ là cần thiết.
Nếu chiều hướng này được khám phá, điều cần thiết là các cường quốc về thông minh nhân tạo chính của thế giới, Hoa Kỳ và Trung Quốc, phải chấp nhận thực tế này. Họ có thể kết luận rằng, bất cứ cuộc cạnh tranh nào khác mà một giai đoạn cạnh tranh mới nổi có thể mang lại, Hoa Kỳ và Trung Quốc nên tìm kiếm sự đồng thuận rằng họ sẽ không tham gia vào một cuộc chiến nhau về nền công nghệ tiên tiến. Một đơn vị hoặc tập hợp các quan chức cấp cao trong mỗi chính phủ có thể được giao nhiệm vụ theo dõi và báo cáo trực tiếp cho tổng thống của mình về những nguy hiểm mới và cách tránh chúng.
Trong khi soạn thảo bài viết này, đây không phải là một nỗ lực phù hợp với ý kiến của công chúng ở cả hai quốc gia. Tuy nhiên, khi hai cường quốc càng đối xử với nhau càng trong lâu dài như những đối thủ được định chế hóa mà không thực hiện một cuộc đối thoại như vậy, thì cơ hội xảy ra tai nạn sẽ xảy ra càng lớn mà trong đó cả hai bên đều bị thúc đẩy bởi cuộc đối thoại của họ về các công nghệ và lịch trình triển khai trong một cuộc khủng hoảng mà cả hai đều không tìm kiếm và cả hai đều hối tiếc, và điều đó có thể bao gồm xung đột quân sự trong quy mô toàn cầu.
Nghịch lý của một hệ thống quốc tế là mọi cường quốc đều được thúc đẩy để hành động, thực sự phải hành động, để tối đa hóa nền an ninh của chính mình. Tuy nhiên, để tránh một loạt các cuộc khủng hoảng liên tục, mỗi bên phải chấp nhận một số ý thức trách nhiệm đối với việc duy trì nền hòa bình chung. Và tiền trình này liên quan đến việc công nhận các giới hạn. Các nhà hoạch định quân sự hoặc quan chức về an ninh sẽ suy nghĩ (không sai) về các tình huống xấu nhất và ưu tiên tiếp thu các khả năng để đáp ứng chúng. Chính khách (có thể là một người và người tương tự) có nghĩa vụ phải xem xét những khả năng này sẽ được sử dụng như thế nào và thế giới sẽ ra sao sau đó.
Trong thời đại thông minh nhân tạo, tính thuần lý về mặt chiến lược trong lâu dài nên được điều chỉnh. Chúng ta sẽ cần phải vượt qua, hoặc ít nhất là dung hoà, động lực hướng tới sự tự động trước khi thảm họa xảy ra. Chúng ta phải ngăn chặn thông minh nhân tạo hoạt động nhanh hơn những quyết định của con người thực hiện qua các hành động không thể cứu vãn với hậu quả về chiến lược. Các phòng thủ sẽ phải được tự động hóa mà không phải nhượng lại các yếu tố thiết yếu của sự kiểm soát của con người. Tính chất mơ hồ vốn có trong lĩnh vực – kết hợp với những tính chất năng động, mới nổi của thông minh nhân tạo và sự dễ phổ biến – sẽ làm phức tạp thêm các đánh giá. Trong các thời đại trước đó, chỉ có một số ít các cường quốc hoặc siêu cường chịu trách nhiệm kiềm chế khả năng phá hoại của họ và tránh thảm họa. Sự phổ biến có thể không bao lâu sẽ dẫn đến nhiều tác nhân nhận một nhiệm vụ tương tự.
Các nhà lãnh đạo của thời đại này có thể khao khát hương tới sáu nhiệm vụ chính trong việc kiểm soát kho vũ khí của họ, với sự kết hợp rộng rãi và năng động của các khả năng quy ước, hạt nhân, tong không gian mạng và thông minh nhân tạo.
Thứ nhất, các nhà lãnh đạo của các quốc gia kình địch phải sẵn sàng nói chuyện với nhau thường xuyên, như những người tiền nhiệm của họ đã làm trong thời Chiến tranh Lạnh, về các hình thức chiến tranh mà họ không muốn chiến đấu. Để hỗ trợ cho nỗ lực này, Washington và các đồng minh nên tự tổ chức xung quanh các lợi ích và giá trị mà họ xác định là phổ biến, cố hữu và bất khả xâm phạm và bao gồm kinh nghiệm của các thế hệ đến thời kỳ vào cuối Chiến tranh Lạnh hoặc sau đó.
Thứ hai, những khó khăn chưa được giải quyết của chiến lược hạt nhân phải được chú ý mới và công nhận chúng là vấn đề gì, một trong những thách thức quan trọng về chiến lược, kỹ thuật và đạo đức của con người. Trong nhiều thập kỷ, các ký ức về Hiroshima và Nagasaki còn đang âm ỉ đã buộc phải công nhận các vấn đề hạt nhân là một nỗ lực độc nhất và nghiêm trọng. Cựu Ngoại trưởng George Shultz nói trong năm 2018 trước Quốc hội Mỹ: „Tôi sợ mọi người đã đánh mất cảm giác sợ hãi đó“. Các nhà lãnh đạo của các quốc gia có các vũ khí hạt nhân phải nhận ra trách nhiệm của họ để phối hợp trong việc ngăn chặn thảm họa.
Thứ ba, các cường quốc về không gian mạng và thông minh nhân tạo hàng đầu nên cố gắng xác định các học thuyết và giới hạn của họ (ngay cả khi không phải tất cả các khía cạnh của vấn đề đều được công bố công khai) và xác định các điểm tương ứng giữa học thuyết của họ và của các cường quốc đối thủ. Nếu sự răn đe chiếm ưu thế hơn việc sử dụng, nền hòa bình là ưu tiên hơn tình trạng xung đột và xung đột được hạn chế ưu tiên hơn so với xung đột chung, các thuật ngữ này sẽ cần phải được hiểu và xác định theo các thuật ngữ phản ánh các khía cạnh đặc biệt của không gian mạng và thông minh nhân tạo.
Thứ tư, các quốc gia có vũ khí hạt nhân nên cam kết tiến hành đánh giá nội bộ về các hệ thống chỉ huy và kiểm soát và cảnh báo sớm. Những đánh giá không an toàn này sẽ xác định các biện pháp để tăng cường bảo vệ chống lại các mối đe dọa mạng và sử dụng trái phép, vô tình hoặc vô tình sử dụng các vũ khí hủy diệt hàng loạt. Những đánh giá này cũng nên bao gồm các chọn lựa nhiệm ý để ngăn chặn các cuộc tấn công trên mạng vào các cơ sở chỉ huy và kiểm soát hoặc cảnh báo sớm về hạt nhân.
Thứ năm, các quốc gia , đặc biệt là các quốc gia có nền công nghệ qua trọng, nên tạo ra các phương pháp mạnh mẽ và được chấp nhận để tối đa hóa thời gian ra quyết định trong thời kỳ căng thẳng gia tăng và trong các tình huống cùng cực. Việc này phải là một mục tiêu về khái niệm chung, đặc biệt là giữa các đối thủ, kết nối cả các bước trước mắt và dài hạn để xử lý sự bất ổn và xây dựng an ninh hỗ tương. Trong một cuộc khủng hoảng, con người phải chịu trách nhiệm sau cùng về việc liệu các vũ khí tiên tiến có được huy động không. Đặc biệt là các đối thủ nên cố gắng đồng ý về một cơ chế để đảm bảo rằng các quyết định có thể chứng minh không thể hủy bỏ được đưa ra với tốc độ có lợi cho suy nghĩ và cân nhắc của con người – và sự sống còn.
Cuối cùng, các cường quốc về thông minh nhân tạo nên xem xét làm thế nào để hạn chế sự phổ biến liên tục của thông minh nhân tạo trong quân sự hoặc có nên thực hiện một nỗ lực không phổ biến vũ khí hạt nhân có hệ thống được hỗ trợ bởi ngoại giao và mối đe dọa bằng vũ lực hay không. Ai là những người nhận ra nền công nghệ đầy tham vọng sẽ sử dụng nó cho các mục đích phá hoại không thể chấp nhận được? Các vũ khí thông minh nhân tạo cụ thể nào đảm bảo mối quan tâm này? Và ai sẽ thực thi lằn ranh đỏ? Các cường quốc về hạt nhân có cơ sở đã khám phá một khái niệm như vậy về phổ biến vũ khí hạt nhân, với thành công hỗn hợp. Nếu một công nghệ mới gây rối loạn và có tiềm năng phá hoại được phép biến đổi quân đội của các chính phủ thù địch hoặc không bị hạn chế về mặt đạo đức nhất thế giới, sự cân bằng chiến lược có thể khó đạt được và xung đột sau đó không thể kiểm soát được.
Do tính chất lưỡng dụng của hầu hết các công nghệ về thông minh nhân tạo, chúng tôi có nghĩa vụ đối với xã hội của chúng ta để duy trì vị trí hàng đầu trong nghiên cứu và phát triển. Nhưng điều này cũng sẽ buộc chúng ta phải hiểu các giới hạn. Nếu một cuộc khủng hoảng xảy ra, sẽ là quá muộn để bắt đầu thảo luận về những vấn đề này. Một khi được sử dụng trong một cuộc xung đột quân sự, tốc độ của công nghệ đảm bảo rằng nó sẽ đạt kết quả với tốc độ nhanh hơn là một cách mà đường lối ngoại giao có thể mở ra.
Một cuộc thảo luận về vũ khí trên mạng và thông minh giữa các cường quốc phải được thực hiện, nếu chỉ để phát triển một từ vựng chung về các khái niệm về chiến lược và một số ý nghĩa về ranh giới đỏ của đối phương. Ý chí để đạt được sự kiềm chế hỗ tương về những khả năng hủy diệt nhất không được chờ đợi khi bi kịch phát sinh. Khi nhân loại bắt đầu cạnh tranh trong việc tạo ra các vũ khí mới, phát triển và thông minh, lịch sử sẽ không tha thứ cho sự thất bại trong việc cố gắng thiết lập giới hạn. Trong thời đại của trí tuệ nhân tạo, việc tìm kiếm lợi thế quốc gia lâu dài phải được thông báo bởi một nền đạo đức trong việc bảo tồn con người.
Hết