Joseph S.Nye, Jr.
Đỗ Kim Thêm dịch

Nguồn ảnh: Sean Gallup/Getty Images
Một sự thật hiển nhiên là công nghệ phát triển nhanh hơn chính sách hay ngoại giao, đặc biệt khi nó được thúc đẩy bởi sự cạnh tranh khốc liệt trên thị trường trong khu vực tư nhân. Nhưng khi nói đến việc giải quyết các rủi ro bảo mật tiềm ẩn liên quan đến thông minh nhân tạo ngày nay, giới hoạch định chính sách cần phải tăng tốc.
Con người là loài chế tạo công cụ, nhưng liệu chúng ta có thể kiểm soát được công cụ mà chúng ta tạo ra không? Robert Oppenheimer và các nhà vật lý khác về phát triển vũ khí phân hạch hạt nhân đầu tiên vào những năm 1940 lo lắng rằng phát minh của họ có thể hủy diệt loài người. Cho đến nay, vấn đề này chưa xảy ra, nhưng kể từ đó, việc kiểm soát các vũ khí hạt nhân đã là một thách thức dai dẳng. Hiện nay, nhiều nhà khoa học coi thông minh nhân tạo – các thuật toán và phần mềm cho phép máy móc thực hiện các nhiệm vụ thường đòi hỏi trí thông minh của con người – là một công cụ biến đổi không kém. Giống như các công nghệ có mục đích chung trước đây, thông minh nhân tạo có tiềm năng to lớn về thiện và ác. Trong việc nghiên cứu về ung thư, nó có thể sắp xếp và tóm tắt nhiều nghiên cứu hơn trong vài phút so với việc một nhóm người có thể làm trong nhiều tháng. Tương tự như vậy, nó có thể dự đoán một cách đáng tin cậy các kiểu nếp gấp của protein mà các nhà nghiên cứu phải mất nhiều năm mới phát hiện ra.
Nhưng thông minh nhân tạo cũng làm giảm chi phí và rào cản để thâm nhập đối với những kẻ không phù hợp, khủng bố và kẻ xấu khác mà họ có thể muốn gây hại. Như một nghiên cứu gần đây của tổ chức nghiên cứu RAND đã cảnh báo, “chi phí cận biên để phục hồi một loại vi rút nguy hiểm tương tự như bệnh đậu mùa có thể chỉ khoảng 100.000 đô la Mỹ, trong khi việc phát triển một loại vắc xin phức tạp có thể lên tới hơn 1 tỷ đô la Mỹ”.
Hơn nữa, một số chuyên gia lo lắng rằng thông minh nhân tạo tiên tiến sẽ thông minh hơn con người rất nhiều đến mức mà nó sẽ kiểm soát chúng ta chứ không phải là chuyện ngược lại. Ước tính sẽ mất bao lâu để phát triển những cỗ máy siêu thông minh như vậy – được gọi là trí tuệ nhân tạo tổng hợp – dao động từ vài năm đến vài thập niên. Nhưng dù trong trường hợp nào nào đi nữa, thì những rủi ro ngày càng tăng từ thông minh nhân tạo hạn hẹp ngày nay đã đòi hỏi sự chú ý nhiều hơn.
Trong 40 năm, Nhóm Chiến lược thuộc học viện Aspen (bao gồm các cựu quan chức chính phủ, học giả, doanh nhân và nhà báo) đã nhóm họp vào mỗi mùa hè để tập trung vào vấn đề chính của nền an ninh quốc gia. Các phiên họp trước đây đã đề cập đến các chủ đề như vũ khí hạt nhân, tấn công trên mạng và sự trỗi dậy của Trung Quốc. Năm nay, chúng tôi tập trung vào những tác động của thông minh nhân tạo đối với vấn đề an ninh quốc gia, xem xét lợi ích cũng như rủi ro.
Trong số các lợi ích là khả năng to lớn hơn trong việc phân loại lượng dữ liệu tình báo khổng lồ, tăng cường hệ thống tiên báo, cải thiện hệ thống phức tạp về hậu cần và kiểm tra mã máy tính để cải thiện việc an ninh trên mạng. Nhưng cũng có những rủi ro to lớn, chẳng hạn như những tiến bộ trong vũ khí tự động, các lỗi vô tình trong lập trình các thuật toán và thông minh nhân tạo đối nghịch có thể làm suy yếu nền an ninh trên mạng.
Trung Quốc đã và đang đầu tư lớn lao vào công cuộc chạy đua rộng lớn hơn về vũ trang thông minh nhân tạo và nước này cũng tự hào có một số lợi thế về cấu trúc. Ba nguồn lực chính cho thông minh nhân tạo là dữ liệu để đào tạo các mô hình; kỹ sư thông minh để phát triển các thuật toán; và sức mạnh của máy điện toán để vận hành chúng. Trung Quốc có rất ít giới hạn pháp lý hoặc quyền riêng tư đối với việc truy cập dữ liệu (mặc dù ý thức hệ hạn chế một số bộ dữ liệu) và nước này có nguồn cung cấp dồi dào các kỹ sư trẻ thông minh. Lĩnh vực mà họ đi sau Hoa Kỳ nhiều nhất là microschip tiên tiến tạo ra sức mạnh tính toán cho thông minh nhân tạo.
Các biện pháp kiểm soát xuất khẩu của Mỹ hạn chế khả năng thâm nhập của Trung Quốc với những con chip tiên tiến này, cũng như các máy in thạch bản đắt tiền của Hà Lan sản xuất ra chúng. Các chuyên gia ở học viện Aspen đồng thuận là Trung Quốc đi sau Mỹ một hoặc hai năm; nhưng tình hình vẫn không ổn định. Mặc dù Tổng thống Joe Biden và Tập Cận Bình đã đồng ý tổ chức các cuộc thảo luận song phương về thông minh nhân tạo khi họ gặp nhau vào mùa thu năm ngoái, nhưng học viện Aspen không mấy lạc quan về triển vọng kiểm soát vũ khí thông minh nhân tạo.
Vũ khí tự động gây ra mối đe dọa cực kỳ nghiêm trọng. Sau hơn một thập niên ngoại giao tại Liên Hiệp Quốc, các nước vẫn chưa đạt được thỏa thuận về lệnh cấm vũ khí sát thương tự động. Luật nhân đạo quốc tế yêu cầu quân đội phân biệt đối xử giữa các chiến binh có vũ trang và dân thường, và Lầu Năm Góc từ lâu đã yêu cầu con người phải được tham gia vào tiến trình quyết định trước khi vũ khí được khai hoả. Nhưng trong một số bối cảnh, chẳng hạn như khi việc phòng thủ trước tên lửa đang tấn công, người ta không có đủ thời gian để can thiệp.
Vì bối cảnh rất quan trọng, nên con người phải xác định chặt chẽ (trong mã số) những gì vũ khí có thể và không thể làm. Nói môt cách khác, cần có con người “trong cuộc theo dõi” hơn là “chỉ có kiến thức”. Đây không chỉ là một số câu hỏi suy đoán. Trong cuộc chiến Ukraine, người Nga làm nhiễu tín hiệu của lực lượng Ukraine, buộc người Ukraine phải lập trình cho các thiết bị của họ để tự đưa ra quyết định cuối cùng về thời điểm khai hỏa.
Một trong những mối nguy hiểm đáng sợ nhất của thông minh nhân tạo là ứng dụng nó vào binh pháp sinh học hoặc khủng bố. Khi các quốc gia đồng ý cấm vũ khí sinh học vào năm 1972, mọi người đều tin rằng những thiết bị đó không hữu ích vì có nguy cơ gây “phản tác dụng” cho chính mình. Nhưng với sinh học tổng hợp, có thể phát triển một loại vũ khí tiêu diệt nhóm này và không phải nhóm khác. Hoặc một kẻ khủng bố có quyền thâm nhập vào phòng thí nghiệm mà họ có thể chỉ muốn giết càng nhiều người càng tốt, như giáo phái ngày tận thế Aum Shinrikyo đã làm ở Nhật Bản vào năm 1995. (Trong khi họ sử dụng sarin, một loại chất không thể lây truyền, thì giáo phái tương tự hiện đại có thể sử dụng thông minh nhân tạo để phát triển một loại virus truyền nhiễm.)
Trong trường hợp công nghệ hạt nhân, vào năm 1968, các nước đã đồng ý về một hiệp ước không phổ biến vũ khí hạt nhân và hiện có 191 thành viên. Cơ quan Năng lượng Nguyên tử Quốc tế thường xuyên kiểm tra các chương trình năng lượng trong nước để xác nhận rằng chúng chỉ được sử dụng cho mục đích hòa bình. Và bất chấp sự cạnh tranh gay gắt trong thời Chiến tranh Lạnh, các quốc gia hàng đầu về công nghệ hạt nhân đã đồng ý, vào năm 1978, thực hiện hạn chế xuất khẩu các cơ sở vật chất và kiến thức kỹ thuật nhạy cảm nhất. Tiền lệ như vậy gợi ý một số con đường cho thông minh, mặc dù có sự khác biệt rõ ràng giữa hai công nghệ. Một sự thật hiển nhiên là công nghệ phát triển nhanh hơn chính sách hay ngoại giao, đặc biệt khi nó được thúc đẩy bởi sự cạnh tranh khốc liệt trên thị trường trong khu vực tư nhân. Một kết luận quan trọng trong cuộc họp của Nhóm Chiến lược Aspen năm nay là các chính phủ cần phải tăng tốc.
***
Joseph S. Nye, Jr., giáo sư hồi hưu thuộc Trường Harvard Kennedy và cựu Trợ lý Bộ trưởng Quốc phòng Hoa Kỳ, tác giả cuốn sách Do Morals Matter? Presidents and Foreign Policy from FDR to Trump (NXB Oxford University Press, 2020) and A Life in the American Century (MXB Polity Press, 2024).