Sóng thần công nghệ và chính sách kiềm tỏa
Đầu tháng 1 năm nay, khi cuốn sách "The coming wave" của Mustafa Suleyman vừa dịch xong, tôi lập nhóm trao đổi với hai dịch giả của cuốn sách là anh Linh Hoang Vu và Sơn Phạm. Câu hỏi đầu tiên của tôi là: Tên sách tiếng Việt thế nào cho hay mà vẫn sát nghĩa nhỉ? Chúng tôi đã thảo luận về tên sách trong mấy ngày. Tôi có hai cảm giác rõ ràng: 1/ LÀN SÓNG SẮP TỚI rõ ràng là một thông điệp và nó được nhắc đi nhắc lại trong sách nhưng đã thực sự truyền tải được hàm ý của tác giả chưa?, 2/ LÀN SÓNG SẮP TỚI làm tôi, và rất có thể những người đọc khác, liên tưởng tới một cuốn sách nổi tiếng của Alvin Toffler, trong khi có lẽ Suleyman chẳng chịu ảnh hưởng nào của Toffler cả. Tôi đọc bản dịch, đọc các bài báo về AI, về Suleyman để tìm ý tưởng. Đến ngày thứ năm, tôi đọc được bài điểm sách trên tờ The Guardian về chính cuốn sách này: nó chính là thứ chúng tôi tìm kiếm. Tên của bài điểm sách chứa một từ khóa tuyệt vời: "a tech tsunami" (sóng thần công nghệ).
Trong buổi tọa đàm AI SUMMIT vào cuối tuần trước, có một nhà nghiên cứu chính sách hỏi chúng tôi tại sao lại đặt tên tiếng Việt cho cuốn sách như vậy, thì đây là câu trả lời - dưới đây là lược dịch bài điểm sách của Scott Shapiro, giáo sư luật và triết học tại Yale, đăng trên tờ The Guardian, 08/9/2023.
-----------------------
Người đồng sáng lập của DeepMind đưa ra một cảnh báo khủng khiếp về trí tuệ nhân tạo và sinh học tổng hợp - nhưng chúng ta nên ứng phó với nó kĩ càng đến mức nào?
Vào ngày 22 tháng 2 năm 1946, George Kennan, một nhà ngoại giao người Mỹ đóng tại Moscow, đã lệnh phát đi một bức điện tín 5.000 chữ gửi tới Washington. Trong bức điện nổi tiếng này, Kennan cảnh báo về khuynh hướng mở rộng của Liên Xô và kêu gọi chính phủ Mỹ phải chống lại mọi nỗ lực của nước này để gia tăng tầm ảnh hưởng của họ. Chiến lược này nhanh chóng được biết đến dưới cái tên “chính sách kiềm tỏa” - chính sách ngoại giao được Mỹ áp dụng trong vòng 40 năm tiếp theo.
“Sóng thần công nghệ" của Suleyman là một cảnh báo về cuộc xâm lược của công nghệ dưới hình thức là một cuốn sách gần 300 trang. Ông đưa ra quan điểm để thuyết phục độc giả rằng trí tuệ nhân tạo và sinh học tổng hợp đe dọa chính sự tồn tại của chúng ta và chúng ta chỉ có cơ hội ngăn chặn ít ỏi trước khi quá muộn. Tuy nhiên, không như các nguy cơ khác, chúng ta không phải chịu sức ép của trí tuệ nhân tạo và sinh học tổng hợp. Chúng ta tự nguyện áp dụng chúng vì hai lĩnh vực này không chỉ hứa hẹn về sự làm giàu chưa từng có, mà còn là giải pháp cho những vấn đề khó giải quyết nhất của chúng ta như biến đổi khí hậu, ung thư, thậm chí có thể là vấn đề sinh tử. Suleyman nhìn nhận được ra sức hút này và tất nhiên ông cho rằng những công nghệ này sẽ "mở ra một khởi đầu mới cho nhân loại".
Là một doanh nhân và nhà nghiên cứu trí tuệ nhân tạo, người đồng sáng lập DeepMind vào năm 2010, trước khi công ty này được Google mua lại vào năm 2014, Suleyman đạt phong độ viết hay nhất khi minh họa những hứa hẹn và nguy hiểm của thế giới mới này. Bằng lối viết nhẹ nhàng và đôi khi hồi hộp, ông mô tả làm thế nào con người cuối cùng đã có thể thể hiện sức mạnh trên trí tuệ và bản thân cuộc sống.
Nhìn các cuộc cách mạng trí tuệ nhân tạo mà xem, các mô hình ngôn ngữ như Chat GPT mới chỉ là sự khởi đầu. Suleyman dự đoán rằng sớm thôi, trí tuệ nhân tạo sẽ khám phá ra các loại thuốc kỳ diệu, chẩn đoán các bệnh hiếm, vận hành các kho hàng, tối ưu hóa giao thông, và thiết kế ra các thành phố bền vững. Chúng ta sẽ có thể yêu cầu một chương trình máy tính "kiếm 1 triệu đô trên Amazon trong vài tháng" và nó sẽ cho ra kết quả theo đúng ý mình.
Có một vấn đề nảy sinh là những công nghệ có thể giúp chúng ta chữa trị một căn bệnh thì cũng có thể được sử dụng để tạo ra một căn bệnh - điều này dẫn chúng ta đến những phần thực sự đáng sợ của cuốn sách. Suleyman lưu ý rằng chi phí của việc giải trình tự gen đã giảm đáng kể, trong khi khả năng chỉnh sửa các chuỗi ADN bằng các công nghệ như Crispr đã được cải tiến rất nhiều. Trong tương lai gần, bất kỳ ai cũng có thể lập ra một phòng thí nghiệm gen trong gara ô tô nhà mình. Ông dự đoán rằng tham vọng kiểm soát gen di truyền của con người là rất lớn.
Những người đột biến không còn là những nỗi đáng sợ duy nhất đang đợi chúng ta. Suleyman hình dung rằng trí tuệ nhân tạo và sinh học tổng hợp sẽ hợp lực để cho phép các hành động độc ác tạo ra các loại vi khuẩn mới. Với tỉ lệ truyền nhiễm là 4% (thấp hơn bệnh thủy đậu) và tỉ lệ tử vong là 50% (khoảng bằng bệnh sốt xuất huyết Ebola), một loại vi-rút được tạo ra bởi trí tuệ nhân tạo và kỹ thuật sinh học tổng hợp có thể "gây ra hơn một tỷ vụ tử vong trong vài tháng".
Bất chấp những rủi ro này, Suleyman nghi ngờ liệu có quốc gia nào sẽ nỗ lực ngăn chặn những công nghệ này hay không. Các quốc gia đã quá phụ thuộc vào lợi ích kinh tế của họ. Đây là tình thế tiến thoái lưỡng nan cơ bản: chúng ta không thể không xây dựng chính loại công nghệ có thể gây ra sự tuyệt chủng của chúng ta. Bạn có thấy quen không?
"Sóng thần công nghệ" không nói về mối đe dọa hiện hữu do AI siêu thông minh gây ra. Suleyman nghĩ rằng những trí tuệ nhân tạo thông minh đơn thuần đúng ra là sẽ gây nên sự tàn phá bởi vì chúng sẽ làm tăng đáng kể quyền tự quyết của con người trong một khoảng thời gian rất ngắn. Cho dù thông qua các cuộc tấn công mạng do AI tạo ra, các loại mầm bệnh tự chế, tình trạng mất việc làm do sự thay đổi công nghệ hay thông tin sai lệch làm trầm trọng thêm sự bất ổn chính trị, các tổ chức của chúng ta vẫn chưa sẵn sàng cho cơn sóng thần công nghệ này.
Ông liên tục nói với chúng ta rằng “làn sóng đang đến”, “sóng thần công nghệ đang đến”, thậm chí “sóng thần công nghệ đang đến thật sự đấy”. Tôi đoán rằng trải qua 15 năm nghiên cứu trí tuệ nhân tạo và từng bước trở thành triệu phú cũng sẽ biến bất kỳ ai thành một tín đồ thôi. Nhưng nếu nhìn lại quá khứ, trí tuệ nhân tạo cũng nổi tiếng với những thời kỳ bế tắc, khi những hứa hẹn lúc đầu bị bỏ ngỏ và nguồn tài trợ trở nên cạn kiệt trong thời gian dài. Suleyman bỏ qua khả năng thực tế là điều này có thể sẽ xảy ra lần nữa, qua đó cho chúng ta nhiều thời gian hơn để thích nghi và thậm chí ngăn chặn làn sóng thay đổi xã hội.
Nhưng ngay cả khi sự tiến bộ này tiếp tục với tốc độ điên cuồng của nó, thì cũng khó có khả năng xã hội sẽ dung thứ cho những hành vi lạm dụng đạo đức mà Suleyman lo sợ nhất. Khi một nhà khoa học Trung Quốc tiết lộ vào năm 2018 rằng ông đã chỉnh sửa gen của hai bé gái song sinh, ông đã bị kết án ba năm tù, bị lên án toàn diện và kể từ đó đã không có bất cứ vụ án nào tương tự được báo cáo. Liên minh châu Âu dự kiến cấm một số dạng trí tuệ nhân tạo nhất định trong dự thảo Luật trí tuệ nhân tạo sắp tới, chẳng hạn như nhận dạng khuôn mặt trong không gian công cộng. Sự phản kháng thường thấy về mặt pháp lý và văn hóa có thể sẽ làm chậm lại sự gia tăng của những hành vi gây rối và đáng lo ngại nhất.
Mặc dù tuyên bố rằng vấn đề ngăn chặn là "thách thức quyết định của thời đại chúng ta", Suleyman không ủng hộ việc tạm dừng sử dụng công nghệ (thật ra ông ấy vừa thành lập một công ty trí tuệ nhân tạo mới). Thay vào đó, ông đưa ra một loạt đề xuất ở cuối cuốn sách. Thật không may rằng, chúng không đủ khiến chúng ta an tâm.
Ví dụ, Suleyman đề xuất rằng các công ty AI chi 20% nguồn vốn nghiên cứu và phát triển vào nghiên cứu về an toàn, nhưng không nói rõ lý do tại sao các công ty lại chuyển vốn khỏi việc đưa sản phẩm mới của họ ra thị trường. Ông ủng hộ việc cấm trí tuệ nhân tạo trong các quảng cáo chính trị, nhưng làm như vậy sẽ vi phạm Hiến pháp Hoa Kỳ. Ông đề xuất một hiệp ước quốc tế chống phổ biến vũ khí hạt nhân, nhưng không cho chúng ta bất kỳ sự chỉ dẫn nào về việc thực thi. Có thời điểm, Suleyman gợi ý rằng Mỹ có thể sẽ cần ép buộc các nước khác tuân thủ. “Một số biện pháp chống phổ biến vũ khí hạt nhân là cần thiết. Và chúng ta hãy đừng né tránh sự thật; điều này chắc chắn là sự kiểm duyệt, có thể vượt ra ngoài biên giới quốc gia.” Tôi không biết chính xác ý ông ấy ở đây là gì, nhưng tôi không thích cách nó được truyền tải.
Suleyman thúc đẩy những đề xuất đắt đỏ này mặc dù thừa nhận rằng các kịch bản thảm khốc của ông là những rủi ro lớn. Đúng là xác suất xảy ra ngày tận thế là thấp, nhưng hậu quả có thể sẽ thảm khốc đến mức chúng ta phải coi khả năng này là một mối hiểm họa rõ ràng và hiện hữu. Một vấn đề rất lớn cần sự chú ý là biến đổi khí hậu. Không giống như thảm họa trí tuệ nhân tạo có thể xảy ra trong tương lai, tình trạng khẩn cấp về khí hậu đang xảy ra ngay bây giờ. Tháng 7 này là tháng có nhiệt độ nóng nhất từng được ghi nhận. Kiểm soát carbon, không phải trí tuệ nhân tạo, là thách thức quyết định của thời đại chúng ta. Tuy nhiên, ở đây, Suleyman lại lạc quan đến lạ. Ông tin rằng AI sẽ giải quyết được tình trạng khẩn cấp về khí hậu. Đó là một suy nghĩ tích cực nhưng nếu AI có thể giải quyết được vấn đề khí hậu thì tại sao nó lại không thể giải quyết được vấn đề ngăn chặn?
Nếu như những dự đoán về trí tuệ nhân tạo là chuẩn xác, chúng ta có thể yên tâm mà bỏ qua những đề xuất của nó. Đợi vài năm nữa chúng ta chỉ cần hỏi Chat GPT-5, -6 hoặc -7 về cách xử lý làn sóng công nghệ sắp tới.
share from Facebook Vu Trong Dai,
Post a Comment