Thời khắc Oppenheimer của AI

Nếu bạn đã từng coi qua phim Oppenheimer, có lẽ bạn sẽ nhớ tới quá trình mà Oppenheimer tạo ra quả bom nguyên tử đầu tiên trong Chiến tranh thế giới thứ 2, cái suy nghĩ của ông về thế giới sau thời khắc đó. Và nếu bạn cũng đã từng xem các bộ Captain America: Winter Soldier hay Captain America: Civil War, bạn sẽ nhận ra rằng AI đã đạt tới điểm mà nó có thể đẫn thế giới tới hai viễn cảnh: một viễn cảnh tươi đẹp của kỉ nguyên hoà bình, thịnh vượng, nơi AI đóng vai trò thúc đẩy con người, hay viễn cảnh đen tối của sự huỷ diệt.
Trong một video quảng cáo giả tưởng gần đây nhất mà Elbit System, công ty vũ khí của Israel với trị giá hàng tỉ đô la thực hiện, một nhóm quân nhân đang bị tấn công và truy sát bởi tên lửa. Một trong số họ kêu gọi sự trợ giúp khẩn cấp thông qua bộ đàm và ngay lập tức một nhóm máy bay không người lái đã lập tức tham chiến, mang theo chất nổ và bắt đầu quét để xác định đối tượng trước khi ra tay. Đây chỉ là một video quảng cáo cho sự tân tiến, hiện đại mà Elbit System đang thực hiện với AI, nó có phần hơi phô trương nhưng nó cũng cho thấy rằng, công nghệ AI đang thật sự bước vào thế giới của chúng ta, dưới một hình hài hoàn toàn khác so với trào lưu trợ lý AI xảy ra gần đây.

Trên thực tế, trong chiến tranh Ukraine vừa qua, quân đội Ukraine đã sử dụng các thiết bị không người lái với AI trên chiến trường để tấn công vào các giếng dầu của Nga. Hệ thống AI của Mỹ đã có khả năng xác định các đối tượng trong chiến tranh tại Syria, Yemen để tấn công hay lực lượng phòng quân Israel đã sử dụng hệ thống trang bị AI nhằm xác định 37,000 dân Palestine như nghi phạm trong tuần đầu tiên của chiến tranh tại Gaza. Ngoài ra, Mỹ hiện có tới hơn 800 dự án liên quan đến AI và ngốn kinh phí tới 1.8 tỉ đô chỉ trong năm 2024
ai-may-bay-tai-ukraine.jpegMáy bay không người lái được sử dụng tại Ukraine
Sự phát triển mạnh mẽ của AI khiến các quốc gia, nhất là quân đội, có những khao khát to lớn với công nghệ này, cho dù nó có thể sẽ trở thành một công cụ khó kiểm soát được cũng như mang tính sát thương cao. Thêm vào đó, thế giới hiện tại với những căng thẳng leo thang đã tạo điều kiện thuận lợi để thúc đẩy và kiểm thử khả năng của các công cụ này trong chiến tranh, tạo ra một mỏ vàng mà những người khổng lồ tại thung lũng Silicon hay các quốc gia không thể làm ngơ. Điều này tạo ra một làn sóng đầu tư mạnh mẽ dẫn tới những lo ngại rằng các hệ thống này dần len lỏi vào các lực lượng quân sự và sẽ thay đổi mối quan hệ của xã hội với công nghệ và chiến tranh.

Sự bùng nổ của AI dành cho chiến tranh

Dù sự phát triển của AI trong những năm gần đây đã tạo ra một làn sóng đầu tư mạnh mẽ, việc dịch chuyển về cá vũ khí tự động trong chiến tranh đã bắt đầu từ những thập kỉ trước, chỉ là chúng ít được công chúng biết đến. Sự thay dổi xảy ra khi công chúng ngày càng quan tâm hơn đến AI và những đột phá thực sự trong công nghệ này, nhất là khi máy móc hiện nay có khả năng đưa ra nhiều quyết định hơn mà không cần sự can thiệp của con người so với trước đây.

Với tiềm năng to lớn đó, sự khao khát tăng cao về công cụ chiến đấu kết hợp trí tuệ con người và máy móc đã thu hút các các công ty và cơ quan chính phủ đầu tư mạnh mẽ , hứa hẹn làm chiến tranh thông minh hơn, rẻ hơn và nhanh hơn. Một ví dụ điển hình là Lầu Năm Góc dự định chi 1 tỷ đô la vào năm 2025 cho dự án Replicator, nhằm phát triển các nhóm máy bay không người lái sử dụng trí tuệ nhân tạo để tìm kiếm các mối đe dọa. Hay Không quân sẽ phân bổ 6 tỷ đô la trong năm năm tới cho việc nghiên cứu và phát triển 1.000 chiếc máy bay chiến đấu không người lái kết hợp với AI. Bộ Quốc phòng cũng đảm bảo hàng trăm triệu USD cho dự án AI bí mật Project Maven, tập trung vào công nghệ nhận diện mục tiêu và giám sát.quan-doi-su-dung-ai.jpegVũ khí kết hợp AI đang là một mỏ vàng mà nhiều quốc gia, tập đoàn muốn tham gia
Nhu cầu quân sự gia tăng đối với AI và tính tự động đã mang lại lợi ích lớn cho các công ty công nghệ và quốc phòng khi họ giành được các dự án khổng lồ để phát triển các vũ khí khác nhau. Rất nhiều công ty công nghệ như Anduril do Palmer Luckey sáng lập, hay Palantir của Peter Thiel đã và đang tham gia những dự án AI quân sự và nhận được những hợp đồng từ Lầu Năm Góc. Những công ty này đã phần nào đóng vai trò quan trọng trong việc hỗ trợ Mỹ gửi hàng trăm máy bay hay các thiết bị rà bom, mìn đến Ukraine. Không dừng lại ở đó, Lầu Năm Góc tiếp tục trao cho họ những hợp đồng khác nhằm phát triển những vũ khí AI mạnh mẽ hơn.
Anduril và Palantir, được đặt tên theo một thanh gươm huyền thoại và viên đá thần kỳ trong Chúa tể những chiếc nhẫn, chỉ đại diện cho một phần nhỏ của cuộc chạy vũ trang vào mỏ vàng này. Rất nhiều công ty khác như Helsing tại Đức, Elbit System của Israel cũng đã có được những hợp đồng tương tự nhằm phát triển hệ thống phòng thủ, vũ khí tự động bằng AI điều này thật sự đáng lo ngại.
Các công ty công nghệ lớn cũng không đứng ngoài cuộc chơi này. Google đã từng bị nhân viên phản đối vào năm 2018 khi ban lãnh đạo muốn tham gia vào dự án Maven của quân đội vì điều đó vi phạm nguyên tắc đạo đức. Google ban đầu đã nhượng bộ nhưng sau đó đã thay đổi và kí kết các hợp đồng với Israel hay chính phủ, đồng thời sa thải các nhân viên phản đối vì cho rằng họ không phù hợp với định hướng của công ty.

Hộp đen kép

Một trong những rủi ro đầu tiên là khi tiền được đổ vào công nghệ quốc phòng, nhiều công ty và công nghệ có thể hoạt động thiếu minh bạch và vô trách nhiệm. Họ thường được bảo vệ khỏi trách nhiệm pháp lý khi sản phẩm của họ vô tình không hoạt động như dự định, cho dù kết quả có thế nào đi chăng nữa. Ngoài ra, họ cũng được bảo mật các thông tin theo quy định của cơ quan an ninh Hoa Kỳ và điều này cho phép họ không phải chia sẻ về cách hệ thống của họ hoạt động.
Và khi các cách thức hoạt động vốn đã là bí mật, không minh bạch, được các quốc gia đặt vào vòng kềm toả bí mật an ninh, nó vô hình chung tạo thành một “hộp đen kép”. Điều này tạo nên một quan ngại rằng liệu những hệ thống đó có hoạt động một cách chính xác, đúng đắn, hay có đạo đức không.
Ví dụ thôi, khi bạn sử dụng AI, bạn sẽ luôn phải kiểm tra kép kết quả mà nó trả về cho bạn, vì sẽ luôn có sự sai lệch, thiên kiến, hay sai số. Vậy nếu điều này xảy ra với một hệ thống quân sự xác định mục tiêu và có sai số 10%, thì sẽ thế nào?

Con người liệu có thật sự được tham gia?

Câu hỏi đặt ra là khi các thiết bị không người lái phát triển mạnh mẽ, kết hợp với AI cùng khả năng tự ra quyết định, con người sẽ ở đâu trong suốt quá trình này, nhất là đôi khi AI vốn có thể đưa ra những quyết định tốt hơn so với con người?ai-may-bay-khong-nguoi-lai.jpegLiệu con người có thật sự kiểm soát được các thiết bị AI?
Các công ty công nghệ, quân sự và các quốc gia vẫn sẵn lòng tham gia vào các cuộc tranh luận về đạo đức và trách nhiệm và cam kết sẽ có con người tham gia trong suốt quá trình vận hành của các hệ thống, vũ khí đó, đồng thời sẽ không trao toàn bộ quyền quyết định cho máy móc, AI. Tuy nhiên, việc đạt được sự đồng thuận về cách con người giám sát chúng không phải là một việc dễ dàng.

Sự phức tạp của tâm lý con người cũng như thái độ với trách nhiệm khiến cho việc thống nhất về vai trò của con người trở nên khó khăn. Đơn cử với xe tự lái, các hãng xe vẫn đặt con người vào đó, cho phép họ giành quyền kiểm soát khi cần. Nhưng giả định rằng khi hệ thống mắc sai lầm dẫn tới tai nạn thảm khốc hoặc có tác động dẫn tới việc người lái đưa ra quyết định sai lầm, thì ai sẽ là người chịu trách nhiệm: hệ thống hay con người?

Khó khăn, thách thức trong việc quản lý

Với những thách thức và rủi ro kể trên, không khó hiểu khi rất nhiều tổ chức, quốc gia muốn hình thành một cơ chế để kiểm soát các vũ khí tự động, các hệ thống phòng thủ kết hợp AI. Tại một cuộc họp vào cuối tháng 4 vừa rồi tại Vienna, các nhà ngoại giao từ 143 quốc gia đã kêu gọi hình thành các quy định quản lý những công cụ này, nhằm đảm bảo rằng quyền đưa ra quyết định vẫn nằm trong tay con người. Việc tăng cường kiểm tra cách sản xuất và sử dụng vũ khí tự động trong chiến tranh nhận được sự ủng hộ rộng rãi quốc tế. Tuy nhiên các quốc gia chịu trách nhiệm lớn nhất như Nga, Trung Quốc, Hoa Kỳ, Israel, Ấn Độ, Hàn Quốc và Úc đều không đồng ý rằng nên có bất kỳ luật quốc tế mới nào liên quan đến vũ khí tự động.bieu-tinh-kiem-soat-ai.jpegBiểu tình ngoài trụ sợ của Elbit System tại Leicester City, UK
Ngoài ra, không quá khó hiểu khi các công ty quốc phòng và công nghệ cũng đang đẩy lùi việc hình thành các quy định quản lý. Họ đưa ra những cam kết mập mờ về việc đảm bao quyền quyết định của con người trong khi công khai phản đối các quy định và lệnh cấm đối với vũ khí tự động. CEO của Palantir, Alex Karp, đã nhiều lần nhắc đến Oppenheimer, mô tả vũ khí tự động và AI là một cuộc đua toàn cầu vì ưu thế chống lại các đối thủ địa chính trị như Nga và Trung Quốc.
Nhưng nhìn một cách tổng thể thì việc thiếu đi các định chế quản lý không phải là vấn đề duy nhất mà con người phải đối mặt. Điều thật sự quan trọng hơn là khi những hệ thống kết hợp AI này được tích hợp sâu vào quân đội, việc muốn đưa ra các quy định quản lý sẽ trở nên khó khăn hơn rất nhiều. Nó giống như việc bạn chuyển từ việc sử dụng điện thoại đập đá sang việc sử dụng iPhone/Samsung khiến mọi thứ trở nên đơn giản, tiện lợi hơn, gây nghiện hơn. Nhưng với quân sự và chiến tranh, sự tiện dụng nếu không đi kèm với các mức quản lý phù hợp, thì đôi khi một sai sót nhỏ từ hệ thống, hay con người có thể để lại hậu quả rất lớn
Và nếu, một viễn cảnh khác xảy ra là khi vũ khí tự động và AI được sử dụng sai mục đích và hướng tới việc trở thành một công cụ thực thi pháp luật thì sẽ thế nào? Nó giống như việc thay vì chĩa súng vào kẻ thù, nòng súng lại đang quay trở về nhà và chĩa vào người dân. Bạn có thấy cảnh này quen không, khi nó đã từng được thực hiện trong Captain America: Winter Soldier hay thậm chí cả Civil War?

Kết luận

Vậy là, AI đến, tạo ra một trào lưu bùng nổ về việc sử dụng như một công cụ khiến cuộc sống tốt hơn: trợ lý ảo, nghiên cứu, phát triển. Nhưng nó mang theo những hệ luỵ, như khi hộp đen Pandora được mở ra, khi mà AI dần len lỏi vào các hệ thống quân sự, trong bối cảnh thế giới có nhiều cuộc căng thẳng leo thang như hiện tại, sẽ đặt ra rất nhiều rủi ro và thách thức mà con người phải đối mặt. Và nếu không xử lý một cách phù hợp, thì có lẽ một lần nữa thời khắc mà Oppenheimer nói câu “Now I am become Death the destroyer of the world”, sẽ lại đến.
Nguồn [1][2][3]

Nguồn: Tinhte.vn