Tương lai đầy lo lắng: Việc AI được sử dụng như vũ khí chống lại loài người

Tương lai đầy lo lắng: Việc AI được sử dụng như vũ khí chống lại loài người

Nghiên cứu mới chỉ ra rằng tin tặc có thể lợi dụng trí tuệ nhân tạo ChatGPT để tạo mã độc từ các yêu cầu đơn lẻ, đe dọa an toàn bảo mật Điều này đặt ra mối lo ngại lớn về việc AI có thể bị 'vũ khí hóa' để chống lại con người

Tại buổi lễ tốt nghiệp của Học viện Không quân Mỹ đầu tháng 8 vừa qua, Tổng thống Biden cảnh báo về sức mạnh của Trí tuệ Nhân tạo (AI), và dự đoán rằng trong tương lai không xa, công nghệ này có thể "vượt qua suy nghĩ của con người". Ông Biden gọi đó là một cơ hội đáng kinh ngạc, nhưng cũng nhấn mạnh rằng chúng ta cần giải quyết nhiều vấn đề liên quan đến nó.

Trong cuộc phỏng vấn gần đây, Chủ tịch Microsoft - Brad Smith cho rằng nếu không có sự can thiệp của con người, Trí tuệ Nhân tạo có thể trở thành vũ khí đe dọa sự sống. Ông Smith nhấn mạnh rằng mọi công nghệ đều có tiềm năng trở thành công cụ hữu ích nhưng cũng có thể trở thành vũ khí. Do đó, cần đảm bảo rằng AI sẽ phải chịu sự kiểm soát của con người để có thể kiểm soát và ngừng lại khi cần thiết.

Microsoft hiện là một trong những công ty hàng đầu trong lĩnh vực phát triển trí tuệ nhân tạo và đã đầu tư sớm vào OpenAI, "cha đẻ" của ChatGPT. Hãng đã đầu tư hàng tỷ USD để nghiên cứu và ứng dụng công nghệ AI tiên tiến này vào các sản phẩm của mình, bao gồm cả Bing - công cụ tìm kiếm tương tự như Google Search. Mặc dù Microsoft tích cực thúc đẩy lợi ích của AI, ông Smith đã khẳng định rằng công ty nhận thức được những rủi ro tiềm ẩn khi sử dụng AI và cùng lúc cũng đang nỗ lực thuyết phục các công ty khác "tuân thủ đúng nguyên tắc".

Tương lai đầy lo lắng: Việc AI được sử dụng như vũ khí chống lại loài người

AI có thể tốt hoặc xấu tuỳ thuộc vào việc con người làm thế nào để kiểm soát công nghệ này.

Không chỉ áp dụng vào các ứng dụng hàng ngày, trí tuệ nhân tạo ngày càng trở thành một công cụ mạnh mẽ trong lĩnh vực an ninh mạng. Sự ra đời của ChatGPT vào tháng 11/2022 đã trở thành đề tài tranh luận về trí tuệ nhân tạo, tiếp tục cho thấy những tác động đáng kể của công nghệ Neural Network và tiết lộ khả năng đe dọa của trí tuệ nhân tạo đối với các ngành công nghiệp toàn cầu.

Một trong những cuộc tranh luận xoay quanh ChatGPT là việc tội phạm mạng lợi dụng công nghệ này để gia tăng các cuộc tấn công lừa đảo và phần mềm độc hại. Nghiên cứu đã chỉ ra rằng tin tặc có thể tận dụng công cụ này để tạo ra mã độc thông qua các yêu cầu đơn lẻ, nhằm tránh các quy tắc an toàn.

Tại Tuần lễ An ninh mạng gần đây tại Indonesia, Kaspersky, một công ty bảo mật, đã giới thiệu khái niệm Cyber Immunity, một phương pháp phát triển hệ thống CNTT với khả năng bảo vệ bẩm sinh.

Ông Eugene Kaspersky, Giám đốc điều hành của Kaspersky, cho biết: "Cyber Immunity là một công nghệ đại diện cho hệ thống bảo mật được thiết kế an toàn, có khả năng tạo ra giải pháp gần như không thể bị xâm phạm và giảm thiểu tối đa số lượng lỗ hổng tiềm ẩn. An ninh mạng truyền thống không còn đủ để bảo vệ chúng ta. Chúng ta cần cách mạng hóa hệ thống phòng thủ để tạo ra một thế giới kỹ thuật số an toàn hơn".

Khu vực APAC hiện đang dẫn đầu trong cuộc cách mạng Trí tuệ nhân tạo (AI). Theo một nghiên cứu mới đây của IDC, dự kiến chi tiêu cho AI trong khu vực này sẽ tăng gấp đôi sau 3 năm, từ 9,8 tỷ USD vào năm 2023 lên 18,6 tỷ USD vào năm 2026. Để tăng hiệu quả và giảm phụ thuộc vào công nghệ, hầu hết các doanh nghiệp địa phương đã đặt mục tiêu đưa AI vào danh mục công nghệ kinh doanh trong vòng 3 năm. Hiện nay, quy mô thị trường AI trong khu vực APAC đạt 22,1 tỷ USD và dự kiến sẽ tăng gần 4 lần lên 87,6 tỷ USD vào năm 2028.

Báo cáo của IDC cũng nhấn mạnh rằng Trung Quốc, Úc và Ấn Độ là ba quốc gia dẫn đầu về chi tiêu cho AI trên toàn khu vực và nhiều quốc gia khác sẽ đi theo. "Chúng tôi phải xác định lộ trình an toàn ngay bây giờ để khai thác lợi ích của công nghệ này mà không ảnh hưởng đến an ninh", Adrian Hia - Giám đốc điều hành khu vực APAC của Kaspersky, cho biết.