Những tiến bộ đáng kể của trí tuệ nhân tạo (AI) trong thời gian gần đây đã thu hút sự quan tâm toàn cầu. Việc xuất hiện các công cụ AI có khả năng sáng tác âm nhạc, vẽ tranh, viết luận hay lập trình đã khiến nhiều người dùng vô cùng thích thú.
Tuy nhiên, điều này cũng khiến nhiều người lo lắng vì sự thông minh của các công cụ AI có thể thay đổi hoàn toàn cuộc sống hàng ngày của con người, từ công việc, giáo dục cho đến các vấn đề liên quan đến bản quyền và quyền riêng tư.
Sự lo ngại này đã thúc đẩy các chính phủ tăng cường các biện pháp quản lý AI. Ở Mỹ, chính phủ đã soạn thảo hướng dẫn sử dụng và phát triển AI, đồng thời cam kết sử dụng các phương tiện pháp lý để chống lại các nguy cơ liên quan đến công nghệ này.
Trí tuệ nhân tạo đang ngày càng trở thành một phần không thể thiếu trong cuộc sống hiện đại. Trên thực tế, Trung Quốc đã bước đầu thể hiện sự quan tâm đối với lĩnh vực này bằng việc công bố một dự thảo quản lý các dịch vụ trí tuệ nhân tạo trên không gian mạng. Theo đó, các công ty sẽ buộc phải gửi đánh giá về bảo mật cho cơ quan quản lý trước khi triển khai các dịch vụ và sản phẩm của mình ra thị trường.
Tại EU, đang diễn ra một sự nỗ lực quyết liệt để quản lý trí tuệ nhân tạo, với mục tiêu tạo ra bộ luật đầu tiên trên thế giới trong lĩnh vực này.
Ngày 14/6, Nghị viện châu Âu (EP) đã thông qua những hướng dẫn chính trong dự thảo luật quản lý trí tuệ nhân tạo (AI), được đề xuất bởi Ủy ban châu Âu.
Theo đó, tất cả các nội dung được tạo ra bởi AI sẽ phải được đánh dấu và các ứng dụng sẽ được phân loại theo mức độ rủi ro. Các công ty muốn cung cấp ứng dụng AI tại EU sẽ phải tuân thủ các yêu cầu nghiêm ngặt và áp dụng biện pháp quản lý rủi ro cho sản phẩm của mình, nếu không muốn đối mặt với án phạt lên tới 6% tổng doanh thu hàng năm.
bao gồm việc xác định phạm vi áp dụng của quy định, quyền tự do và trách nhiệm của AI, cơ chế giám sát và kiểm soát, cũng như việc áp dụng các biện pháp phòng ngừa và trừng phạt vi phạm quy định.
Với việc phát triển nhanh chóng của công nghệ AI, Châu Âu đang đối mặt với nhiều thách thức trong việc thiết lập các quy định quản lý lĩnh vực này. Mặc dù đã có một số tiến bộ đáng kể, nhưng việc xây dựng các quy định quản lý công nghệ AI vẫn còn nhiều khó khăn. Các điểm chưa rõ ràng và sự khác biệt quan điểm giữa các nhà lập pháp cũng đang gây khó khăn trong quá trình này.
Các vấn đề đang gây tranh cãi mạnh mẽ chủ yếu liên quan đến việc bảo vệ quyền riêng tư và bản quyền, ví dụ như việc cho phép trí tuệ nhân tạo theo dõi hoạt động di chuyển của mỗi cá nhân trong không gian công cộng. Trung Quốc đang thực hiện điều này, nhưng đối với Liên minh châu Âu, đây được coi là xâm phạm quyền riêng tư. Một vấn đề khác đang gây tranh cãi là việc cho phép trí tuệ nhân tạo nhận dạng cảm xúc, như sau khi Đan Mạch sử dụng trí tuệ nhân tạo để phân tích giọng nói để xác định xem người gọi đến số cấp cứu có dấu hiệu gần đến ngừng tim hay không. Một vấn đề khác tạo tranh luận là mức độ cho phép trí tuệ nhân tạo khai thác thông tin mà không vi phạm quyền sở hữu trí tuệ hoặc tạo ra nội dung bất hợp pháp.
Cộng đồng công nghệ đang ủng hộ việc quản lý công cụ trí tuệ nhân tạo.
Hàng trăm nhà khoa học và kỹ sư công nghệ đã đưa ra cảnh báo về những rủi ro tiềm ẩn nếu việc phát triển AI không được tiến hành đúng cách.
Các tập đoàn công nghệ hàng đầu như Microsoft, Google và OpenAI đã đồng lòng ủng hộ việc chính phủ các quốc gia thực hiện các biện pháp quản lý nghiêm ngặt trong lĩnh vực công nghệ AI.
Sự quan tâm đối với AI đã lan rộng đến người dùng trên khắp thế giới. CEO Sam Altman của OpenAI đã kêu gọi sự hợp tác giữa các quốc gia, bao gồm cả đề xuất thành lập một cơ quan giám sát quốc tế trong lĩnh vực này.
Có thể hiểu rằng, mặc dù đồng ý với việc cần có sự giám sát và quản lý, nhiều doanh nghiệp cũng bày tỏ lo ngại rằng việc áp dụng biện pháp kiểm soát quá chặt chẽ có thể gây trở ngại cho sự phát triển của công nghệ.
Theo Giáo sư Rasmus Rothe, một số nhà phát triển ứng dụng trí tuệ nhân tạo, nhiều luật lệ kiểm soát có thể ảnh hưởng đến sự phát triển của công nghệ. Ông Rothe, người đã nghiên cứu về AI trong nhiều năm, đặc biệt là trong lĩnh vực y tế, lo ngại rằng tập trung quá nhiều vào những rủi ro tiềm ẩn có thể làm mất đi các cơ hội tiếp cận những lợi ích mà công nghệ này mang lại.
"Việc xem xét xem AI có tốt hay xấu phụ thuộc vào mục đích sử dụng. AI có thể được sử dụng để gây ra chiến tranh mạng, nhưng cũng có thể được sử dụng để điều tra tế bào ung thư. Việc áp đặt quá nhiều luật lệ kiểm soát từ phía chính phủ có thể gây áp lực lên các công ty khởi nghiệp nhỏ và gây khó khăn trong quá trình phát triển công nghệ AI", Giáo sư Rasmus Rothe, người đồng sáng lập công ty công nghệ Merantix, nhận định.
Theo giáo sư Rasmus, một phần quan trọng của sự tiến bộ của trí tuệ nhân tạo đến từ các công ty nhỏ, nhưng họ đối mặt với nhiều khó khăn hơn các tập đoàn công nghệ lớn trong việc tuân thủ các quy định chính phủ do hạn chế về nguồn lực. Vì vậy, việc đưa ra các quy định cần được tiến hành một cách cẩn trọng.
"Việc áp đặt các quy định quản lý quá chặt chẽ sẽ dẫn đến sự không ổn định - điều tồi tệ nhất đối với hoạt động đổi mới sáng tạo. Tôi không phản đối việc đưa ra các quy định, nhưng chúng phải rõ ràng và minh bạch đến mức cực kỳ. Hiện tại, quá trình xây dựng các quy định vẫn chưa thể hiện điều đó", Giáo sư Rasmus Rothe, Nhà đồng sáng lập công ty công nghệ Merantix, nhận định.
trong lĩnh vực phương tiện truyền thông và công nghệ viễn thông 5G là một thách thức đáng kể. Các quy tắc về phương tiện truyền thông và công nghệ viễn thông 5G đang được xây dựng thông qua quá trình đàm phán, nhưng đã xảy ra nhiều tranh cãi về cách tiếp cận. Với sự phát triển không ngừng của trí tuệ nhân tạo, các chính phủ và doanh nghiệp dự kiến sẽ gặp nhiều khó khăn hơn trong việc đạt được sự cân bằng giữa quản lý và thúc đẩy sáng tạo trong lĩnh vực này.
Các doanh nghiệp vẫn đang lo lắng về cách và mức độ quản lý công nghệ AI một cách hợp lý. Vậy các quan chức châu Âu đã đưa ra những giải pháp gì để đảm bảo rằng các quy định mới sẽ không ảnh hưởng đến sự sáng tạo và đổi mới công nghệ?
Một thực tế được đưa ra là có tới một nửa số công ty khởi nghiệp trong lĩnh vực trí tuệ nhân tạo ở châu Âu đang xem xét khả năng chuyển đi nước khác nếu các quy định quá nghiêm ngặt.
Vì vậy, cần giới hạn nhược điểm của trí tuệ nhân tạo, nhưng vẫn phải bảo tồn sự sáng tạo và giữ cho các công ty ở lại châu Âu. Vấn đề là công nghệ này đang phát triển quá nhanh, không thể dự đoán được những gì sẽ xuất hiện trong tương lai gần. Do đó, dự thảo luật của châu Âu tập trung vào mục đích, không cho phép phát triển công nghệ để phục vụ những mục đích có hại cho cộng đồng. Việc phân biệt rõ ràng giữa những ứng dụng có hại và vô hại không phải lúc nào cũng dễ dàng, đây là khó khăn trong quá trình xây dựng luật này. Quá trình soạn thảo luật sẽ mất nhiều thời gian, vì Ủy ban châu Âu phải tham vấn từng nước thành viên.
Điều quan trọng là, ngay cả khi có sự ủng hộ từ các chính khách, chuyên gia và doanh nghiệp, việc quản lý công nghệ trí tuệ nhân tạo vẫn là một nhiệm vụ không dễ dàng. Cân nhắc giữa việc quản lý và hạn chế rủi ro, nhưng vẫn tạo điều kiện cho sự sáng tạo và phát triển của doanh nghiệp là điều mà các chính phủ cần đảm bảo. Một sự hợp tác quốc tế chặt chẽ cũng là cần thiết để thúc đẩy quá trình này.