Đua nhau quản lý công cụ AI: Các quốc gia hàng đầu thế giới chung tay xây dựng quy tắc quốc tế

Đua nhau quản lý công cụ AI: Các quốc gia hàng đầu thế giới chung tay xây dựng quy tắc quốc tế

Đua nhau trong việc quản lý công cụ AI, các quốc gia đang đối mặt với nhiều thách thức và rủi ro G7 đã đồng ý xây dựng các quy tắc quốc tế liên quan đến trí tuệ nhân tạo để giải quyết vấn đề này

G7 đồng ý xây dựng quy tắc quốc tế cho trí tuệ nhân tạo (AI). Theo Japan News, trong cuộc họp thượng đỉnh vào chiều ngày 19/5 tại Hiroshima, Nhật Bản, các lãnh đạo của G7 (nhóm các nước phát triển hàng đầu thế giới) đã đồng ý với sáng kiến ​​được đề xuất nhằm xây dựng các quy tắc quốc tế cho trí tuệ nhân tạo (AI).

Việc thiết lập các quy tắc quốc tế cho AI được coi là rất cần thiết, trong bối cảnh các quốc gia đang phải đối mặt với những vấn đề liên quan đến công nghệ AI, chẳng hạn như vi phạm bản quyền và lan truyền thông tin sai lệch.

Các lãnh đạo G7 đã đồng ý với đề xuất của Chính phủ Nhật Bản về khuôn khổ thúc đẩy đối thoại cấp nội các về các quy tắc trí tuệ nhân tạo. Sáng kiến ​​này được gọi là Quy trình AI của Hiroshima, mục đích của nó là thống nhất quan điểm về các quy tắc công nghệ giữa các quốc gia G7.

Đua nhau quản lý công cụ AI: Các quốc gia hàng đầu thế giới chung tay xây dựng quy tắc quốc tế

Các lãnh đạo G7 đã tham dự cuộc họp thượng đỉnh tại Hiroshima, Nhật Bản vào ngày 19/5. (Nguồn: AP)

Các nhà lãnh đạo G7 đã thảo luận về tiềm năng và rủi ro của trí tuệ nhân tạo (AI), đặc biệt là các mô hình đàm thoại như ChatGPT. Dịch vụ này đã trở nên phổ biến trong thời gian gần đây, tuy nhiên cũng gây lo ngại lớn về nguy cơ vi phạm bản quyền.

Chủ tịch Ủy ban châu Âu (EC) Ursula von der Leyen và Thủ tướng Vương quốc Anh Rishi Sunak đều ủng hộ mạnh mẽ "các biện pháp bảo vệ" cho sự phát triển của công nghệ. Điều này là cần thiết để đảm bảo tính chính xác, đáng tin cậy, an toàn và không phân biệt đối xử cho các hệ thống AI, bất kể nguồn gốc của chúng.

Bà von der Leyen đã nhấn mạnh rằng, trí tuệ nhân tạo có thể mang lại nhiều lợi ích tiềm năng cho người dân và nền kinh tế. Tuy nhiên, cũng cần xây dựng các biện pháp bảo vệ để đảm bảo quá trình phát triển của AI được tiến hành một cách an toàn và đúng đắn.

Thủ tướng Anh Sunak đã nhận định rằng, trí tuệ nhân tạo (AI) có thể mang lại nhiều lợi ích cho tăng trưởng kinh tế và chuyển đổi dịch vụ công cộng, miễn là nó được sử dụng một cách an toàn, bảo mật và có hàng rào bảo vệ. Tuy nhiên, cũng có những cảnh báo ngày càng gia tăng về rủi ro từ AI. Những tiến bộ nhanh chóng của trí tuệ nhân tạo trong những tháng gần đây đã thu hút sự quan tâm của toàn thế giới, cả theo góc độ tích cực và tiêu cực. Với các tính năng đa dạng như sáng tác nhạc, vẽ tranh, viết luận, làm thơ, sự phát triển ngoạn mục của các công cụ AI tạo sinh đã khiến nhiều người dùng mê mẩn. Tuy nhiên, Chính phủ Anh sẽ hợp tác chặt chẽ với các đồng minh quốc tế để phối hợp các nỗ lực nhằm đảm bảo quy định phù hợp cho các công ty phát triển AI.

Tuy nhiên, sự thông minh của các công cụ AI cũng khiến nhiều người cảm thấy lo ngại về những hệ lụy tiềm ẩn mà chúng có thể gây ra. Công nghệ AI có thể làm thay đổi hoàn toàn cuộc sống hàng ngày của con người, từ công việc, giáo dục đến vấn đề bản quyền và quyền riêng tư. Theo một cuộc khảo sát gần đây của Reuters/Ipsos, 61% người Mỹ đã bày tỏ sự lo ngại về tương lai của con người khi đối mặt với công nghệ AI.

Đua nhau quản lý công cụ AI: Các quốc gia hàng đầu thế giới chung tay xây dựng quy tắc quốc tế

Hàng trăm chuyên gia công nghệ và nhà nghiên cứu khoa học hàng đầu đã cảnh báo về sự nguy hiểm của công nghệ AI. Một bức thư ngỏ được công bố hồi cuối tháng 3 đã kêu gọi các doanh nghiệp cần "tạm dừng" việc phát triển những mô hình AI mới trong vòng 6 tháng. Các tên tuổi lớn như tỷ phú Elon Musk - Giám đốc điều hành hãng xe điện Tesla hay nhà đồng sáng lập hãng công nghệ Apple Steve Wozniak đều coi đây là điều cần thiết để xem xét các rủi ro.

Đua nhau quản lý công cụ AI: Các quốc gia hàng đầu thế giới chung tay xây dựng quy tắc quốc tế

Tỷ phú Elon Musk và nhà đồng sáng lập Apple Steve Wozniak đang lên tiếng kêu gọi ngừng cuộc đua nguy hiểm về trí tuệ nhân tạo. Theo đó, các công ty công nghệ không nên mở rộng quy mô của các mô hình AI cho đến khi chắc chắn rằng có thể kiểm soát được nó. Chuyên gia Geoffrey Hinton cũng từ bỏ vị trí phó chủ tịch tại Google để có thể trực tiếp đưa ra những cảnh báo về mối đe dọa của trí tuệ nhân tạo. Việc này cho thấy tầm quan trọng và cần thiết của việc đưa ra các giải pháp để đảm bảo an toàn khi sử dụng trí tuệ nhân tạo.

Ông Hinton đã lên tiếng kêu gọi cần có các quy định và sự hợp tác toàn cầu để kiểm soát công nghệ AI. Ông cho rằng nếu không có các biện pháp kiềm chế thích hợp, công nghệ này có thể gây ra những thiệt hại nghiêm trọng đến thị trường lao động, môi trường Internet và thậm chí còn có thể vượt qua trí thông minh của con người. Châu Âu đã đi đầu trong việc quản lý công nghệ AI, tuy nhiên đến nay vẫn chưa có nhiều thỏa thuận cụ thể giữa các chính phủ về cách thức giám sát AI. Ngoài ra, các quy định về AI giữa các nước thành viên G7 cũng vẫn còn nhiều sự khác biệt đáng kể.

Liên minh Châu Âu (EU) đang trở thành khu vực dẫn đầu trong việc thiết lập quy định quản lý công nghệ mới. Từ năm 2021, EU đã đề xuất một đạo luật AI nhằm quản lý tất cả các sản phẩm và dịch vụ sử dụng công nghệ này. Đạo luật này sẽ phân loại các công cụ AI theo mức độ nguy cơ và buộc các chính phủ, doanh nghiệp sử dụng những công cụ này phải tuân thủ các nghĩa vụ khác nhau tùy theo mức độ nguy cơ. Các nghĩa vụ này bao gồm yêu cầu minh bạch và sử dụng dữ liệu chính xác. Hơn nữa, để phù hợp với những thay đổi chóng mặt của công nghệ, giới chức EU đã tiếp tục thông qua hơn 3 nghìn điều chỉnh trong dự luật quản lý AI vào ngày 11/5 vừa qua.

Trong đó, điều đáng chú ý là các đơn vị phát triển trí tuệ nhân tạo phải đảm bảo mức độ an toàn và có giải pháp quản lý dữ liệu để giảm thiểu rủi ro trước khi đưa sản phẩm ra thị trường. Hơn nữa, các công cụ sử dụng trí tuệ nhân tạo cũng cần cung cấp thông báo lưu ý cho người dùng biết rằng sản phẩm đó là do trí tuệ nhân tạo tạo ra.

Dự kiến, vào giữa tháng 6 tới, Nghị viện châu Âu sẽ thông qua dự thảo luật sửa đổi để kiểm soát việc sử dụng trí tuệ nhân tạo. Các quốc gia thành viên sẽ phải thông qua đạo luật này trước đầu năm 2024. Nếu việc thông qua đạo luật này được diễn ra một cách thuận lợi, đạo luật trí tuệ nhân tạo của châu Âu sẽ tạo ra ảnh hưởng lớn đến toàn cầu và có thể trở thành tiêu chuẩn toàn cầu cho các sản phẩm trí tuệ nhân tạo.

Trong khi đó, tại Mỹ - quê hương của nhiều hãng công nghệ lớn, các giới chức chính phủ đã bắt đầu soạn thảo các hướng dẫn về việc sử dụng và phát triển trí tuệ nhân tạo từ năm ngoái để đảm bảo quyền riêng tư của con người không bị vi phạm. Việc kiểm soát trí tuệ nhân tạo đang trở thành một cuộc chạy đua không chỉ tại Mỹ mà còn trên toàn thế giới.

Cuối tháng 4 vừa qua, Ủy ban Thương mại Liên bang và Bộ Tư pháp Mỹ đã thông báo sẽ sử dụng các công cụ pháp lý để chống lại các nguy cơ liên quan đến trí tuệ nhân tạo. Bộ Thương mại Mỹ cũng đã tiến hành thu thập ý kiến đóng góp của các cơ quan, tổ chức và chuyên gia trong lĩnh vực công nghệ để đề xuất các quy định liên quan đến trách nhiệm giải trình tiềm năng đối với các hệ thống trí tuệ nhân tạo.

Đua nhau quản lý công cụ AI: Các quốc gia hàng đầu thế giới chung tay xây dựng quy tắc quốc tế

Ngày 4/5 vừa qua, Tổng thống Mỹ Joe Biden đã họp với các CEO hàng đầu của các công ty công nghệ như Microsoft, Google và nhấn mạnh sự cần thiết của việc giới hạn các nguy cơ mà trí tuệ nhân tạo có thể gây ra cho người dùng, xã hội và an ninh quốc gia.

Các công ty công nghệ cần phải có trách nhiệm đảm bảo rằng sản phẩm của họ an toàn trước khi được triển khai rộng rãi trên thị trường.

Trong bối cảnh tương tự, Tổng thống Mỹ Joe Biden đã kêu gọi các công ty công nghệ phải chịu trách nhiệm đảm bảo tính an toàn của sản phẩm AI trước khi phát hành ra thị trường. Điều tương tự cũng đang được thực hiện tại nhiều quốc gia khác trên thế giới. Nhật Bản đang tiến hành các cuộc thảo luận về việc sử dụng AI một cách an toàn, trong khi Chính phủ Anh đã phân chia trách nhiệm quản lý AI giữa các cơ quan như nhân quyền, sức khỏe, an toàn và cạnh tranh. Thủ tướng Anh Rishi Sunak cũng đã nhấn mạnh về việc đảm bảo "năng lực chủ quyền" với AI để quản lý rủi ro an ninh quốc gia. Tại Trung Quốc, cơ quan quản lý không gian mạng cũng đã công bố dự thảo quản lý các dịch vụ AI tạo sinh, trong đó các công ty phải gửi đánh giá bảo mật cho cơ quan chức năng trước khi triển khai sản phẩm ra thị trường.

Đua nhau quản lý công cụ AI: Các quốc gia hàng đầu thế giới chung tay xây dựng quy tắc quốc tế

Trong tháng 4 vừa qua, cơ quan quản lý không gian mạng Trung Quốc đã đưa ra dự thảo quản lý các dịch vụ AI tạo sinh. Chuyên gia về công nghệ Trung Quốc tại Quỹ Carnegie vì Hòa bình Quốc tế, ông Matt Sheehan, cho biết trong khi EU chọn cách tiếp cận toàn diện với hàng loạt quy định, Trung Quốc lại có xu hướng tiếp cận từng phần hơn, với các chính sách liên tiếp nhắm vào các ứng dụng AI cụ thể. Như vậy, Bắc Kinh có thể "liên tục phản ứng với những thay đổi trong công nghệ đồng thời duy trì sự giám sát chặt chẽ hơn". Trong cuộc chạy đua kiểm soát công nghệ AI đang ngày càng nóng lên, các lãnh đạo công ty công nghệ đều đồng ý rằng cần có các quy định quản lý để tiềm năng to lớn này không gây ra hậu quả không mong muốn.

Trong buổi điều trần với một tiểu ban Thượng viện Mỹ vào ngày 16/5, Sam Altman - Giám đốc điều hành của công ty công nghệ OpenAI đã thể hiện quan điểm ủng hộ sự can thiệp của chính phủ trong việc quản lý các công cụ trí tuệ nhân tạo. Ông cũng đề xuất việc thành lập một cơ quan quản lý tập trung, có trách nhiệm cấp giấy phép cho các mô hình trí tuệ nhân tạo, đặt ra các quy định về thử nghiệm mà các mô hình này phải vượt qua trước khi được phép ra thị trường.

Đua nhau quản lý công cụ AI: Các quốc gia hàng đầu thế giới chung tay xây dựng quy tắc quốc tế

Trong phiên điều trần, giám đốc điều hành của công ty công nghệ OpenAI đã chia sẻ: "Chúng tôi tin rằng lợi ích của các công cụ mà chúng tôi đã triển khai cho đến nay lớn hơn rất nhiều so với rủi ro, nhưng việc đảm bảo an toàn cho chúng là rất quan trọng đối với công việc của chúng tôi."

Trước đó, Microsoft - công ty đã đầu tư vào OpenAI đã hoan nghênh nỗ lực quản lý trí tuệ nhân tạo tại châu Âu, coi đây là một bước tiến quan trọng hướng tới việc đưa các công cụ trí tuệ nhân tạo đáng tin cậy trở thành tiêu chuẩn ở châu Âu và trên toàn thế giới.

Ông Sundar Pichai - CEO của Google, công ty đang cạnh tranh với ChatGPT bằng chatbot Bard và nhiều công cụ AI khác, đã thừa nhận rằng "AI là một lĩnh vực quá quan trọng và cần phải được quản lý cẩn thận". Tuy nhiên, bên cạnh việc đánh giá cao sự giám sát, các nhà lãnh đạo công nghệ cũng lo ngại về những quy tắc quá nặng tay.

Giám đốc ủy thác và quyền riêng tư của IBM, Christina Montgomery, đã yêu cầu Quốc hội Mỹ tập trung vào cách tiếp cận dựa trên rủi ro. Bà đã kêu gọi đưa ra các "quy định cụ thể" về cách sử dụng các công cụ AI, thay vì hạn chế cách chúng được phát triển. "Nói chung, chúng tôi nghĩ rằng các công cụ AI nên được điều chỉnh tại các điểm rủi ro", bà Montgomery cho biết.

Theo Foreign Policy, việc thiết lập các quy định chung cho công nghệ luôn là điều rất khó khăn, đặc biệt là với các công nghệ đang không ngừng phát triển như trí tuệ nhân tạo (AI). Nếu các quy định quá thoáng, chúng có thể nhanh chóng trở nên lỗi thời, trong khi các quy định quá chặt chẽ sẽ làm cản trở sự phát triển của AI và ảnh hưởng đến năng lực cạnh tranh của các quốc gia.

Thực tế cho thấy, quá trình đàm phán để xây dựng các quy tắc về phương tiện truyền thông xã hội, công nghệ viễn thông 5G… đều đã gây ra nhiều rắc rối về địa chính trị, cũng như sự bất đồng quan điểm về cách thức tiếp cận tốt nhất. Với trí tuệ nhân tạo, mức độ thách thức càng lớn hơn gấp bội.

Giám đốc điều hành Google, Sundar Pichai, chia sẻ quan điểm này và nhận định rằng "việc điều tiết các quy định quản lý sao cho hợp lý sẽ cần rất nhiều cuộc tranh luận, vì không ai biết tất cả các câu trả lời. Không một công ty nào có thể làm mọi thứ đều đúng." Các tập đoàn công nghệ lớn như Google hay Microsoft hiện đang thận trọng trước khả năng triển khai các quy định quản lý công nghệ AI.