Google, Meta, Microsoft, OpenAI tìm hiểu biện pháp bảo vệ AI tự nguyện

Google, Meta, Microsoft, OpenAI  tìm hiểu biện pháp bảo vệ AI tự nguyện

Các công ty công nghệ như Google, Meta, Microsoft và OpenAI đã đồng ý với các biện pháp bảo vệ trí tuệ nhân tạo (AI) tự nguyện Tuy nhiên, chính phủ Hoa Kỳ không áp đặt bất kỳ hình phạt nào đối với vi phạm các nguyên tắc này

Một số công ty hàng đầu của Mỹ đang phát triển công nghệ Trí tuệ Nhân tạo (AI) đã đồng ý hợp tác với chính phủ Hoa Kỳ và cam kết thực hiện một số nguyên tắc nhằm đảm bảo sự tin tưởng của công chúng vào AI.

Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI đều đã ký cam kết để đảm bảo rằng AI trở nên an toàn, bảo mật và đáng tin cậy. Vào tháng 5, chính quyền của Tổng thống Biden đã tuyên bố sẽ họp mặt với các nhà phát triển AI hàng đầu nhằm đảm bảo rằng họ tuân thủ với chính sách của Hoa Kỳ.

Google, Meta, Microsoft, OpenAI  tìm hiểu biện pháp bảo vệ AI tự nguyện

Để đảm bảo tính không ràng buộc và không có hình phạt đối với việc không tuân thủ cam kết, các chính sách không có thể ảnh hưởng đến các hệ thống Trí tuệ nhân tạo (AI) đã được triển khai. Trong số các điều khoản, một điều quy định rằng các công ty sẽ cam kết kiểm tra AI trước khi phát hành để phát hiện các lỗ hổng bảo mật, cả bên trong và bên ngoài.

Tuy nhiên, nhằm trấn an công chúng (và đồng thời nhà lập pháp) rằng việc triển khai AI có thể được thực hiện có trách nhiệm, nhiều công ty công nghệ đã thỏa thuận với các cam kết mới. Chính quyền Biden đã đề xuất việc sử dụng AI trong hoạt động chính phủ để làm cho các nhiệm vụ trở nên hợp lý hơn.

Có lẽ tác động ngay lập tức nhất sẽ được cảm nhận đối với tác phẩm nghệ thuật do trí tuệ nhân tạo (AI) tạo ra.

Google, Meta, Microsoft, OpenAI  tìm hiểu biện pháp bảo vệ AI tự nguyện

Thỏa thuận đã được đạt được nhằm sử dụng công nghệ nhòe để xác định xem một tác phẩm nghệ thuật có phải là do AI tạo ra hay không. Một số dịch vụ như Bing Image Creator đã thực hiện thành công việc này.

Tất cả các công ty công nghệ lớn cũng cam kết sử dụng AI vì lợi ích công cộng, bao gồm cả nghiên cứu về ung thư cũng như định rõ các lĩnh vực sử dụng phù hợp và không phù hợp. Mặc dù chưa đưa ra định nghĩa chính thức, điều này có thể bao gồm các biện pháp bảo vệ hiện có để ngăn chặn ChatGPT, ví dụ như ngăn chặn kẻ thù sử dụng công cụ AI để lên kế hoạch tấn công khủng bố. Các công ty AI cũng cam kết bảo vệ quyền riêng tư của dữ liệu, một ưu tiên mà Microsoft đã duy trì với các phiên bản doanh nghiệp của Bing Chat và Microsoft 365 Copilot.

Tất cả các doanh nghiệp đều cam kết thực hiện kiểm tra an ninh cho hệ thống Trí tuệ Nhân tạo (AI) của mình cả trong và ngoài trước khi tiết lộ và chia sẻ thông tin với ngành công nghiệp, chính phủ, công chúng và cơ quan quản lý rủi ro AI. Họ cũng cam kết cho phép các nhà nghiên cứu từ bên thứ ba truy cập vào hệ thống để phát hiện và báo cáo các lỗ hổng.

Chủ tịch của Microsoft, ông Brad Smith, đã đồng ý với những cam kết này, đồng thời ghi nhận rằng Microsoft đã ủng hộ việc thành lập một cơ quan đăng ký quốc gia để quản lý các hệ thống AI có rủi ro cao. Google cũng đã tiết lộ rằng họ đã thành lập một đội ngũ để tấn công và thâm nhập vào hệ thống AI.

OpenAI cho biết trong một tuyên bố rằng, trong việc xây dựng và phát triển AGI an toàn và có lợi, chúng tôi sẽ tiếp tục thử nghiệm và tinh chỉnh các hoạt động quản trị đặc biệt được điều chỉnh cho các mô hình nền tảng có khả năng cao như các mô hình mà chúng tôi đã tạo ra. Chúng tôi cũng sẽ tiếp tục đầu tư vào nghiên cứu trong các lĩnh vực có thể giúp cải thiện việc đánh giá các khả năng nguy hiểm tiềm tàng trong các mô hình AI.

Người dẫn truyền hình AI ở Ấn Độ: Đa ngôn ngữ, tiết kiệm chi phí và không mệt mỏi.