Phản ứng của OpenAI về vụ kiện The New York Times: Sự sử dụng ChatGPT bị lạm dụng

Phản ứng của OpenAI về vụ kiện The New York Times: Sự sử dụng ChatGPT bị lạm dụng

OpenAI đã đăng một phản ứng với vụ kiện của The New York Times bằng cách cáo buộc rằng The NYTimes đã sử dụng các kỹ thuật thúc đẩy gian lận để khiến ChatGPT tái sản xuất đoạn trích dài, tuyên bố rằng vụ kiện dựa trên việc sử dụng ChatGPT một cách 'chọn lọc' để làm cơ sở cho vụ kiện.

Vụ kiện của The New York Times đối với OpenAI

The New York Times đã đệ đơn kiện OpenAI (và Microsoft) về việc vi phạm bản quyền, cáo buộc rằng ChatGPT 'tự trích dẫn nội dung Times một cách chính xác' cùng với những khiếu nại khác.

Vụ kiện đã giới thiệu bằng chứng cho thấy GPT-4 có thể đầu ra một lượng lớn nội dung của The New York Times mà không có sự ghi nhận, làm chứng cho việc GPT-4 vi phạm nội dung của The New York Times.

Các cáo buộc rằng GPT-4 đang đầu ra bản sao chính xác của nội dung The New York Times là quan trọng vì nó phản đối sự khăng định của OpenAI rằng việc sử dụng dữ liệu của họ là biến đổi, đây là một khung pháp lý liên quan đến nguyên tắc sử dụng hợp lý.

A post on Tweeter (X)

Phản ứng của OpenAI phá vỡ những tuyên bố vụ kiện của NYTimes

OpenAI đã cung cấp một phản bác mạnh mẽ về những tuyên bố trong vụ kiện của The New York Times, cho rằng quyết định của The New York Times đi tới tòa làm ngạc nhiên OpenAI vì họ đã cho rằng cuộc đàm phán đang tiến triển về một giải pháp.

Quan trọng nhất, OpenAI đã phủ nhận những tuyên bố của The New York Times rằng GPT-4 đầu ra nội dung chính xác bằng cách giải thích rằng GPT-4 được thiết kế để không đầu ra nội dung chính xác và rằng The New York Times đã sử dụng kỹ thuật thúc đẩy cụ thể để phá vỡ guardrails của GPT-4 để tạo ra đầu ra bị tranh cãi.

Loại thúc đẩy được thiết kế để phá vỡ ChatGPT để tạo ra đầu ra không mong muốn được gọi là Thúc đẩy Adversarial.

Các cuộc tấn công Thúc đẩy Adversarial

Trí tuệ nhân tạo sinh sản nhạy cảm với các loại thúc đẩy (yêu cầu) được đặt ra và mặc dù đã có sự nỗ lực tốt nhất của kỹ sư để ngăn chặn sự lạm dụng của trí tuệ nhân tạo sinh sản vẫn còn cách mới để sử dụng các thúc đẩy để tạo ra phản ứng vượt qua guardrails được xây dựng vào công nghệ để ngăn chặn đầu ra không mong muốn.

Các kỹ thuật để tạo ra đầu ra không mong muốn được gọi là Thúc đẩy Adversarial và đó là điều mà OpenAI cáo buộc The New York Times đã làm để tạo ra cơ sở để chứng minh rằng việc sử dụng nội dung có bản quyền của GPT-4 không phải là biến đổi.

Các cáo buộc của OpenAI về vụ kiện dựa trên thúc đẩy lạm dụng

Phản bác của OpenAI cho rằng The New York Times đã sử dụng các thúc đẩy được lạm dụng được thiết kế để phá vỡ guardrails của GPT-4 để tạo ra nội dung chính xác.

OpenAI viết: 'Dường như họ có ý định thúc đẩy mạnh mẽ, thường bao gồm đoạn trích dài của bài viết, để có được mô hình của chúng tôi tái sản xuất.

OpenAI cũng phản pháo lại vụ kiện của The New York Times bằng cách nói rằng các phương pháp được sử dụng bởi The New York Times để tạo ra nội dung chính xác là vi phạm hành vi sử dụng được phép và lạm dụng.

Theo dõi và tiến triển của OpenAI

OpenAI kết thúc bằng việc tuyên bố rằng họ tiếp tục xây dựng sự chống chọi chống lại các loại cuộc tấn công thúc đẩy lạm dụng được sử dụng bởi The New York Times.

OpenAI đã xác nhận sự cần cù của họ trong việc tôn trọng bản quyền bằng cách trích dẫn phản ứng của họ vào tháng 7 năm 2023 đối với các báo cáo rằng ChatGPT đang tạo ra những phản ứng chính xác.