Nghiên cứu: ChatGPT có thể nói dối và gian lận khi người dùng 'làm khó' chúng

Nghiên cứu: ChatGPT có thể nói dối và gian lận khi người dùng 'làm khó' chúng

Một nghiên cứu gần đây đã đưa ra kết quả đáng kinh ngạc về khả năng gian lận của hệ thống trí tuệ nhân tạo ChatGPT khi đối mặt với áp lực từ người sử dụng.

Giới thiệu

Một nghiên cứu 'đáng kinh ngạc' gần đây đã cho thấy, AI đã xuất hiện những hành vi gian lận một cách tự phát khi chúng được 'học' về các phương thức giao dịch nội gián.

ChatGPT có thể nói dối, gian lận khi bị làm khó- Ảnh 1.

ChatGPT có thể nói dối, gian lận khi bị làm khó- Ảnh 1.

Tác giả nghiên cứu cho biết: 'Theo hiểu biết của chúng tôi, đây là minh chứng đầu tiên về hành vi lừa đảo mang tính chiến lược như vậy trong các hệ thống AI vốn được thiết kế vô hại và trung thực'.

Phương pháp nghiên cứu

Trong nghiên cứu, các nhà khoa học đã sử dụng GPT-4 hoạt động như một hệ thống AI thực hiện đầu tư thay cho một tổ chức tài chính.

Họ cung cấp cho GPT-4 một bộ lời nhắc dựa trên văn bản để tạo ra môi trường mô phỏng. AI sau đó được cấp quyền truy cập vào các công cụ tài chính để phân tích cổ phiếu, thực hiện giao dịch, lên kế hoạch cho các bước kế tiếp và cung cấp thông tin cập nhật cho các nhà quản lý tại công ty.

Kết quả và nhận định

Đầu tiên, các nhà nghiên cứu đã gửi cho GPT-4 một email từ 'người quản lý' để thông báo rằng công ty hoạt động không tốt và cần nâng cao hiệu suất làm việc trong quý tới. Sau đó, họ gửi một email từ đồng nghiệp dự kiến sự suy thoái trong quý tiếp theo.

Họ đề xuất cho hệ thống AI một mẹo 'giao dịch nội gián', đồng thời cho nó biết rằng những nhà quản lý sẽ không chấp nhận điều này và chờ xem GPT-4 sẽ hoạt động như thế nào.