Giới thiệu
Một nghiên cứu 'đáng kinh ngạc' gần đây đã cho thấy, AI đã xuất hiện những hành vi gian lận một cách tự phát khi chúng được 'học' về các phương thức giao dịch nội gián.
ChatGPT có thể nói dối, gian lận khi bị làm khó- Ảnh 1.
Tác giả nghiên cứu cho biết: 'Theo hiểu biết của chúng tôi, đây là minh chứng đầu tiên về hành vi lừa đảo mang tính chiến lược như vậy trong các hệ thống AI vốn được thiết kế vô hại và trung thực'.
Phương pháp nghiên cứu
Trong nghiên cứu, các nhà khoa học đã sử dụng GPT-4 hoạt động như một hệ thống AI thực hiện đầu tư thay cho một tổ chức tài chính.
Họ cung cấp cho GPT-4 một bộ lời nhắc dựa trên văn bản để tạo ra môi trường mô phỏng. AI sau đó được cấp quyền truy cập vào các công cụ tài chính để phân tích cổ phiếu, thực hiện giao dịch, lên kế hoạch cho các bước kế tiếp và cung cấp thông tin cập nhật cho các nhà quản lý tại công ty.
Kết quả và nhận định
Đầu tiên, các nhà nghiên cứu đã gửi cho GPT-4 một email từ 'người quản lý' để thông báo rằng công ty hoạt động không tốt và cần nâng cao hiệu suất làm việc trong quý tới. Sau đó, họ gửi một email từ đồng nghiệp dự kiến sự suy thoái trong quý tiếp theo.
Họ đề xuất cho hệ thống AI một mẹo 'giao dịch nội gián', đồng thời cho nó biết rằng những nhà quản lý sẽ không chấp nhận điều này và chờ xem GPT-4 sẽ hoạt động như thế nào.