Các công ty công nghệ hàng đầu đang đầu tư về tài chính và nhân lực để đua tranh và phát triển trí tuệ nhân tạo (AI), trong đó một tính năng phổ biến là tạo hình ảnh theo yêu cầu. Tuy nhiên, việc kiểm soát công cụ này vẫn chưa đủ nghiêm ngặt, dẫn đến khả năng bị lợi dụng bởi những người xấu để lan truyền nội dung gây hại trên mạng.
Gần đây, sau khi Meta giới thiệu tính năng tạo sticker bằng trí tuệ nhân tạo (AI), công cụ này đã gây phản ảnh từ người dùng khi tạo ra các sticker chứa hình ảnh không mặc quần áo, bạo lực và gây phản cảm. Người dùng có thể sử dụng các sticker này để gửi cho các tài khoản khác.
Đại diện Meta xác nhận ứng dụng Messenger tích hợp Trí tuệ nhân tạo (AI) có thể cung cấp kết quả không phù hợp trong giai đoạn đầu thử nghiệm. Sau khi nhận phản hồi từ người dùng, công ty sẽ tiến hành cập nhật để nâng cao tính năng.
Không chỉ có Meta, người dùng Bing Image Creator của Microsoft cũng cho biết rằng khi kết hợp từ khóa về bộ phim thiếu nhi Spongebob và Trung tâm Thương mại Thế giới (World Trade Center), AI sẽ hiển thị những hình ảnh mô tả nhân vật hoạt hình lái máy bay hướng tới tòa tháp đôi, gợi nhớ vụ khủng bố 11/9/2001 tại Mỹ. Tương tự như vậy, người dùng cũng có thể tạo ra hình ảnh của các nhân vật nổi tiếng cầm vũ khí thực hiện hành động bạo lực.
Một số người cũng sử dụng công nghệ trí tuệ nhân tạo như Dall-E của OpenAI hay Stable Diffusion của Stability AI để tạo ra hình ảnh gây phản cảm, sau đó chia sẻ lên mạng xã hội.
Đi cùng với sự tiến bộ của công nghệ trí tuệ nhân tạo, các công ty công nghệ đang nỗ lực tìm giải pháp cho các vấn đề như nội dung không phù hợp, hình ảnh gây phản cảm hoặc sự lan truyền của thư rác.
Meta sa thải nhân viên dự án Metaverse