Thứ 2, 25/11/2024, 00:10[GMT+7]

Cảnh báo thủ đoạn lừa đảo sao chép giọng nói bằng AI

Thứ 4, 16/10/2024 | 18:47:56
229 lượt xem
Các chuyên gia công nghệ cảnh báo hàng triệu người có thể bị lừa bởi những kẻ sử dụng công nghệ trí tuệ nhân tạo (AI) để sao chép giọng nói. Chỉ cần 3 giây âm thanh từ một video đăng trên mạng xã hội, kẻ gian có thể dùng AI để tạo ra bản sao giọng nói của nạn nhân. Sau đó, chúng tiếp cận bạn bè và người thân của họ để thực hiện các cuộc gọi lừa đảo, yêu cầu chuyển tiền bằng giọng nói đã được sao chép.

Theo TTXVN