• :
  • :
A- A A+ | Tăng tương phản Giảm tương phản

Cảnh báo lừa đảo bằng công nghệ trí tuệ nhân tạo

Phát sóng trực tiếp, trò chuyện khá tự nhiên - nhưng đây lại là những hình ảnh hoàn toàn do AI tạo ra.

 

Cảnh báo lừa đảo bằng công nghệ trí tuệ nhân tạo

Là người chuyên sử dụng các ứng dụng AI cho công việc phục chế video, anh Quang nhận thấy, công nghệ này đang có sự tiến bộ vượt trội trong việc giả mạo giọng nói, gương mặt - thường được gọi là deepfake.

"Một năm trước tôi sử dụng nó để làm 1 đoạn phim ngắn 2-3 phút thì tôi mất vài ba ngày, nhưng bây giờ chỉ cần 1 bức ảnh hoặc 1 video thì chúng ta có ngay 1 đoạn video 1 nhân vật, 1 người nổi tiếng. Chỉ cần đúng 1 bức ảnh và 1 video ở góc máy tương đương là máy sẽ tự tạo ra đoạn video đó".

Tháng 3 năm 2019, một thư ký tại Anh nhận được cuộc gọi khẩn của Chủ tịch tập đoàn. Giọng nói cùng phong thái quen thuộc của vị CEO khiến người nhân viên này không nghi ngờ gì mà chuyển ngay số tiền 220.000 Bảng Anh, tương đương với hơn 6 tỷ VNĐ.

Bà Marie-christine Kragh - Công ty Bảo hiểm Euler Hermes: "Chúng tôi thấy các dấu hiệu rõ ràng từ vụ lừa đảo này là có sự can thiệp của công nghệ trí tuệ nhân tạo khi làm giả giọng nói y hệt để lừa các nạn nhân".

Cảnh báo lừa đảo bằng công nghệ trí tuệ nhân tạo - Ảnh 1.

Tại Việt Nam, một người đàn ông bị lừa 20 triệu đồng khi bị đối tượng lừa đảo giả dạng khuôn mặt và giọng nói của bạn mình yêu cầu chuyển tiền.

Anh Đặng Anh Quang - Quận Hai Bà Trưng, Hà Nội: "Đối tượng cũng gọi video call, đúng khuôn mặt đấy luôn nhưng thấy có mỗi cái miệng mấp máy. Mình cứ nghĩ mạng bị lag nên chỉ gọi được vài giây rồi thôi nên mình cũng tin tưởng, lúc đó cũng đang vội. Sau đó họ nhắn số tài khoản và mình chuyển tiền".

Anh Vũ Ngọc Sơn - Giám đốc kỹ thuật, Công ty Công nghệ An ninh mạng Quốc gia Việt Nam: "Video clip sinh ra từ deepfake sẽ không có chất lượng tốt, tương đối mờ, giọng nói không rõ ràng. Nếu để ý kĩ thì người sử dụng có thể nhận thấy những nhân vật trong clip thường ít quay mặt, đưa tay lên mặt hoặc chớp mắt. Đó là những hành động mà deepfake chưa thể làm giả 100% giống như người bình thường".

Một nguyên tắc của deepfake là thu thập dữ liệu từ chính hình ảnh và giọng nói của người dùng. Châu Âu và Trung Quốc hiện áp dụng các giải pháp siết chặt deepfake, trong đó quy định chặt chẽ về việc cung cấp dữ liệu cá nhân. Còn tại Việt Nam, người dùng cũng cần lưu ý trong việc đăng tải hình ảnh và giọng nói của mình trên không gian mạng.

Theo Ban Thời sự

VTV


Tổng số điểm của bài viết là: 0 trong 0 đánh giá
Click để đánh giá bài viết
Bài viết liên quan

Nội dung đang cập nhật...