Nguy cơ từ Deepfake AI: Khi công nghệ trở thành công cụ tống tiền và bôi nhọ

Thứ năm, 25/07/2024 00:18
(ĐCSVN) - Trong thời đại kỹ thuật số, công nghệ Deepfake AI đã mở ra nhiều cơ hội nhưng cũng tiềm ẩn những rủi ro khôn lường. Từ các trường hợp tại TP. Hồ Chí Minh, người dùng mạng xã hội đã phải đối mặt với nguy cơ bị lừa đảo và tống tiền qua các video giả mạo nhạy cảm. Các chuyên gia cảnh báo, để bảo vệ bản thân và uy tín cá nhân, mỗi người cần nâng cao nhận thức và cẩn trọng trước mọi thông tin trên mạng. Bài viết này sẽ giúp bạn hiểu rõ hơn về công nghệ Deepfake và những biện pháp phòng tránh hiệu quả.
Cảnh báo lợi dụng deepfake để khủng bố, đe dọa,  tống tiền - Ảnh: PA05. 

Ngày 23/7/2024, Công an TP. Hồ Chí Minh cho biết, liên tục tiếp nhận thông tin trình báo của nhiều nạn nhân cầu cứu về việc bị Deepfake AI, một phần mềm lừa ghép video, hình ảnh nhạy cảm gửi cho người thân quen trên mạng để tống tiền 
Các nạn nhân này bị đối tượng lừa đảo ẩn danh trên mạng xã hội, theo dõi trong thời gian dài, thực hiện kết bạn làm quen, chia sẻ các hoàn cảnh khó khăn đáng thương của gia đình. Từ đây, các đối tượng đã lừa nạn nhân để lấy các tài khoản Facebook, Zalo…. và thực hiện copy các hình ảnh cá nhân được đăng công khai của nạn nhân rồi sử dụng công nghệ Deepfake AI để ghép thành các video, hình ảnh nhạy cảm gửi cho “người thân quen “ của nạn nhân để khủng bố, đe dọa và tống tiền trên mạng xã hội.
Trường hợp gần nhất là anh N.H. đến cơ quan công an trình báo về việc bị các đối tượng trên mạng xã hội đã sao chép các hình ảnh cá nhân từ Facebook và Zalo của mình. Các đối tượng này sử dụng Deepfake AI lừa ghép video, hình ảnh nhạy cảm để đe dọa, khủng bố gửi cho bạn bè, người quen của anh H trên mạng và tống tiền 150 triệu đồng.
Với công việc là quản lý nhiều nhân viên ở khắp các tỉnh thành cả nước, anh H thường xuyên giao tiếp, trao đổi qua Facebook, Viber và Zalo để sâu sát với thực tế cũng như lắng nghe các khó khăn của nhân viên để kịp thời hỗ trợ công việc tốt nhất cho họ. Trong một lần giao tiếp như thường lệ, anh H có kết bạn với tài khoản “Lê T Uyên”. Theo anh H, qua cách nói chuyện, Uyên chia sẻ nhiều câu chuyện thương tâm về gia đình, có ba đang bị ung thư nặng, giai đoạn cuối ở bệnh viện, mẹ cũng đang bị bệnh ở quê, bản thân Uyên không đủ tiền để cho ba mổ, không có tiền để cứu ba khỏi lưỡi hái tử thần. Hoàn cảnh khó khăn của Uyên cộng với cách hỏi chuyện rất chân thành, thiện tâm, hết lòng muốn cứu cha khỏi tử thần của Uyên đã làm anh H xiêu lòng.
Qua nhiều lần trao đổi, khi lấy được sự tin tưởng, Uyên ngỏ ý xin số Viber cá nhân của anh H, từ đó dùng thủ đoạn kỹ thuật xâm nhập (hack) vào điện thoại để lấy thêm thông tin khác như  hình ảnh/clip mà anh H quay với các đối tác, bạn bè đã đăng trên Facebook, đồng thời cũng đã lấy được danh sách bạn bè, người quen của anh H. Đối tượng đã sử dụng công nghệ Deepfake AI để chế biến thành những hình ảnh, clip nhạy cảm rồi gửi đến danh sách người quen anh H và yêu cầu anh H phải chuyển số tiền 150 triệu đồng để dừng lại.
Do không có tiền chuyển và bị làm phiền nhiều lần nên anh H. quyết định trình báo sự việc với cơ quan công an.
Chủ tịch tập đoàn Mai Linh cũng là nạn nhân của Deepfake AI
Cách đây hơn 2 tháng, ông Hồ Huy, Chủ tịch Tập đoàn Mai Linh, đã phản ánh về việc các đối tượng sử dụng công nghệ Deepfake AI để cắt ghép, phát tán hình ảnh nhạy cảm của ông trên mạng xã hội.
Theo ông Huy, mục đích của các đối tượng này nhằm bôi nhọ danh dự, nhân phẩm và uy tín cá nhân của ông, từ đó gây ảnh hưởng lớn đến hoạt động kinh doanh của Tập đoàn Mai Linh.
Công nghệ Deepfake là một công nghệ cho phép tạo ra các video, hình ảnh hoặc âm thanh giả mạo với độ chân thực cao. Công nghệ này được phát triển dựa trên trí tuệ nhân tạo (AI), sử dụng các thuật toán học máy để phân tích và tái tạo các đặc điểm của khuôn mặt, giọng nói, cử chỉ của một người.

Kẻ lừa đảo có thể sử dụng AI để tái tạo khuôn mặt và giọng nói của người khác trong cuộc gọi video. 

Deepfake có thể được sử dụng cho nhiều mục đích khác nhau, bao gồm giải trí, giáo dục, truyền thông. Tuy nhiên, công nghệ này cũng có thể bị lợi dụng cho mục đích xấu, như lừa đảo, bôi nhọ, phá hoại.
Công nghệ Deepfake có thể bị lạm dụng nhằm mục đích lừa đảo tài chính. Cụ thể, các đối tượng sẽ sử dụng Deepfake để tạo ra các video hoặc cuộc gọi giả mạo người nổi tiếng, chính trị gia hoặc nhân vật có ảnh hưởng và yêu cầu nạn nhân chuyển tiền.
Các đối tượng còn sử dụng công nghệ này nhằm mục đích bôi nhọ xúc phạm danh dự và phá hoại uy tín của cá nhân, tổ chức hay doanh nghiệp, khiến họ bị mất khách hàng hoặc bị thiệt hại về kinh tế.
Để nhận biết video, hình ảnh hoặc âm thanh Deepfake, người dùng có thể dựa vào một số dấu hiệu như chi tiết trên khuôn mặt hoặc giọng nói không tự nhiên, các điểm bất thường trong video, hình ảnh hoặc nội dung video không phù hợp với thực tế.
Tuy vậy, với sự phát triển của công nghệ hiện nay, các hình ảnh do AI tạo ra gần như đã không có sự khác biệt và rất khó để phân biệt nếu không sử dụng các công cụ phân tích.
Vì vậy, để phòng tránh lừa đảo bằng Deepfake, các chuyên gia an ninh mạng khuyến cáo người dùng Internet cần cẩn trọng với các thông tin được chia sẻ trên mạng xã hội.
"Không nên tin tưởng ngay vào các thông tin được chia sẻ trên mạng xã hội, đặc biệt là các thông tin liên quan đến tài chính, danh dự hoặc uy tín của người khác".
Ngoài ra, người dân cũng cần thường xuyên cập nhật các kiến thức về công nghệ, đặc biệt là các kiến thức về Deepfake để có thể nhận biết và phòng tránh các thủ đoạn lừa đảo.

Võ Thắng – Trần Quý

CÓ THỂ BẠN QUAN TÂM

Ý kiến bình luận
Họ và tên
Email
Lời bình

/

Xác thực