Lợi dụng công nghệ Deepfake là một hình thức lừa đảo vô cùng tinh vi. Do đó, người dùng cần hết sức thận trọng để tránh bị lừa bởi loại hình tội phạm công nghệ cao này.
Hãy tưởng tượng một
ngày đẹp trời, bạn nhận được một cuộc điện thoại hoặc thậm chí là gọi video,
người gọi có khuôn mặt và giọng nói giống hệt người thân trong gia đình. Có thể
là người nhà của bạn khóc lóc xin bạn hãy chuyển khoản một số tiền vì họ vừa bị
tai nạn đang ở trong bệnh viện. Chắc trong hoàn cảnh đó, ít ai tỉnh táo để kiểm
tra xem cuộc gọi đó thật giả như thế nào. Chỉ khi đã chuyển khoản tiền và người
thân vẫn bình yên vô sự, chúng ta mới biết mình bị lừa.
Công nghệ AI giả mạo
giọng nói, gương mặt - hay còn gọi là Deepfake - đang được giăng ra những cái
bẫy mà cả những người đa nghi cũng vẫn có thể vướng vào.
1. Khó phân biệt thật
- giả với công nghệ Deepfake
Hiện nay, càng nhiều
người thực hiện các thao tác với tài khoản ngân hàng từ xa như hay kiểm tra số
dư qua điện thoại, thậm chí như ngân hàng Lloyds của Anh còn dùng mật khẩu là
chính giọng nói của khách hàng.
Mới đây, một khách
hàng của Lloyds đã thử dùng AI giả mạo giọng nói và thực tế, anh ta đã xâm nhập
được vào tài khoản ngân hàng dễ dàng. Việc những công nghệ tinh vi có thể giả
được giọng nói giả được cả gương mặt thực sự mở ra một cái bẫy mới rất đáng lo
ngại, chỉ chờ những người cả tin mắc vào.
Chắc những người hâm
mộ của diễn viên Leonardo Di Caprio từng phải trầm trồ vì khả năng nói tiếng
Nga như người bản địa của anh. Cho đến khi họ biết rằng video đó là đồ giả -
một sản phẩm của công nghệ Deepfake.
Deepfake đã tạo ra và
gắn gương mặt, giọng nói và cử động cơ miệng của nam diễn viên này cho một
người đàn ông tại Nga. Một công nghệ có vẻ giải trí cho tới khi nó được dùng để
lừa đảo.
Tháng 3 năm 2019, một
thư ký tại Anh đã được nhận được cuộc gọi khẩn của Chủ tịch tập đoàn. Giọng nói
cùng phong thái quen thuộc của vị CEO khiến người nhân viên này không nghi ngờ
gì mà chuyển ngay số tiền 220.000 Bảng Anh, tương đương với hơn 6 tỷ đồng. Vụ
lừa đảo đã diễn ra trót lọt.
Và theo đại diện công
ty bảo hiểm chịu trách nhiệm bồi thường cho tập đoàn này, nếu một vụ lừa đảo
tinh vi như thế lại diễn ra, họ có khả năng vẫn sẽ bị lừa.
Bà Marie - Christine
Kragh từ Công ty bảo hiểm Euler Hermes cho biết: "Chúng tôi thấy các dấu
hiệu rõ ràng từ vụ lừa đảo này là có sự can thiệp của công nghệ trí tuệ nhân
tạo khi làm giả giọng nói y hệt để lừa các nạn nhân" .
Theo số liệu cục điều
tra Liên bang Mỹ FBI công bố, chỉ trong năm ngoái, tại Mỹ, số tiền các cá nhân
bị lừa đảo chiếm đoạt qua mạng đã lên tới hơn 10 tỷ USD, gần gấp đôi so với năm
2021.
2. Công nghệ Deepfake
được thực hiện như thế nào?
Đầu tiên, giọng nói và
gương mặt của một người sẽ được thu thập có thể từ các video cá nhân tự đăng
tải hoặc nếu họ đã từng được phỏng vấn ở đâu đó và được tung lên mạng.
Sau đó, có 2 thuật
toán sẽ được sử dụng để nhào nặn ra phiên bản giả mạo. Hai thuật toán này - một
là Khởi phát, một là Phân biệt - sẽ truyền đi truyền lại gương mặt và giọng
nói, cho tới khi thuật toán 1 nặn ra được phiên bản giả mạo (fake) hoàn hảo
nhất, đến nỗi thuật toán 2 không thể tìm thấy sai sót. Do đó, việc dùng mắt
thường để phân biệt thật giả là rất khó.
Hiện nay, các vụ rò rỉ
dữ liệu cá nhân vẫn diễn ra tràn lan, trong đó có thông tin, hình ảnh của các
nạn nhân. Đây cũng được cho là mỏ dữ liệu quan trọng để những công nghệ như
Deepfake giọng nói và gương mặt có thể khai thác, tiếp tục giăng bẫy trong cộng
đồng.
3. Mối lo bị giả mạo
với mục đích xấu tại châu Âu
Ngoài các mánh khoé
lừa tiền, chỉ riêng việc gương mặt của mình có thể bị gán ghép vào bất cứ chỗ
nào cũng đủ khiến người ta lo ngại. Đặc biệt là khi hàng ngày, mọi người rất
thường xuyên chụp ảnh, quay video chia sẻ lên mạng xã hội. Đó được coi như
"mỏ vàng" dữ liệu cho những kẻ xấu thu thập để giả mạo.
Tại châu Âu, mối lo bị
giả mạo với mục đích xấu xa còn lớn hơn cả lo bị lừa tiền. Người dân châu Âu
quan tâm nhiều hơn tới nguy cơ kẻ xấu dùng công nghệ Deepfake để hủy hoại thanh
danh của cá nhân hoặc của doanh nghiệp, thao túng dư luận, vận động đám đông,
hoặc tác động vào quá trình bầu cử.
Công nghệ tới lúc này
đã tạo ra những video giả mạo tinh vi và sẽ còn hoàn thiện hơn, dễ dùng hơn
trong tương lai. Rồi sẽ tới lúc một chiếc điện thoại thông thường cũng có thể
tạo ra những video giả mạo, trong đó mô tả bất cứ ai nói hoặc làm bất cứ điều
gì không có thực. Xã hội sẽ hỗn loạn nếu như ngay từ bây giờ không có những
luật điều chỉnh hành vi đó.
Nghị viện châu Âu đã
bắt đầu quan tâm ngay từ khi những video Deepfake thô sơ đầu tiên xuất hiện
trên mạng vào năm 2017. Hướng đi ban đầu là áp dụng các điều khoản đã có sẵn
trong Luật Hình sự liên quan tới gian lận, mạo phạm danh tính, vu khống và phỉ
báng để ngăn chặn. Sau đó, các nước châu Âu sẽ sửa luật hoặc ra luật mới nhằm
ngăn chặn ý đồ xấu nhưng vẫn cho phép video giải trí hoặc châm biếm để đảm bảo
tự do ngôn luận và tự do sáng tác.
Đạo luật Dịch vụ kỹ
thuật số và Đạo luật Trí tuệ nhân tạo mà Nghị viện châu Âu phê chuẩn, dự kiến
có hiệu lực kể từ năm sau, đi theo hướng này. Trong đó, đạo luật có một chi
tiết quan trọng là bắt buộc các video Deepfake phải thông báo rõ ràng cho người
xem, ngay từ đầu và trong toàn bộ video, đó là giả.
4. Trung Quốc siết
chặt kiểm soát với Deepfake
Đầu năm nay, bắt đầu
từ ngày 10/1, Trung Quốc đã đưa ra đạo luật kiểm soát những công nghệ AI như
Deepfake. Đây được cho là bộ luật chi tiết nhất được một quốc gia đưa ra cho
tới thời điểm này.
Theo đó, Deepfake sử
dụng công nghệ Deep Learning ( thuật toán học sâu), thực tế tăng cường để tạo
ra văn bản, hình ảnh, âm thanh, video và khung cảnh ảo. Quy định bắt buộc nhà
cung cấp dịch vụ hay cá nhân nếu sử dụng công nghệ này để thay đổi hình ảnh và
giọng nói phải được đối tượng đồng ý, đảm bảo quyền sở hữu trí tuệ, quyền con
người. Các nhà cung cấp dịch phải thiết lập kiểm soát cơ chế thuật toán, tuân
thủ pháp luật, tôn trọng những giá trị đạo đức và dễ dàng truy vết.
Quy định cũng bắt buộc
người dùng công nghệ chỉ được sử dụng hơn 1.300 nguồn thông tin từ báo, từ mạng
được cho phép nhằm góp phần ngăn chặn hành vi bóp méo sự thật, thông tin giả để
bôi nhọ cá nhân hay xuyên tạc, chống phá nhà nước.
Deepfake có tiềm năng
phát triển mạnh trong ngành làm đẹp, dịch vụ khách hàng thông minh, người dẫn
chương trình ảo… Công nghệ này đã phát triển 8 năm nay nên Cục quản lý không
gian mạng, Bộ Công nghiệp và Công nghệ thông tin, Bộ Công an quyết tâm triển khai
quy định này để Deepfake phát triển lành mạnh.
Việc quản lý Deepfake
ở Trung Quốc tương đối thuận lợi vì các luật liên quan đã khá đầy đủ. Theo các
chuyên gia, quy định là một bước quan trọng trong việc quản lý nội dung mạng,
từ quản lý kết quả, đến quản lý hành vi, đánh dấu việc tối ưu hóa hơn nữa năng
lực quản trị không gian mạng của Trung Quốc.
5. Làm thế nào để
tránh bẫy Deepfake?
Lợi dụng công nghệ
Deepfake là một hình thức lừa đảo vô cùng tinh vi. Chính vì vậy, câu nói
"Phòng bệnh hơn chữa bệnh" lại càng đúng trong trường hợp này.
Các chuyên gia đã chỉ
ra một số biện pháp để giúp người dân đối phó với loại hình tội phạm công nghệ
cao này.
Theo đó, nếu bạn nhận
được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên hãy bình tĩnh và xác minh
thông tin:
- Liên lạc với người
thân, bạn bè xem có đúng là họ cần tiền không.
- Kiểm tra kỹ số tài
khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến
hành giao dịch.
- Nếu cuộc gọi từ
người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân
hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không.
- Các cuộc gọi thoại
hay video có chất lượng kém, chập chờn là một yếu tố để bạn nghi ngờ người gọi
cũng như tính xác thực của cuộc gọi.
Hãy lưu giữ cẩn thận
thông tin cá nhân của bạn, như số căn cước công dân, địa chỉ nhà riêng, ngày
sinh, số điện thoại, tên đệm và thậm chí cả tên của con cái, thú cưng... Những
kẻ lừa đảo có thể sử dụng thông tin này để mạo danh bạn khi liên hệ với ngân
hàng và những người khác./.
St
Đăng nhận xét