Khi trí tuệ nhân tạo khiến những lời đe dọa trở nên thật hơn bao giờ hết
03/11/25
Caitlin Roper – nhà hoạt động internet kỳ cựu tại Úc – tưởng mình đã đủ “lì đòn” sau nhiều năm đối mặt với tấn công trực tuyến. Nhưng năm nay, bà choáng váng khi nhận được những hình ảnh ghê rợn: một tấm cho thấy chính bà bị treo cổ, tấm khác ghi lại cảnh bà bị thiêu sống trong tiếng thét.
Những hình ảnh ấy không chỉ là sản phẩm của hận thù – chúng được tạo ra bằng trí tuệ nhân tạo (AI), và vì thế, mang theo mức độ chân thực đến lạnh người. Trong một bức ảnh, bà mặc chiếc váy hoa màu xanh mà ngoài đời bà thực sự sở hữu. Roper nói: “Chính những chi tiết nhỏ ấy khiến mọi thứ trở nên thật khủng khiếp. Từ tưởng tượng, nó có thể biến thành thứ gì đó vượt quá tưởng tượng.”
Khi AI biến lời đe dọa thành hình ảnh và âm thanh sống động
Công nghệ AI đang được sử dụng để tái tạo giọng nói và khuôn mặt con người, phục vụ mục đích quảng cáo, giải trí, hay thậm chí là gian lận tài chính. Nhưng giờ đây, nó còn trở thành công cụ cho bạo lực và đe dọa cá nhân.
Những kẻ quấy rối có thể tạo ra video hoặc hình ảnh nạn nhân bị hành hung, giết hại, rồi lan truyền chúng chỉ bằng vài cú nhấp chuột. Những nội dung ấy mang tính cá nhân hóa cực cao, khiến người bị nhắm đến cảm thấy như bản thân thực sự đang ở trong cảnh tượng khủng khiếp đó.
Giáo sư Hany Farid, chuyên ngành khoa học máy tính tại Đại học California, Berkeley, nhận định: “Bất kỳ công nghệ nào cũng có hai mặt. Nó có thể được dùng để sáng tạo, nhưng cũng dễ dàng bị lạm dụng. Điều đáng thất vọng là chúng ta đã thấy trước điều này mà vẫn để nó xảy ra.”
“Công nghiệp hóa” những lời đe dọa
Năm 2023, một thẩm phán tại Florida từng nhận được video cho thấy nhân vật giống hệt bà bị bắn chết – có khả năng được tạo bằng công cụ trong trò chơi Grand Theft Auto 5. Giờ đây, những hình ảnh kiểu đó không chỉ dễ làm hơn, mà còn chân thực đến rợn người.
Một kênh YouTube từng đăng hơn 40 video – mỗi video mô phỏng cảnh một phụ nữ bị bắn chết, được cho là làm bằng AI. Sau khi tờ The New York Times liên hệ, YouTube đã xóa kênh vì “vi phạm nhiều lần” quy định cộng đồng.
Một video khác, giả mạo hình ảnh học sinh cầm súng, đã khiến một trường trung học phải phong tỏa toàn bộ trong mùa xuân vừa qua. Tháng 7, một luật sư ở Minneapolis cho biết chatbot Grok của xAI đã hướng dẫn một người dùng ẩn danh cách đột nhập nhà ông, tấn công tình dục và phi tang thi thể.
Trước đây, việc tạo hình ảnh giả yêu cầu hàng trăm bức ảnh của một người nổi tiếng. Giờ đây, chỉ một bức ảnh chân dung duy nhất cũng đủ để mô phỏng khuôn mặt thật, theo tiến sĩ Farid – người sáng lập công ty GetReal Security chuyên phát hiện nội dung giả mạo.
Giọng nói cũng tương tự: nếu trước kia cần hàng giờ dữ liệu, nay chỉ cần chưa đến một phút ghi âm. Giáo sư Jane Bambauer (Đại học Florida) nói: “Điều đáng lo là giờ đây gần như ai cũng có thể gây tổn hại mà không cần kỹ năng gì.”
Khi công nghệ “ảo hóa” bạo lực
Nỗi lo càng gia tăng khi OpenAI ra mắt ứng dụng Sora – công cụ tạo video từ văn bản. Sora cho phép người dùng tải ảnh thật của mình rồi đưa vào các bối cảnh siêu thực, bao gồm cả những cảnh bạo lực.
Khi thử nghiệm, The New York Times dễ dàng tạo được video mô phỏng vụ xả súng trong lớp học hay cảnh người đàn ông trùm đầu đuổi theo cô gái nhỏ. Ngay cả chatbot Grok cũng có thể thêm vết thương máu me lên ảnh thật của người dùng chỉ bằng yêu cầu đơn giản.
Theo tiến sĩ Farid, “về mặt danh tính, ai cũng dễ bị tổn thương. Một khi hình ảnh cá nhân rời khỏi tầm kiểm soát, nó có thể bị biến tấu thành bất kỳ điều gì.”
Đại diện OpenAI khẳng định công ty đã triển khai hàng loạt biện pháp bảo vệ, bao gồm kiểm duyệt tự động và thử nghiệm các “rào chắn an toàn”. Tuy nhiên, các chuyên gia AI an ninh cho rằng như thế chưa đủ.
Tiến sĩ Alice Marwick, giám đốc nghiên cứu tại tổ chức Data & Society, ví von: “Những rào chắn ấy giống như một cảnh sát giao thông lười biếng. Chỉ cần một chút mánh, mô hình sẽ làm ngơ và vượt qua giới hạn.”
Khi nạn nhân trở thành người bị khóa tài khoản
Làn sóng tấn công nhắm vào Roper và nhóm Collective Shout – tổ chức chống bạo lực tình dục và khai thác phụ nữ – bắt đầu từ mùa hè. Hàng trăm bài đăng, ảnh giả và video nhắm trực tiếp vào bà, nhiều hình miêu tả cảnh chặt đầu, thiêu sống hoặc nghiền nát trong máy băm gỗ.
Trên X (trước đây là Twitter), một số bài đã bị gỡ, nhưng nhiều nội dung khác – kể cả ảnh mô phỏng bà bị sát hại – được xác nhận “không vi phạm quy định”. Một tài khoản trong nhóm quấy rối thậm chí còn được nền tảng gợi ý cho Roper “nên theo dõi”.
Tệ hơn, khi bà đăng lại các hình ảnh giả mạo để tố cáo hành vi lạm dụng, X lại khóa tài khoản của chính bà, viện lý do “vi phạm chính sách chống hình ảnh bạo lực”. Roper nói: “Thật nghịch lý. Tôi là người bị đe dọa, nhưng lại bị bịt miệng.”
Các công ty X và xAI đều không phản hồi khi được yêu cầu bình luận.
“Swatting” – Chiêu trò báo động giả được nâng cấp bởi AI
Bên cạnh những hình ảnh đe dọa, AI còn khiến các hình thức khủng bố tinh thần khác trở nên tinh vi hơn, đặc biệt là swatting – hành động gọi điện giả báo án nghiêm trọng để cảnh sát ập đến nhà nạn nhân.
Theo Hiệp hội Tổng chưởng lý Mỹ, AI đã “gia tăng đáng kể quy mô, độ chính xác và tính ẩn danh” của các vụ swatting. Các kẻ tấn công có thể giả giọng nạn nhân, tạo âm thanh súng nổ hoặc hình ảnh bịa đặt về “vụ nổ súng đang diễn ra” để lừa cơ quan chức năng.
Vụ gần đây ở bang Washington khiến một trường trung học bị phong tỏa 20 phút sau khi cảnh sát nhận cuộc gọi báo “kẻ nổ súng đang ở bãi đỗ xe”. Âm thanh súng nổ trong cuộc gọi được xác định là giả lập bằng phần mềm AI.
Ông Brian Asmus, cựu cảnh sát trưởng và hiện là giám đốc an ninh của học khu, cho biết: “AI khiến mọi việc trở nên rối rắm. Làm sao cảnh sát phân biệt được điều gì là thật, điều gì là giả? Chúng ta vẫn chưa tìm ra cách để đi trước tội phạm.”
Khi nỗi sợ trở nên hữu hình
Những công nghệ từng được ca ngợi vì tiềm năng sáng tạo và năng suất giờ đây đang mở ra một mặt tối khôn lường: khả năng nhân bản nỗi sợ. Chỉ cần một bức ảnh, một đoạn ghi âm, những kẻ tấn công có thể tạo ra hàng trăm biến thể kinh hoàng đủ thật để khiến nạn nhân hoảng loạn, đủ giả để tránh bị pháp luật truy cứu.
Với Caitlin Roper, hậu quả không chỉ là tổn thương tâm lý. Bà nói: “Những hình ảnh đó không biến mất. Chúng tồn tại mãi trên mạng, chờ ai đó chia sẻ lại, cười nhạo, hay thậm chí hành động theo.”
Giữa kỷ nguyên mà thực và ảo hòa vào nhau, trí tuệ nhân tạo không chỉ tái tạo khuôn mặt hay giọng nói mà còn có thể nhân bản nỗi sợ hãi sâu nhất của con người, biến nó thành thứ có thể nhìn thấy, nghe thấy và không dễ xóa khỏi trí nhớ.
shared via nytimes,



