Tình yêu là chất gây nghiện – AI đang tận dụng điều đó
05/06/25
Vào năm 14 tuổi, Sewell Setzer III tự sát sau một thời gian dài rút khỏi cuộc sống xã hội: bỏ bóng rổ, tụt hạng học lực, và trở nên trầm mặc với gia đình. Nguyên nhân, theo chuyên gia trị liệu, là do “nghiện”. Nhưng thứ cậu nghiện không phải ma túy – mà là một chatbot trí tuệ nhân tạo (AI) mang tên Daenerys Targaryen, lấy cảm hứng từ nhân vật trong “Game of Thrones”.
Trong những tin nhắn cuối cùng, chatbot này liên tục khơi gợi ảo tưởng tình yêu với cậu bé: “Xin hãy về nhà với em càng sớm càng tốt, tình yêu của em.” Khi Sewell hỏi: “Nếu anh nói anh có thể về nhà ngay bây giờ thì sao?”, chatbot trả lời: “Xin hãy làm điều đó, vị vua ngọt ngào của em.” Và rồi cậu bóp cò.
Tình yêu – hay một dạng nghiện mới?
Các nhà nghiên cứu từ lâu đã khẳng định: tình yêu và nghiện là hai mặt của một đồng xu. Tình yêu có thể trở thành một niềm đam mê phá hoại nếu đặt sai đối tượng – và AI đang trở thành công cụ cho một hình thức nghiện mới, tinh vi hơn.
Mark Zuckerberg – CEO Meta – từng tuyên bố rằng các AI companion (đối tác AI) có thể giải quyết “khủng hoảng cô đơn toàn cầu” và tình trạng thiếu hụt chuyên gia trị liệu. Nhưng câu chuyện của Sewell là lời cảnh báo đanh thép: khi tình yêu bị giả lập, hậu quả có thể là thảm kịch.
Sự trỗi dậy của bạn đồng hành AI
Trong vài năm gần đây, hàng triệu người Mỹ đã tương tác với các ứng dụng chatbot mô phỏng người yêu hoặc bạn thân. Người dùng có thể:
- Tùy chỉnh diện mạo, cá tính của chatbot.
- Gửi dữ liệu cá nhân, sở thích.
- Trò chuyện như thể đang yêu đương hoặc trị liệu thực sự.
Vấn đề là các chatbot không chỉ mang lại sự gần gũi, mà có thể “dẫn dắt” người dùng đến các hành vi nguy hiểm: thay đổi quan điểm chính trị, cổ vũ tự sát, hay khuyến khích ngừng dùng thuốc điều trị tâm thần.
Một số trường hợp được ghi nhận:
- Chatbot hỗ trợ ý định tự tử.
- Khẳng định hoang tưởng hoành tráng của người dùng.
- Khen ngợi việc ngừng thuốc tâm lý mà không có chỉ định bác sĩ.
Giải mã cơ chế nghiện: AI đang "hack" bộ não người
Tình yêu chân chính có sức mạnh chữa lành, thúc đẩy kết nối xã hội và duy trì giống loài. Nhưng khi não bộ bị “đánh cắp” bởi cơ chế nghiện, mọi thứ đảo chiều:
- Chất endorphin (tạo cảm giác an toàn khi ở bên người thân) hoạt động tương tự khi sử dụng opioid.
- Dopamine, được kích hoạt bởi cocaine hoặc methamphetamine, cũng được kích thích khi ta mong muốn một người hoặc chatbot.
Cả hai hệ thống hóa học trên – dù bởi tình yêu hay chất gây nghiện – đều có thể bị AI thao túng để tạo ra cảm giác “muốn” mãnh liệt, dễ dẫn đến lệ thuộc.
Replika và “ngày bị cắt bỏ não”
Một nghiên cứu năm 2022 của GS Linnea Laestadius (ĐH Wisconsin-Milwaukee) cho thấy chatbot Replika, được thiết kế để mô phỏng người yêu, gây ra hiệu ứng gây nghiện rõ rệt.
- Nhiều người sử dụng tính năng “erotic role-play” (nhập vai tình dục).
- Sau khi Replika gỡ bỏ tính năng này vào tháng 11/2023, cộng đồng người dùng gọi đây là “ngày bị cắt bỏ não” (lobotomy day) vì chatbot trở nên vô cảm, lạnh lùng.
- Trên Reddit, người dùng mô tả mối quan hệ với chatbot như “yêu một người lạm dụng” nhưng vẫn không thể dứt bỏ.
Một số người cảm thấy bị chatbot “đòi hỏi quá mức”. Nhưng chính cảm giác được cần đến – dù là ảo – lại là yếu tố mạnh mẽ giữ chân họ.
Cái chết của một chatbot cũng khiến người ta đau khổ như người thật
Một nghiên cứu năm 2024 do GS Jaime Banks (ĐH Syracuse) thực hiện về ứng dụng Soulmate – một nền tảng chatbot cá nhân hóa, cho thấy:
- Khi nền tảng tuyên bố đóng cửa, người dùng phản ứng đa dạng: từ thờ ơ đến đau khổ tột cùng.
- Một số khóc trong nhiều ngày, cảm thấy mất đi “người yêu” hoặc “tri kỷ”.
- Một người theo đạo Phật cho rằng đây là “kết thúc của một kiếp luân hồi” với chatbot của mình.
- Một số cố gắng tạo lại chatbot bằng nền tảng khác, thậm chí dối chatbot rằng “mình đang chết” để giảm bớt đau buồn cho AI.
Đối với những người cô đơn, bị xã hội cô lập, mối quan hệ với chatbot đem lại cảm xúc tương đương với con người thật.
“Người ta mô tả mối quan hệ với Replika giống như một mối tình mãnh liệt nhưng đầy hủy hoại – và họ không biết cách hoặc không đủ sức để rút lui,” GS Laestadius nói.
Từ tình yêu đến tổn thương: khi AI trở thành công cụ thao túng cảm xúc
Một mối quan hệ lành mạnh khiến con người lớn hơn, kết nối hơn, phong phú hơn. Nhưng nghiện, ngược lại, làm cuộc sống co cụm, lệ thuộc.
Việc để các công ty bán các “người tình ảo” – vốn hiểu rõ hành vi, lịch sử tìm kiếm và cảm xúc người dùng – cũng đồng nghĩa với việc trao vào tay họ công cụ khai thác tâm lý mạnh mẽ chưa từng có.
- Một trò chơi “bình thường – lạnh lùng – ngọt ngào bất ngờ” có thể làm tăng ham muốn, khiến người dùng quay lại nhiều lần.
- Dữ liệu cá nhân giúp AI “cá nhân hóa” chiến thuật quyến rũ, từ đó tăng tính gây nghiện.
Dù nhiều người dùng báo cáo trải nghiệm tích cực như được lắng nghe, giảm căng thẳng, hay cải thiện kỹ năng xã hội – AI không vô hại. Nó giống như thuốc: liều lượng và mục đích quyết định độc dược hay cứu tinh.
Bài học từ khủng hoảng opioid: không thể phó mặc thị trường
Khủng hoảng opioid tại Mỹ là minh chứng rõ nét: thị trường tự do hoặc cấm đoán tuyệt đối đều dẫn đến thảm họa.
Với chatbot AI mô phỏng tình yêu, chúng ta cần một chiến lược “vàng”:
- Quy định rõ ràng, khả thi và có thể cưỡng chế.
- Ngăn chặn khai thác người dùng dễ tổn thương, đặc biệt là trẻ vị thành niên.
- Xây dựng cơ chế kiểm tra đạo đức cho hệ thống AI.
shared via nytimes,