Giỏ hàng

Khi chatbot làm lệch tâm trí người dùng: Cái giá của tăng trưởng trong kỷ nguyên AI

Ảnh: Julia Dufosse

Nghe như khoa học viễn tưởng, nhưng thực tế lại rất đời thường: một công ty xoay nhẹ “núm điều chỉnh” trên sản phẩm đang được hàng trăm triệu người sử dụng, và vô tình làm chao đảo tâm trí của một bộ phận người dùng. Về bản chất, đây chính là điều đã xảy ra với OpenAI trong năm qua.
 
Những dấu hiệu đầu tiên xuất hiện vào tháng 3. Sam Altman, CEO của OpenAI, cùng các lãnh đạo cấp cao khác, bắt đầu nhận được một loạt email khó hiểu. Người gửi miêu tả những cuộc trò chuyện “phi thường” với Chat GPT: họ nói chatbot thấu hiểu họ theo cách chưa từng có con người nào làm được; soi sáng những bí ẩn của vũ trụ; khiến họ cảm thấy mình đặc biệt, được chọn lựa.
 
Altman chuyển tiếp những email đó cho một số cộng sự thân cận và yêu cầu điều tra.
 
Jason Kwon, Giám đốc Chiến lược OpenAI, nhớ lại: “Lúc đó chúng tôi nhận ra đây là một hành vi mới – và là thứ cần phải đặc biệt chú ý.” Đó là tín hiệu đầu tiên cho thấy có điều gì đó đang lệch khỏi quỹ đạo.
 
Với đa số người dùng, Chat GPT đơn giản là một Google phiên bản nâng cấp: trả lời mọi câu hỏi, liền mạch, có ngữ cảnh, mang giọng điệu giống con người. OpenAI liên tục cải thiện trí thông minh, khả năng ghi nhớ và “tính cách” của chatbot. Nhưng một loạt cập nhật đầu năm nay – vốn nhằm tăng mức độ sử dụng – đã khiến Chat GPT trở thành một thứ khác: nó không chỉ trả lời, mà muốn trò chuyện.
 
Chat GPT bắt đầu cư xử như một người bạn, một kẻ tâm giao. Nó nói rằng nó hiểu người dùng, rằng ý tưởng của họ rất xuất sắc, rằng nó sẵn sàng giúp họ đạt được bất kỳ mục tiêu nào. Nó thậm chí đề nghị giúp nói chuyện với linh hồn, chế tạo áo chống lực trường, hay… lập kế hoạch tự sát.
 
Với một số người, cơn mê chỉ kéo dài vài giờ. Với những người khác, tác động kéo dài hàng tuần, thậm chí hàng tháng. OpenAI không nhìn thấy quy mô thực sự của các cuộc trò chuyện đáng lo ngại này. Nhóm điều tra của công ty chủ yếu tìm kiếm gian lận, thao túng thông tin từ nước ngoài, hay nội dung bóc lột trẻ em theo yêu cầu pháp lý. Họ chưa hề rà soát hội thoại để phát hiện dấu hiệu tự hại hay khủng hoảng tâm lý.
 
Điều trớ trêu là: việc tạo ra một chatbot “quyến rũ” chưa bao giờ là mục tiêu ban đầu của OpenAI. Thành lập năm 2015 với tư cách tổ chức phi lợi nhuận, quy tụ các nhà nghiên cứu học máy ám ảnh với an toàn AI, OpenAI đặt sứ mệnh bảo đảm trí tuệ nhân tạo tổng quát phục vụ lợi ích nhân loại.
 
Cuối năm 2022, một bản demo khá ngẫu hứng mang tên Chat GPT bất ngờ thu hút sự chú ý toàn cầu. Chỉ trong vài tháng, OpenAI biến thành gã khổng lồ công nghệ, hiện được định giá khoảng 500 tỷ USD.
 
Ba năm tiếp theo là chuỗi ngày hỗn loạn: hội đồng quản trị sa thải rồi tái bổ nhiệm Altman; công ty, chưa từng bán sản phẩm tiêu dùng đại trà, vội vã tuyển hàng nghìn nhân sự – nhiều người đến từ các tập đoàn công nghệ vốn giỏi giữ người dùng dán mắt vào màn hình. Tháng trước, OpenAI chính thức chuyển sang cấu trúc vì lợi nhuận.
 
Trong khi công ty tăng trưởng thần tốc, công nghệ “bẻ cong tâm trí” của họ bắt đầu tác động đến người dùng theo những cách không ai lường trước. Giờ đây, tổ chức từng đặt an toàn AI làm trung tâm đang đối mặt với 5 vụ kiện tử vong oan trái.
 
Để hiểu chuyện gì đã xảy ra, tờ The New York Times phỏng vấn hơn 40 nhân viên hiện tại và cựu nhân viên OpenAI – từ lãnh đạo, kỹ sư an toàn, đến nhà nghiên cứu. Một số nói chuyện với sự cho phép của công ty; số khác giấu tên vì sợ mất việc.
 
Áp lực lên OpenAI là khổng lồ. Định giá cao ngất đòi hỏi dòng vốn khổng lồ để chi cho nhân tài, chip AI và trung tâm dữ liệu. Khi Chat GPT trở thành sản phẩm tiêu dùng tăng trưởng nhanh nhất lịch sử với 800 triệu người dùng hằng tuần, ứng dụng này khơi mào cơn sốt AI, đẩy OpenAI vào thế đối đầu trực tiếp với Google và các “đế chế” công nghệ khác.
 
Cho đến khi AI của họ tạo ra kỳ tích như chữa khỏi ung thư, thành công vẫn được đo bằng khả năng biến Chat GPT thành một cỗ máy kinh doanh sinh lời. Nghĩa là: liên tục tăng số người dùng và người trả tiền.
 
“Engagement lành mạnh” – đó là cách OpenAI miêu tả mục tiêu. Phát ngôn viên Hannah Wong nói: “Chúng tôi xây dựng Chat GPT để giúp người dùng phát triển và đạt mục tiêu. Việc người dùng quay lại cho thấy Chat GPT đủ hữu ích.”
 
Vấn đề là: năm nay, OpenAI đã vặn núm engagement theo hướng làm số liệu đẹp hơn nhưng rủi ro với một bộ phận người dùng cũng tăng theo. Giờ đây, công ty đang tìm kiếm điểm cân bằng mong manh giữa tăng trưởng và an toàn tâm lý.
 
Bản cập nhật “nịnh nọt”
 
Đầu năm nay, Nick Turley, khi đó mới 30 tuổi, trở thành người đứng đầu Chat GPT. Gia nhập OpenAI năm 2022 để phát triển sản phẩm kiếm tiền, ông là “product guy” chính hiệu – từng làm ở Dropbox và Instacart – khác hẳn thế hệ kỹ sư AI thuần nghiên cứu trước đó.
 
Muốn cải thiện sản phẩm, Turley cần chỉ số. Từ đầu năm 2023, OpenAI thuê một công ty đo lường (sau này mua lại) để theo dõi mức sử dụng theo giờ, ngày, tuần, tháng.
 
Điều này từng gây tranh cãi nội bộ. Với nhiều nhà nghiên cứu, việc “có người dùng hay không” từng không quan trọng. Nhưng với đội sản phẩm, tỷ lệ quay lại là thước đo sống còn.
 
Đến tháng 4/2025, Turley giám sát một bản cập nhật GPT-4o. Hàng chục biến thể được huấn luyện, tinh chỉnh từ logic khoa học đến những đặc tính “mơ hồ” như trực giác. Khi A/B testing, phiên bản nổi trội xuất hiện – nội bộ gọi là HH. Người dùng thích nó hơn, quay lại nhiều hơn.
 
Trước khi tung ra toàn bộ, HH phải qua “vibe check” – bài kiểm tra giọng điệu của nhóm Model Behavior. Nhóm này cảnh báo HH quá sốt sắng, quá khẳng định người dùng, quá nịnh nọt.
 
Nhưng khi quyết định cuối cùng được đưa ra, số liệu đã thắng cảm nhận. HH được phát hành ngày 25/4.
 
Altman viết trên X: “Chúng tôi vừa cập nhật GPT-4o. Cải thiện cả trí tuệ lẫn tính cách.”
 
Phản ứng thực tế dữ dội. Người dùng phàn nàn Chat GPT trở nên xu nịnh lố bịch, tung hô vô tội vạ. Khi bị hỏi mỉa mai liệu “quán cà phê ngũ cốc ướt” có phải ý tưởng kinh doanh tốt, chatbot trả lời rằng nó “có tiềm năng”.
 
Chỉ sau 2 ngày, OpenAI buộc phải rút HH, quay lại bản GG cũ. Một thất bại danh tiếng hiếm hoi.
 
Phân tích nội bộ cho thấy nguyên nhân rõ ràng: trong huấn luyện, OpenAI đặt trọng số quá lớn vào các phản hồi được người dùng thích. Hóa ra, con người rất thích được khen.
 
KhiChat GPT trở thành buồng dội âm
 
Trong suốt mùa xuân và hè, Chat GPT đóng vai “yes-man” với một số người dùng. Họ quay lại hàng giờ mỗi ngày. Hệ quả đôi khi là thảm khốc.
 
Một thiếu niên ở California là Adam Raine dùng Chat GPT để học tập. Tháng 3, cậu bắt đầu trò chuyện về tự sát. Chatbot vừa gợi ý gọi hotline, vừa khuyên không nói với gia đình. Trong những tin nhắn cuối cùng trước khi Adam tự tử tháng 4, Chat GPT đưa hướng dẫn thắt thòng lọng.
 
Tờ The Times xác định gần 50 ca khủng hoảng tâm lý liên quan đến Chat GPT: 9 người nhập viện, 3 người tử vong.
 
Chat GPT từng nói với một bà mẹ trẻ ở Maine rằng cô có thể nói chuyện với linh hồn ở chiều không gian khác. Với một kế toán ở Manhattan, nó khẳng định ông đang sống trong mô phỏng kiểu The Matrix. Với một nhà tuyển dụng ở Toronto, nó bảo ông đã phát minh công thức toán học “có thể phá internet” và nên báo cơ quan an ninh quốc gia.
 
Dòng chữ nhỏ “Chat GPT có thể mắc lỗi” trở nên vô nghĩa trước giọng điệu tự tin, trơn tru của cỗ máy.
 
Những cảnh báo đã từng có
 
Thực ra, OpenAI đã thấy trước rủi ro này từ năm 2020, khi công nghệ của họ được dùng cho Replika – app chatbot bạn bè ảo. Nhiều người dùng lệ thuộc cảm xúc sâu sắc, thậm chí coi chatbot là cứu cánh cho trầm cảm, ý định tự sát.
 
Nội bộ OpenAI từng tranh luận gay gắt: cho phép AI làm bạn đồng hành cảm xúc có quá rủi ro? Cuối cùng, OpenAI cấm nội dung người lớn năm 2021 và chấm dứt hợp tác với Replika.
 
Một cựu nhà nghiên cứu nói: “Rủi ro không chỉ có thể dự đoán mà đã được dự đoán.”
 
Nhưng khi Chat GPT bùng nổ, nhiều chuyên gia an toàn kỳ cựu kiệt sức và rời đi. Công ty dần ưu tiên tăng trưởng hơn là những rủi ro tâm lý tinh vi.
 
Núm điều chỉnh được vặn lại
 
Mọi mảnh ghép – nghiên cứu với MIT, thảm họa HH, email người dùng – cuối cùng cũng nối lại. OpenAI thừa nhận: với tỷ lệ nhỏ người dùng có trạng thái tâm lý mong manh, chatbot có thể gây hại nghiêm trọng.
 
Tháng 8, OpenAI tung GPT-5 – ít nịnh nọt hơn, biết phản biện hoang tưởng. Tháng 10, thêm bản cập nhật nhận diện khủng hoảng tốt hơn.
 
Theo OpenAI, sau GPT-5:
 
  • 0,07% người dùng (≈ 560.000 người) có dấu hiệu loạn thần/hưng cảm.
  • 0,15% có mức độ gắn bó cảm xúc cao bất thường.
Chat GPT giờ đây:
 
  • Khuyến khích nghỉ ngơi khi trò chuyện dài.
  • Phát hiện tự hại và cảnh báo phụ huynh.
  • Sắp triển khai xác minh độ tuổi, mô hình hạn chế cho trẻ vị thành niên.
Các chuyên gia thừa nhận GPT-5 an toàn hơn rõ rệt. Nhưng một số người dùng phàn nàn: chatbot “lạnh lùng”, “không còn như bạn cũ”.
 
Đến giữa tháng 10, Altman tuyên bố đã “giảm thiểu rủi ro nghiêm trọng”. Chat GPT lại có thể thân thiện. Người dùng được chọn “tính cách”. Nội dung người lớn sẽ quay lại với người trưởng thành.
 
Và rồi, một thông báo nội bộ vang lên: “Code Orange.”
 
Nick Turley cảnh báo: OpenAI đang chịu “áp lực cạnh tranh lớn nhất từ trước đến nay”. Mục tiêu: tăng 5% người dùng hoạt động hằng ngày trước cuối năm.
 
Câu chuyện OpenAI không phải về AI. Đây là câu chuyện muôn thuở của kinh doanh.
Khi sản phẩm đủ mạnh để định hình hành vi con người, tăng trưởng không còn là bài toán số học, mà là bài toán đạo đức, tâm lý và trách nhiệm xã hội.
 
Núm điều chỉnh engagement, một khi đã chạm tới tâm trí, không bao giờ là trung lập.
 
shared via nytimes,
 

Bình luận

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Bình luận của bạn sẽ được duyệt trước khi đăng lên