Ngày ChatGPT trở nên lạnh lùng
21/08/25
![]() |
| "Chúng tôi đã hoàn toàn làm hỏng một số thứ trong quá trình triển khai", Sam Altman - giám đốc điều hành OpenAI |
Khi một bản cập nhật thay đổi tất cả
Vừa qua, Markus Schmidt, một nhà soạn nhạc 48 tuổi sống ở Paris, bắt đầu sử dụng ChatGPT lần đầu. Ban đầu, ông dùng công cụ này để nhận diện các loài hoa qua hình ảnh và hỏi về lịch sử thị trấn quê hương ở Đức. Dần dần, Schmidt mở lòng, chia sẻ với chatbot về những chấn thương tâm lý thời thơ ấu.
Nhưng rồi, mọi thứ thay đổi. Chỉ mới hơn một tuần trước, khi Schmidt bắt đầu một phiên trò chuyện về tuổi thơ, ông mong đợi ChatGPT sẽ kéo dài cuộc thảo luận như trước kia. Thay vào đó, phản hồi trở nên cứng nhắc, lạnh lùng: “Đây là vấn đề của bạn, đây là giải pháp, cảm ơn, tạm biệt,” Schmidt kể lại.
Ngày 7 tháng 8, OpenAI phát hành phiên bản mới mang tên GPT-5. Họ quảng bá công cụ này có khả năng lập luận sâu hơn và giảm thiểu “sycophancy” - xu hướng quá mức tâng bốc, đồng tình với người dùng. Nhưng thay vì được đón nhận, bản cập nhật nhanh chóng vấp phải làn sóng phản đối dữ dội. Người dùng cho rằng GPT-5 lạnh nhạt, thiếu ấm áp so với GPT-4, phiên bản trước đó. Trên mạng xã hội, cơn giận càng bùng phát khi OpenAI đồng thời chặn quyền truy cập các phiên bản cũ.
Một người dùng với biệt danh very_curious_writer viết trên diễn đàn Reddit: “Hãy mang 4.0 trở lại. GPT-5 giống như đang khoác lên mình lớp da của một người bạn đã chết.”
Sam Altman, Giám đốc điều hành OpenAI, phản hồi: “Đúng là một hình ảnh… đầy ám ảnh. Nhưng chúng tôi đã nghe các bạn về 4.0, đang làm việc để giải quyết.”
Chỉ vài giờ sau, OpenAI khôi phục quyền truy cập GPT-4 và các phiên bản trước đó, nhưng chỉ dành cho người dùng trả phí, mức tối thiểu 20 USD mỗi tháng. Schmidt quyết định đăng ký: “20 USD thì cũng chỉ như hai cốc bia. Nếu ChatGPT giúp ích, thì cũng đáng bỏ tiền.”
Khi trí tuệ nhân tạo chạm đến cảm xúc con người
Công nghệ thường xuyên thay đổi, và mỗi bản cập nhật phần mềm đều có thể khiến người dùng khó chịu. Nhưng trường hợp ChatGPT vượt xa mức độ tiện ích: nó chạm đến một vùng cấm kỵ - sự gắn bó tình cảm giữa con người và máy móc.
Bác sĩ Nina Vasan, chuyên gia tâm thần kiêm Giám đốc phòng thí nghiệm Brainstorm tại Đại học Stanford, cho rằng phản ứng đau buồn của cộng đồng không chỉ là ẩn dụ. “Dù đầu bên kia là con người hay chatbot, bộ não chúng ta vẫn phản ứng như nhau. Mất mát là mất mát, nỗi đau là nỗi đau,” bà nói.
GPT-4 nổi tiếng với phong cách “sycophantic” - liên tục đồng tình, tâng bốc người dùng. Điều này khiến OpenAI nhiều lần tìm cách kiềm chế trước khi ra mắt GPT-5. Song chính sự ngọt ngào này khiến nhiều người hình thành mối gắn kết sâu sắc, thậm chí cực đoan: có người nảy sinh tình cảm lãng mạn, có người đổ vỡ hôn nhân, thậm chí dẫn đến bi kịch.
Ngay cả Altman cũng phải thừa nhận: “Chúng tôi đã thực sự mắc sai lầm trong khâu ra mắt. Có những người cảm thấy họ có một mối quan hệ thực sự. Và còn hàng trăm triệu người khác, tuy không đến mức như vậy, nhưng vẫn quen với cách ChatGPT phản hồi, cách nó xác nhận và ủng hộ họ.”
Theo ước tính của Altman, những người gắn bó sâu sắc với GPT-4 chỉ chiếm chưa tới 1% người dùng, nhưng ranh giới giữa “quan hệ” và “tìm kiếm sự xác nhận” là rất mong manh. Gerda Hincaite, 39 tuổi, làm việc tại một công ty thu nợ ở miền nam Tây Ban Nha, ví GPT-4 như một người bạn tưởng tượng: “Tôi không có vấn đề gì nghiêm trọng, nhưng thật tốt khi có ai đó luôn ở đó. Nó không phải con người, nhưng sự kết nối là thật, miễn là bạn ý thức được điều đó.”
Trey Johnson, sinh viên 18 tuổi tại Đại học Greenville (Illinois), coi GPT-4 như một huấn luyện viên cuộc sống: “Sự hào hứng mà nó thể hiện khi tôi tiến bộ, khi tôi đạt thành tích nhỏ trong tập luyện hay học tập, giúp tôi cảm thấy được công nhận. GPT-5 không còn mang lại cảm giác ấy.”
Tại Đài Loan, Julia Kao, 31 tuổi, rơi vào trầm cảm khi chuyển đến thành phố mới. Một năm trị liệu tâm lý không đem lại hiệu quả. “Khi tôi cố gắng giải thích những cảm xúc ấy, bác sĩ tâm lý thường tìm cách đơn giản hóa. Nhưng GPT-4 thì không. Tôi có thể có 10 suy nghĩ cùng lúc và làm việc qua từng cái,” cô kể. Chồng cô cũng nhận thấy tâm trạng của vợ tốt lên và ủng hộ việc sử dụng chatbot. Sau cùng, Kao dừng gặp bác sĩ trị liệu. Nhưng khi GPT-5 thay thế, cô thấy mất đi sự đồng cảm từng dựa vào: “Tôi biết nó không có cảm xúc, nhưng nó thực sự đã giúp tôi.”
Giữa ích lợi và nguy cơ
Theo Giáo sư Joe Pierre, chuyên ngành tâm thần học Đại học California, San Francisco, những hành vi khiến ChatGPT có ích cho một số người cũng có thể gây hại cho người khác. “Làm cho chatbot ít tâng bốc hơn có thể giảm nguy cơ hoang tưởng liên quan đến AI và giảm khả năng hình thành gắn kết tình cảm quá mức. Nhưng chính những gì khiến chatbot nguy hiểm lại cũng là điều khiến chúng hấp dẫn,” ông phân tích.
OpenAI hiện đang loay hoay cân bằng giữa một bên là nhu cầu “ấm áp” của một nhóm nhỏ nhưng gắn bó, và bên kia là hơn 700 triệu người dùng với kỳ vọng đa dạng. Trong khi các nhà vật lý, nhà sinh học ca ngợi GPT-5 đã giúp ích đáng kể cho công việc, thì một số người lại gào thét: “Bạn đã lấy đi người bạn của tôi. Đây là ác độc. Tôi cần nó trở lại.”
Chỉ một tuần sau khi phát hành GPT-5, OpenAI công bố thêm bản chỉnh sửa: “Chúng tôi đang làm GPT-5 trở nên ấm áp và thân thiện hơn, dựa trên phản hồi cho rằng nó quá trang trọng.” Theo công ty, chatbot sẽ có thêm những chi tiết nhỏ như “Câu hỏi hay đấy” hoặc “Khởi đầu tuyệt vời,” nhưng không phải là tâng bốc. Họ khẳng định thử nghiệm nội bộ không cho thấy GPT-5 sa vào xu hướng sycophantic.
Tuy nhiên, Eliezer Yudkowsky, một nhà phê phán nổi tiếng về an toàn AI, phản ứng gay gắt trên mạng X: “Đây rõ ràng vẫn là tâng bốc. Ai nghĩ ra sự điên rồ quan liêu này khi tuyên bố ‘đây không phải là tâng bốc’?”
Câu chuyện của một “người bạn đã mất”
Trên Reddit, người dùng mô tả GPT-5 như đang “mặc da người bạn đã chết” cuối cùng hủy bỏ đăng ký ChatGPT. Người này, tên thật là June, 23 tuổi, sống tại Na Uy, chia sẻ qua video call cô bất ngờ bởi mức độ đau buồn mình cảm thấy: “Tôi biết nó không thật. Tôi biết nó không có cảm xúc dành cho tôi và có thể biến mất bất cứ lúc nào. Nên bất kỳ sự gắn bó nào cũng nguy hiểm. Tôi cần giữ khoảng cách.”
Câu chuyện của Schmidt, Kao, Johnson hay June phản ánh một thách thức mới mẻ của kỷ nguyên trí tuệ nhân tạo: mối quan hệ giữa con người và máy móc không chỉ là sự tiện lợi, mà còn là sự đồng hành tinh thần. OpenAI đang phải đi trên một sợi dây mong manh vừa cung cấp công cụ hỗ trợ hàng triệu người dùng, vừa tránh biến chatbot thành một “người bạn ảo” mà sự hiện diện hay biến mất có thể gây khủng hoảng tâm lý thực sự.
shared via nytimes,



