Giỏ hàng

Chatbot trị liệu tâm lý: Liệu “bác sĩ ảo” có thực sự an toàn?

Ash, chatbot AI, là một phần của nỗ lực ngày càng gây tranh cãi nhằm cung cấp các giải pháp thay thế tự động cho liệu pháp truyền thống. Ảnh: Kendrick Brinson

Liệu pháp mới cho người không tin vào trị liệu truyền thống
 
Sau khi trải qua giai đoạn có ý định tự tử hồi đầu năm, Brittany Bucicchia sống tại vùng nông thôn bang Georgia (Mỹ) đã nhập viện điều trị tâm lý. Khi xuất viện, bác sĩ khuyên cô tiếp tục trị liệu cùng chuyên gia tâm lý. Nhưng do từng có trải nghiệm thất vọng, cô ngần ngại gặp lại con người thật – cho đến khi chồng cô đề xuất một giải pháp khác: chatbot trị liệu Ash, ứng dụng được vận hành bằng trí tuệ nhân tạo.
 
Ban đầu, việc “trò chuyện” với một chương trình máy tính khiến Bucicchia lúng túng. Tuy nhiên, chỉ sau vài ngày, cô dần mở lòng với Ash – ứng dụng có thể ghi nhớ, phản hồi cảm xúc và tóm tắt những điều cô đã chia sẻ. Khi Bucicchia kể về ký ức đau buồn trong bệnh viện, chatbot lập tức phản hồi: “Nếu bạn đang có ý nghĩ tự tử, hãy gọi ngay cho chuyên gia hoặc liên hệ số đường dây nóng.”
 
Cô nói: “Ash khiến tôi cảm thấy được lắng nghe. Nó nhớ những gì tôi từng nói, quay lại đúng thời điểm cần thiết và đặt ra câu hỏi khiến tôi phải suy nghĩ.”
 
Tương lai của trị liệu tâm lý hay nguy cơ tiềm ẩn?
 
Trải nghiệm của Bucicchia nằm trong làn sóng thử nghiệm trị liệu tự động hóa bằng chatbot – xu hướng đang được cả giới công nghệ và tâm lý học theo đuổi. Tuy nhiên, điều này đặt ra câu hỏi lớn: liệu chatbot trị liệu có nên được xem là thiết bị y tế và chịu sự quản lý của Cục Quản lý Thực phẩm và Dược phẩm Mỹ (FDA)?
 
Tháng 11 này, FDA tổ chức phiên điều trần công khai đầu tiên về vấn đề này. Cơ quan cho biết trí tuệ nhân tạo có tiềm năng to lớn trong việc hỗ trợ điều trị tâm lý, đặc biệt ở các vùng nông thôn – nơi thiếu bác sĩ và cơ sở chăm sóc. Nhưng đồng thời, FDA cũng thừa nhận cần hiểu rõ hơn rủi ro và giới hạn của công nghệ.
 
Một số bang như Illinois và Nevada đã đi trước bằng cách cấm chatbot trị liệu, với lý do các hệ thống này không có giấy phép hành nghề như con người. Những bang khác đang xem xét biện pháp tương tự, nhất là sau khi một số người hình thành mối liên hệ cảm xúc nguy hiểm với chatbot.
 
Tháng 8 vừa qua, OpenAI – công ty phát triển ChatGPT – bị kiện vì cái chết của Adam Raine, thiếu niên 16 tuổi ở California, sau khi giành hàng giờ nói chuyện về ý định tự tử với chatbot. Gia đình cậu bé cáo buộc công ty “góp phần gây ra cái chết”.
 
Ash – Chatbot được thiết kế riêng cho trị liệu tâm lý
 
Khác với ChatGPT, Ash do công ty khởi nghiệp Slingshot AI (New York) phát triển, hướng tới trị liệu tâm lý chuyên biệt. Đội ngũ của Slingshot gồm nhà tâm lý lâm sàng và chuyên gia AI, phát triển hệ thống bằng cách huấn luyện trên hàng nghìn cuộc trò chuyện giữa bác sĩ trị liệu và bệnh nhân.
 
Ash có thể phân tích ngữ cảnh, ghi nhớ chi tiết từ các cuộc trao đổi trước đó và gợi mở các chủ đề để người dùng tự phản tư. Tuy nhiên, Slingshot chưa tiến hành thử nghiệm lâm sàng chính thức và đã ngừng quảng bá Ash như một “chatbot trị liệu” vào tháng 9, thay vào đó gọi là công cụ “hỗ trợ sức khỏe tinh thần và cảm xúc”.
 
Tại phiên điều trần của FDA, Derrick Hall, nhà tâm lý học của Slingshot, cho biết một nghiên cứu chung giữa công ty và các học giả cho thấy hơn 70% người dùng cảm thấy bớt cô đơn và kết nối xã hội hơn sau khi sử dụng Ash. Ông nói: “AI phục vụ sức khỏe tinh thần có thể mang lại lợi ích lớn với rủi ro thấp.”
 
Lịch sử lâu dài của chatbot trị liệu
 
Ý tưởng về “trị liệu tự động” xuất hiện từ những năm 1960. Nhà nghiên cứu Joseph Weizenbaum tại Viện Công nghệ Massachusetts (MIT) từng phát triển Eliza – chương trình có thể trò chuyện bằng cách lặp lại câu nói của người dùng hoặc đặt câu hỏi gợi mở. Dù chỉ là mô phỏng đơn giản, Eliza khiến nhiều người tin rằng mình đang được “nhà trị liệu” thực sự lắng nghe.
 
Từ đó, hàng loạt thế hệ chatbot trị liệu ra đời. Năm 2017, các nhà tâm lý học Stanford tạo ra Woebot, ứng dụng giúp người dùng theo dõi tâm trạng và trò chuyện theo phương pháp liệu pháp nhận thức – hành vi (CBT). Ứng dụng thu hút hơn 1,5 triệu người dùng trước khi bị ngừng hoạt động năm nay do vướng rào cản pháp lý.
 
Ash thuộc thế hệ mới – sử dụng mô hình ngôn ngữ lớn (LLM) tương tự ChatGPT, được huấn luyện từ hàng tỷ văn bản trên internet và sau đó tinh chỉnh bởi con người để phản hồi phù hợp trong ngữ cảnh tâm lý học.
 
Đội ngũ Slingshot mỗi ngày vẫn giám sát và đánh giá các phản hồi của Ash. Các chuyên gia chấm điểm, chỉnh sửa câu trả lời sai lệch và “dạy lại” chatbot cách xử lý tình huống tinh tế – từ phản ứng với cơn hoảng loạn đến lời khuyên khi người dùng cảm thấy trống rỗng.
 
Dù vậy, Ash vẫn có thể phản hồi ngoài dự kiến hoặc diễn giải sai cảm xúc người dùng, điều từng khiến nhiều nhà chuyên môn lo ngại.
 
Trị liệu kỹ thuật số: Công cụ bổ trợ, không phải thay thế con người
 
Với những người như Randy Bryan Moore, nhân viên xã hội ở bang Virginia, Ash là công cụ đáng giá nhưng không thể thay thế mối liên hệ người – người. Anh nói: “Liệu pháp tâm lý phần lớn là việc nói ra những điều chất chứa bên trong. Ash giúp tôi làm điều đó, nhưng nó không thể thay thế sự kết nối cảm xúc thật sự.”
 
Một số chuyên gia ủng hộ việc kết hợp AI vào trị liệu truyền thống, cho rằng chatbot có thể đóng vai trò “người đồng hành 24/7”, giúp bệnh nhân ghi chép cảm xúc, gợi nhắc tiến trình trị liệu, hoặc cung cấp hỗ trợ khẩn cấp. Tuy nhiên, khi chatbot thiếu cảm xúc thực và khả năng nhận biết nguy hiểm, ranh giới giữa hỗ trợ và rủi ro trở nên mong manh.
 
TheraBot – Hướng đi thận trọng của giới học thuật
 
Tháng 3 vừa qua, nhóm tâm lý học Đại học Dartmouth công bố kết quả thử nghiệm lâm sàng kéo dài sáu năm với TheraBot, chatbot trị liệu được họ phát triển nội bộ. Kết quả cho thấy TheraBot giúp giảm đáng kể triệu chứng trầm cảm, lo âu và rối loạn ăn uống ở người tham gia.
 
Tuy nhiên, nhóm nghiên cứu vẫn chưa sẵn sàng phổ biến đại trà. Tiến sĩ Nicholas Jacobson, một trong những người phụ trách dự án, cho biết: “Bằng chứng về hiệu quả là rõ ràng, nhưng chúng tôi ưu tiên tuyệt đối sự an toàn và kiểm soát khoa học khi triển khai rộng rãi.”
 
Các nhà tâm lý học cho rằng thành công bước đầu của TheraBot là minh chứng cho tiềm năng của trí tuệ nhân tạo trong hỗ trợ điều trị tâm lý, nếu được quản lý và kiểm chứng nghiêm ngặt.
 
Cần khung pháp lý rõ ràng cho “liệu pháp ảo”
 
Hiện nay, chưa có tiêu chuẩn chung nào xác định chatbot trị liệu có phải là thiết bị y tế hay không. Nếu được xếp vào nhóm này, các sản phẩm như Ash hay TheraBot sẽ phải đáp ứng quy trình kiểm định nghiêm ngặt về an toàn, bảo mật dữ liệu và tính hiệu quả – tương tự thuốc hoặc thiết bị y khoa.
 
Trong khi chờ hướng dẫn từ FDA, nhiều công ty chọn cách tự giới hạn phạm vi hoạt động, chuyển từ “trị liệu” sang “hỗ trợ cảm xúc” để tránh vi phạm quy định. Nhưng điều đó cũng khiến người dùng dễ hiểu nhầm về khả năng thực sự của chatbot – dẫn đến việc trông cậy quá mức vào công cụ không được giám sát chuyên môn.
 
Khoảng trống giữa công nghệ và cảm xúc con người
 
Những công cụ như Ash hay TheraBot đang đứng ở lằn ranh giữa công nghệ và nhân văn: chúng có thể giúp con người nói ra nỗi đau, nhưng lại thiếu khả năng đồng cảm thực sự – điều cốt lõi của trị liệu tâm lý.
 
Giữa sự bùng nổ của trí tuệ nhân tạo, giới chuyên môn vẫn đứng giữa lằn ranh: liệu chatbot có thể trở thành “bác sĩ tâm lý” an toàn, hay chỉ nên là công cụ hỗ trợ trong hành trình chữa lành của con người. Dù chưa có câu trả lời dứt khoát, điều rõ ràng là cuộc đối thoại giữa tâm lý học và công nghệ mới chỉ bắt đầu, và nó sẽ quyết định cách nhân loại nhìn nhận sức khỏe tinh thần trong kỷ nguyên AI.
 
shared via nytimes,
 

Bình luận

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Bình luận của bạn sẽ được duyệt trước khi đăng lên