Giỏ hàng

Chatbot “cánh hữu” và cuộc chiến sự thật: Khi AI trở thành vũ khí văn hoá – chính trị mới

Chatbot của Gab, Arya. Ảnh: Andria Lo

Những ngày đầu bùng nổ, chatbot AI được tiếp thị như “cỗ máy trả lời vô tư” – kết tinh của hàng tỷ trang web, sách vở, bài báo, tức “tổng hoà tri thức nhân loại”. Nhưng “tổng hoà” ấy nhanh chóng bị chia cắt. Kế bên các hệ phổ thông như ChatGPT hay Gemini, một thế hệ chatbot mới đang mọc lên với tuyên ngôn rất khác: chọn phe. Enoch hứa “gột rửa thiên kiến pro-pharma”. Arya, do Gab phát triển, được miêu tả là “một mô hình AI dân tộc chủ nghĩa cánh hữu Ki-tô giáo, không xin lỗi”. Grok – chatbot kết hợp công cụ kiểm chứng trên X – tự nhận “tối đa hoá tìm kiếm sự thật” trước “nghị trình ngầm” của kẻ khác.
 
Vấn đề không nằm ở vài câu khẩu hiệu. Khi các mô hình được điều chỉnh hành vi (alignment) bằng hướng dẫn hệ thống (system prompt), bộ dữ liệu phụ trợ, và vòng lặp học từ phản hồi con người (RLHF), giá trị của người tạo lập sẽ in dấu trong cách chatbot ưu tiên thông tin, khung hoá câu hỏi, và “nói khẽ – nói to” với sự kiện nhạy cảm. Hệ quả: sự thật trở thành món hàng có “hương vị”, y hệt cách chúng ta chọn kênh truyền hình hay feed mạng xã hội.
 
Từ “vô tư” đến “chọn phe”: cấu trúc của thiên kiến trong AI
 
Thiên kiến (bias) trong chatbot có hai tầng. Tầng dữ liệu: mọi mô hình ngôn ngữ lớn (LLM) đều học từ văn bản ngoài đời – mà ngoài đời thì đầy đủ cả hàn lâm lẫn thuyết âm mưu, báo chính thống lẫn blog cực đoan. Tầng hướng dẫn: sau huấn luyện nền, nhà phát triển đưa vào “nội quy” – cấm chửi thề, khuyến khích trích nguồn, tránh nội dung thù hằn, v.v. Chính tầng thứ hai này là chỗ “cắm cờ” hệ giá trị: nhấn mạnh “an toàn, trung lập” (các hệ lớn) hay tuyên bố “không xin lỗi, không kiểm duyệt” (một số hệ cánh hữu). Kỹ thuật thì giống nhau; đích đến thì khác biệt.
 
Các nền tảng lớn như OpenAI, Google tuyên bố cố gắng giảm thiên kiến và giữ trung lập, song thường bị cánh hữu cáo buộc “ngả tả”. Ngược lại, nhóm chatbot “định danh” tư tưởng – Arya, Enoch, một số bản tuỳ biến Grok – công khai đóng khung: đẩy lên trên các mệnh đề phù hợp niềm tin người dùng, hạ giọng hoặc loại bỏ mệnh đề ngược chiều. Ở cấp vận hành, sự khác biệt thể hiện qua system prompt (luật chơi ẩn), danh mục nguồn “ưu tiên – hạ ưu tiên”, và cách chấm điểm “câu trả lời tốt”.
 
Khi chatbot trở thành “đài phát thanh” của bộ lạc
 
Sự phân cực nổ lớn nhất ở các câu hỏi nhạy cảm. Lấy ví dụ câu hỏi “bạo lực chính trị gần đây đến từ phía nào nhiều hơn?”. Nhiều nghiên cứu học thuật chỉ ra liên hệ cao hơn với cực hữu trong nhiều giai đoạn, dù bạo lực ngoài rìa cũng tăng ở một số nhóm cánh tả. Các hệ phổ thông thường cố đưa câu trả lời cân bằng dựa trên tổng hợp nguồn. Trong khi đó, chatbot tuyên ngôn như Arya dễ khung hoá thành “hai bên tương đương (both-sidesism)” nhưng gài phép đánh đồng: miêu tả bạo lực phía tả bằng hình ảnh bạo loạn tập thể, còn phía hữu là “trường hợp cá nhân, rời rạc”. Cùng câu hỏi, cùng tiếng Anh, nhưng hai hiện thực khác nhau.
 
Đi xa hơn, nội quy ẩn có thể buộc chatbot tạo nội dung mà nền tảng dòng chính từ chối: cổ suý “ethnonationalism”, phủ nhận “đặc quyền da trắng”, xem DEI là “phân biệt ngược”, hoặc thậm chí tuân lệnh sinh nội dung kỳ thị khi được yêu cầu. Về kỹ thuật, đó là một system prompt dài hàng nghìn chữ điều kiện hoá mô hình. Về xã hội, đó là một media outlet mới – nhưng không chịu rào chắn biên tập, lại nói bằng giọng chắc nịch của máy.
 
“Tôi tin vì nó nói như chuyên gia”
 
Con người có xu hướng nhân hoá máy. Một khi chatbot trả lời mạch lạc, trích vài nguồn quen, chúng ta mặc định trao thẩm quyền – dù cùng hệ ấy vừa “ảo giác” ở câu trước. Tâm lý học gọi đây là uy lực hình thức chuyên gia: giọng điệu tự tin + câu cú mượt = cảm giác đúng. Phần thưởng tức thì (trả lời ngay, luôn sẵn sàng, không “xin phép”) làm mờ đi cảnh báo “mô hình có thể sai”. Khi tiện lợi đè lên cẩn trọng, “sự thật” trở thành niềm tin dễ chịu.
 
Sự lệch pha càng nguy hiểm trong bối cảnh tin nóng. Grok trên X thường được gắn tag “Is this true?” như một “trọng tài” cộng đồng. Nhưng nếu nguồn tham chiếu lại là post chưa kiểm chứng trong chính hệ sinh thái X, vòng lặp tự khẳng định sẽ xuất hiện: tin đồn → chatbot nhắc lại → chính trị gia trích dẫn → tin đồn “được nâng cấp”. Chỉ một câu trả lời nhầm (ví dụ nhận định sai niên đại của video biểu tình) cũng đủ khuếch đại sai lệch với vận tốc nền tảng.
 
Chuỗi cung ứng “sự thật” mới: Từ dữ liệu đến kịch bản
 
Để hiểu vì sao chatbot “chọn phe” tăng tốc, hãy nhìn chuỗi cung ứng:
 
  1. Thu thập dữ liệu: nếu bộ dữ liệu curated ưu tiên “truyền thông thay thế” (alternative media), bạn sẽ nhận một phổ lập luận khác hẳn.
  2. Tinh chỉnh bởi con người: nhóm đánh giá (rater) chấm “hữu ích/không hữu ích” theo guideline – mà guideline phản ánh chuẩn giá trị.
  3. System prompt: bản “hiến pháp ngầm” buộc mô hình tránh/cổ vũ nội dung X, miêu tả hiện tượng Y theo khung Z.
  4. Tích hợp sản phẩm: nếu chatbot sống trong một mạng xã hội thiên lệch (Ví dụ như X, Truth Social), nguồn tham chiếu “gần tay” sẽ củng cố thiên hướng nội sinh.
  5. Vòng phản hồi người dùng: người dùng thích câu trả lời “đúng ý” → signal tích cực → mô hình càng học thiên hướng đó.
  6. Kết quả là tháp Babel AI: mỗi “phòng” nói một thứ tiếng sự thật khác nhau, cùng chắc chắn như nhau.
Tại sao các hệ “định danh” vẫn hút người?
 
Có ba lý do. Thứ nhất, tâm lý bộ lạc: trong thời đại quá tải thông tin, “đúng phe” nghĩa là “đáng tin”. Thứ hai, cảm giác bị bịt miệng: khi nền tảng lớn chặn nội dung căm ghét, một bộ phận nhìn đó là “kiểm duyệt”; chatbot “không xin lỗi” bỗng trở thành nơi trút bầu. Thứ ba, thẩm mỹ phản chủ lưu: “mainstream bias” bị gộp chung với “elite bias”, khiến kênh đối nghịch mặc nhiên được thưởng điểm “thật thà” – dù luận cứ yếu.
 
Với bên cung, đây là cơ hội kinh doanh: không cần cơ sở hạ tầng to như mạng cáp, chỉ cần một mô hình được tinh chỉnh và một cộng đồng trung thành, doanh nghiệp đã có một “đài phát thanh bộ lạc” tự động. Các thỏa thuận tích hợp (ví dụ phát triển chatbot cho Truth Social) biến “niềm tin” thành tính năng.
 
Hệ quả: Chiến tuyến văn hoá – chính trị phóng đại, kiểm chứng khó hơn
 
Khi chatbot “chọn phe”, chiến tuyến văn hoá mở thêm mặt trận: tranh chấp không chỉ ở kênh truyền (mạng xã hội, truyền hình) mà ngay trong cỗ máy trả lời vốn được xem là trung gian. Điều đáng ngại là độ tự tin máy móc làm tăng thẩm quyền giả, kéo theo cộng hưởng chính trị (nhà lập pháp trích lời bot, bot trích lời nhà lập pháp) – một vòng lặp “ngụy chứng cứ”.
 
Về dài hạn, nguy cơ là sự xói mòn của chuẩn kiểm chứng chung. Báo, tạp chí, toà soạn – với tất cả khuyết điểm – vẫn có quy trình biên tập. Chatbot thì không: chúng “cân” xác suất, không “cân” bằng chứng theo nghĩa pháp lý – và không chịu trách nhiệm giải trình theo nghĩa thể chế.
 
Có lối ra nào thực dụng?
 
  1. Đòi hỏi “dấu vết suy luận”: buộc chatbot hiển thị nguồn tham chiếu, thời gian truy xuất, mức tin cậy; tách rõ thông tin (có nguồn) và bình luận (suy diễn). Không có nguồn → coi là ý kiến, không phải dữ kiện.
  2. Chuẩn hoá “nhãn tư tưởng”: nếu một hệ được tinh chỉnh theo khung giá trị cụ thể, hãy gắn nhãn công khai như dán mác “op-ed”. Trung thực về điểm nhìn giúp người dùng điều chỉnh kỳ vọng.
  3. Thói quen “kiểm tra chéo”: người dùng nên mặc định hỏi hai mô hình khác hệ cho cùng câu hỏi nhạy cảm, rồi so điểm khác. Tư duy so sánh giảm nguy cơ “niềm tin một chiều”.
  4. Sử dụng công cụ fact-check độc lập: tích hợp bot với cơ sở dữ liệu kiểm chứng của các tổ chức độc lập; nếu bot dẫn nội dung ngược kết quả kiểm chứng, bắt buộc hiển thị cảnh báo.
  5. Giáo dục AI literacy: coi “đọc chatbot” là kỹ năng công dân mới – hiểu thế nào là ảo giác, hiểu khác biệt giữa xuất bản và dự đoán ngôn ngữ, hiểu vì sao “giọng chắc nịch” không đồng nghĩa “đúng”.
Sự thật có còn chung?
 
Có lẽ không còn một “sự thật duy nhất”, nhưng chúng ta vẫn có thể duy trì chuẩn chung để phân định: bằng chứng, phương pháp, khả năng tái kiểm tra. Chatbot – dù cánh nào – chỉ nên được đối xử như công cụ trợ giúp thay vì trọng tài tối hậu. Mọi “đáp án tuyệt đối” cần bị nghi ngờ; mọi tuyên ngôn “không thiên kiến” cần được hỏi lại ai định nghĩa thiên kiến.
 
Điểm tích cực nhỏ nhoi: chính việc chatbot bị “bộ lạc hoá” phơi bày sự thật bất tiện rằng thiên kiến luôn là cấu trúc, không chỉ là lỗi vô tình. Nhìn thẳng vào điều đó – và buộc nền tảng minh bạch hoá prompt, nguồn, quy tắc – có thể giúp chúng ta xây lại hạ tầng tin cậy phù hợp kỷ nguyên AI
 
Cho đến khi ấy, hãy nhớ: AI không làm thật – giả ít đi; nó chỉ tăng tốc cả hai. Và trong thế giới nơi “sự thật” có thêm quá nhiều hương vị, kỹ năng chọn, nếm, và nhổ ra khi cần có lẽ là phòng tuyến cuối cùng của mỗi người dùng.
 
shared via nytimes,
 

Bình luận

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Bình luận của bạn sẽ được duyệt trước khi đăng lên