Giỏ hàng

Cách DeepSeek sử dụng phương pháp chuyển giao kiến thức để phát triển mô hình trí tuệ nhân tạo và ý nghĩa của nó đối với các công ty như OpenAI

Phòng thí nghiệm AI DeepSeek của Trung Quốc đã gây chấn động thị trường vào tháng 1 khi công bố mô hình AI rẻ hơn và hiệu quả hơn so với các đối thủ Mỹ, dẫn đến làn sóng bán tháo trong ngành công nghệ và bán dẫn.
 
Tuy nhiên, cơn sốt này không chỉ xoay quanh DeepSeek mà còn phản ánh tác động của một kỹ thuật mang tên "distillation" (tinh luyện) — phương pháp giúp trích xuất kiến thức từ mô hình AI lớn để tạo ra mô hình nhỏ hơn nhưng vẫn mạnh mẽ. Điều này cho phép các nhóm nhỏ với nguồn lực hạn chế phát triển AI tiên tiến với chi phí thấp hơn nhiều.
 
Distillation đang thúc đẩy cuộc cạnh tranh AI lên một tầm cao mới. Chỉ với vài trăm USD và chưa đầy một ngày, các nhóm nghiên cứu tại Berkeley, Stanford và Đại học Washington đã tái tạo mô hình suy luận của OpenAI. Startup Hugging Face thậm chí còn sao chép một tính năng mới của OpenAI chỉ trong 24 giờ.
 
DeepSeek không phát minh ra distillation, nhưng họ đã khiến thế giới AI nhận ra tiềm năng đột phá của nó. Đồng thời, họ còn thúc đẩy xu hướng mã nguồn mở, nơi sự minh bạch và chia sẻ tri thức đang trở thành động lực đổi mới mạnh mẽ hơn so với nghiên cứu khép kín.
 
“Mã nguồn mở luôn chiến thắng,” CEO Glean, Arvind Jain, nhận định. Ngay cả OpenAI cũng phải cân nhắc lại chiến lược đóng của mình. “Chúng tôi đã đi sai hướng và cần một chiến lược mã nguồn mở mới,” CEO OpenAI Sam Altman thừa nhận.
 
Sự kết hợp giữa distillation và mã nguồn mở đang làm rung chuyển cuộc đua AI, mở ra một kỷ nguyên cạnh tranh mới.
 
shared via cnbc,

Bình luận

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Bình luận của bạn sẽ được duyệt trước khi đăng lên