Sự tiến hóa của mô hình đào tạo AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến hợp tác phi tập trung
Trong toàn bộ chuỗi giá trị của AI, huấn luyện mô hình là giai đoạn tiêu tốn nhiều tài nguyên nhất và có ngưỡng kỹ thuật cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với các cuộc gọi nhẹ, quá trình huấn luyện cần một khoản đầu tư tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ từ các thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương thức huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện Phi tập trung mà bài viết này tập trung thảo luận.
Đào tạo tập trung là cách truyền thống phổ biến nhất, được thực hiện bởi một tổ chức đơn lẻ trong một cụm hiệu suất cao địa phương, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm cơ sở, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc hợp tác sâu sắc này cho phép chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chống lỗi đạt hiệu quả tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với những lợi thế về hiệu suất cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương pháp chính hiện nay trong đào tạo mô hình lớn, cốt lõi của nó là phân tách nhiệm vụ đào tạo mô hình và phân phối tới nhiều máy để thực hiện phối hợp, nhằm vượt qua các rào cản về tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn được các tổ chức tập trung kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết nhanh NVLink, do nút chính điều phối đồng nhất các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: Mỗi nút đào tạo các tham số dữ liệu khác nhau chia sẻ, cần khớp với trọng số mô hình
Mô hình song song: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ;
Ống dẫn song song: Thực hiện tuần tự theo từng giai đoạn, tăng cường thông lượng;
Phân mảnh tensor: Chia nhỏ tính toán ma trận một cách tinh vi, nâng cao độ phân giải song song.
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ điều hành từ xa nhiều nhân viên "văn phòng" phối hợp hoàn thành nhiệm vụ. Hiện tại, hầu hết các mô hình lớn chủ đạo đều được huấn luyện theo cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai có tính mở hơn và đặc tính chống kiểm duyệt. Đặc điểm cốt lõi của nó nằm ở chỗ: nhiều nút không tin tưởng lẫn nhau hợp tác hoàn thành nhiệm vụ đào tạo mà không có một điều phối viên trung tâm, thường thông qua các giao thức thúc đẩy phân phát nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích bằng mã hóa để đảm bảo tính chân thật của sự đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Thiết bị dị biệt và khó khăn trong việc phân tách: Khó khăn trong việc phối hợp thiết bị dị biệt, hiệu quả phân tách nhiệm vụ thấp;
Nút thắt hiệu suất truyền thông: Giao tiếp mạng không ổn định, nút thắt đồng bộ độ dốc rõ ràng;
Thiếu thực thi tin cậy: Thiếu môi trường thực thi tin cậy, khó xác minh xem nút có thực sự tham gia tính toán hay không;
Thiếu sự phối hợp thống nhất: không có bộ điều độ trung ương, phân phối nhiệm vụ, cơ chế quay lại sự cố phức tạp.
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu sớm.
Học liên bang như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại chỗ và tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến việc tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của huấn luyện phân tán và khả năng hợp tác cục bộ, đồng thời sở hữu những lợi thế về phân tán dữ liệu trong huấn luyện Phi tập trung, nhưng vẫn phụ thuộc vào bên phối hợp đáng tin cậy, không có đặc tính hoàn toàn mở và chống kiểm duyệt. Có thể xem như một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ huấn luyện, cấu trúc niềm tin và cơ chế truyền thông đều tương đối ôn hòa, thích hợp hơn cho việc triển khai chuyển tiếp trong ngành công nghiệp.
Bảng so sánh toàn cảnh về các phương thức huấn luyện AI (Kiến trúc kỹ thuật × Khuyến khích tin tưởng × Đặc điểm ứng dụng)
Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế
Từ góc độ phương thức huấn luyện, Phi tập trung huấn luyện không phù hợp cho tất cả các loại nhiệm vụ. Trong một số trường hợp, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc độ khó hợp tác lớn, nó tự nhiên không thích hợp để hoàn thành hiệu quả giữa các nút không đồng nhất và không có lòng tin. Ví dụ, huấn luyện mô hình lớn thường phụ thuộc vào dung lượng bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia nhỏ và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ bị hạn chế bởi quyền riêng tư dữ liệu và hạn chế chủ quyền do quy định pháp lý và rào cản đạo đức, không thể chia sẻ một cách công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác thì thiếu động lực tham gia bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của Phi tập trung huấn luyện hiện tại.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một câu hỏi giả. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể kích thích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo hậu kỳ căn chỉnh hành vi, đào tạo và gán nhãn dữ liệu crowdsourcing, đào tạo các mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các tình huống đào tạo hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ kết nối thấp và khả năng chịu đựng sức mạnh tính toán khác nhau, rất phù hợp để thực hiện đào tạo hợp tác qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán, v.v.
Phi tập trung训练任务适配性总览表
Phi tập trung đào tạo các dự án cổ điển phân tích
Hiện tại, trong lĩnh vực đào tạo Phi tập trung và học liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Về tính đổi mới công nghệ và độ khó trong việc triển khai kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện tại; trong khi con đường triển khai của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy được tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và cấu trúc kỹ thuật của năm dự án này và tiếp tục thảo luận về sự khác biệt và quan hệ bổ sung của chúng trong hệ thống đào tạo AI Phi tập trung.
Prime Intellect: Người tiên phong trong mạng lưới hợp tác tăng cường học tập có thể xác minh được đường đi đào tạo
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, sẽ xây dựng một hệ thống đào tạo AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích hoàn chỉnh.
Một, Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
Hai, Giải thích cơ chế huấn luyện chính của Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường không đồng bộ tách rời
PRIME-RL là khuôn khổ mô hình hóa và thực thi nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị hợp và sự tham gia không đồng bộ. Nó sử dụng học tăng cường như đối tượng thích ứng ưu tiên, cấu trúc hóa quy trình đào tạo, suy diễn và tải trọng lượng để giải tách, cho phép mỗi nút đào tạo có thể hoàn thành vòng lặp nhiệm vụ một cách độc lập tại địa phương, và phối hợp với cơ chế xác minh và tổng hợp thông qua giao diện chuẩn hóa. So với quy trình học giám sát truyền thống, PRIME-RL thích hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có lịch trình trung tâm, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và sự tiến hóa chiến lược.
TOPLOC: Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi về khả năng xác minh trong đào tạo được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thay vào đó hoàn thành xác minh cấu trúc nhẹ thông qua việc phân tích quỹ đạo đồng nhất cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Nó lần đầu tiên biến quỹ đạo hành vi trong quá trình đào tạo thành đối tượng có thể xác minh, là đổi mới quan trọng để thực hiện phân phối phần thưởng đào tạo mà không cần tin cậy, cung cấp con đường khả thi cho việc xây dựng mạng lưới đào tạo hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế không đồng bộ, bị giới hạn băng thông và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút tiếp tục gửi các cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và sự tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và quá trình đào tạo liên tục.
OpenDiLoCo:Khung giao tiếp không đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect phát triển độc lập và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đưa ra, được thiết kế đặc biệt để đối phó với những thách thức phổ biến trong đào tạo Phi tập trung như hạn chế băng thông, tính không đồng nhất của thiết bị và sự không ổn định của các nút. Kiến trúc của nó dựa trên phân tán dữ liệu, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ dựa vào các nút lân cận cục bộ để hoàn thành đào tạo mô hình hợp tác. Kết hợp cập nhật không đồng bộ và cơ chế chịu lỗi tại điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và các thiết bị biên cũng có thể tham gia ổn định vào nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo Phi tập trung.
PCCL:Thư viện giao tiếp hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường huấn luyện AI Phi tập trung, nhằm giải quyết các vấn đề tương thích của thư viện giao tiếp truyền thống trong các thiết bị khác nhau và mạng lưới băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó cải thiện đáng kể khả năng chịu đựng băng thông của mạng huấn luyện và khả năng tương thích của thiết bị, mở ra "km cuối" cho cơ sở hạ tầng giao tiếp để xây dựng mạng huấn luyện hợp tác thực sự mở và không cần tin cậy.
Ba, Mạng lưới khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào các nhiệm vụ và nhận thưởng dựa trên những đóng góp thực sự. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: xác định môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác thực
Nút đào tạo: Thực hiện đào tạo cục bộ, gửi cập nhật trọng số và theo dõi quan sát
Node xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo và tham gia vào việc tính toán phần thưởng cũng như tổng hợp chiến lược.
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số (SHARDCAST) và phát thưởng, tạo thành một vòng khép kín khuyến khích xoay quanh "hành vi đào tạo thực tế".
Bốn, INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect dự kiến phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo thông qua sự hợp tác của các nút phi tập trung, không cần tin cậy và bất đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được phân bố trên ba đại lục.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Sự tiến hóa của mô hình đào tạo AI: từ kiểm soát tập trung đến hợp tác phi tập trung
Sự tiến hóa của mô hình đào tạo AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến hợp tác phi tập trung
Trong toàn bộ chuỗi giá trị của AI, huấn luyện mô hình là giai đoạn tiêu tốn nhiều tài nguyên nhất và có ngưỡng kỹ thuật cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với các cuộc gọi nhẹ, quá trình huấn luyện cần một khoản đầu tư tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ từ các thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương thức huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện Phi tập trung mà bài viết này tập trung thảo luận.
Đào tạo tập trung là cách truyền thống phổ biến nhất, được thực hiện bởi một tổ chức đơn lẻ trong một cụm hiệu suất cao địa phương, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm cơ sở, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc hợp tác sâu sắc này cho phép chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chống lỗi đạt hiệu quả tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với những lợi thế về hiệu suất cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương pháp chính hiện nay trong đào tạo mô hình lớn, cốt lõi của nó là phân tách nhiệm vụ đào tạo mô hình và phân phối tới nhiều máy để thực hiện phối hợp, nhằm vượt qua các rào cản về tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn được các tổ chức tập trung kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết nhanh NVLink, do nút chính điều phối đồng nhất các nhiệm vụ con. Các phương pháp chính bao gồm:
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ điều hành từ xa nhiều nhân viên "văn phòng" phối hợp hoàn thành nhiệm vụ. Hiện tại, hầu hết các mô hình lớn chủ đạo đều được huấn luyện theo cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai có tính mở hơn và đặc tính chống kiểm duyệt. Đặc điểm cốt lõi của nó nằm ở chỗ: nhiều nút không tin tưởng lẫn nhau hợp tác hoàn thành nhiệm vụ đào tạo mà không có một điều phối viên trung tâm, thường thông qua các giao thức thúc đẩy phân phát nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích bằng mã hóa để đảm bảo tính chân thật của sự đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu sớm.
Học liên bang như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại chỗ và tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến việc tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của huấn luyện phân tán và khả năng hợp tác cục bộ, đồng thời sở hữu những lợi thế về phân tán dữ liệu trong huấn luyện Phi tập trung, nhưng vẫn phụ thuộc vào bên phối hợp đáng tin cậy, không có đặc tính hoàn toàn mở và chống kiểm duyệt. Có thể xem như một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ huấn luyện, cấu trúc niềm tin và cơ chế truyền thông đều tương đối ôn hòa, thích hợp hơn cho việc triển khai chuyển tiếp trong ngành công nghiệp.
Bảng so sánh toàn cảnh về các phương thức huấn luyện AI (Kiến trúc kỹ thuật × Khuyến khích tin tưởng × Đặc điểm ứng dụng)
Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế
Từ góc độ phương thức huấn luyện, Phi tập trung huấn luyện không phù hợp cho tất cả các loại nhiệm vụ. Trong một số trường hợp, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc độ khó hợp tác lớn, nó tự nhiên không thích hợp để hoàn thành hiệu quả giữa các nút không đồng nhất và không có lòng tin. Ví dụ, huấn luyện mô hình lớn thường phụ thuộc vào dung lượng bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia nhỏ và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ bị hạn chế bởi quyền riêng tư dữ liệu và hạn chế chủ quyền do quy định pháp lý và rào cản đạo đức, không thể chia sẻ một cách công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác thì thiếu động lực tham gia bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của Phi tập trung huấn luyện hiện tại.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một câu hỏi giả. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể kích thích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo hậu kỳ căn chỉnh hành vi, đào tạo và gán nhãn dữ liệu crowdsourcing, đào tạo các mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các tình huống đào tạo hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ kết nối thấp và khả năng chịu đựng sức mạnh tính toán khác nhau, rất phù hợp để thực hiện đào tạo hợp tác qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán, v.v.
Phi tập trung训练任务适配性总览表
Phi tập trung đào tạo các dự án cổ điển phân tích
Hiện tại, trong lĩnh vực đào tạo Phi tập trung và học liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Về tính đổi mới công nghệ và độ khó trong việc triển khai kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện tại; trong khi con đường triển khai của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy được tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và cấu trúc kỹ thuật của năm dự án này và tiếp tục thảo luận về sự khác biệt và quan hệ bổ sung của chúng trong hệ thống đào tạo AI Phi tập trung.
Prime Intellect: Người tiên phong trong mạng lưới hợp tác tăng cường học tập có thể xác minh được đường đi đào tạo
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, sẽ xây dựng một hệ thống đào tạo AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích hoàn chỉnh.
Một, Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
Hai, Giải thích cơ chế huấn luyện chính của Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường không đồng bộ tách rời
PRIME-RL là khuôn khổ mô hình hóa và thực thi nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị hợp và sự tham gia không đồng bộ. Nó sử dụng học tăng cường như đối tượng thích ứng ưu tiên, cấu trúc hóa quy trình đào tạo, suy diễn và tải trọng lượng để giải tách, cho phép mỗi nút đào tạo có thể hoàn thành vòng lặp nhiệm vụ một cách độc lập tại địa phương, và phối hợp với cơ chế xác minh và tổng hợp thông qua giao diện chuẩn hóa. So với quy trình học giám sát truyền thống, PRIME-RL thích hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có lịch trình trung tâm, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và sự tiến hóa chiến lược.
TOPLOC: Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi về khả năng xác minh trong đào tạo được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thay vào đó hoàn thành xác minh cấu trúc nhẹ thông qua việc phân tích quỹ đạo đồng nhất cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Nó lần đầu tiên biến quỹ đạo hành vi trong quá trình đào tạo thành đối tượng có thể xác minh, là đổi mới quan trọng để thực hiện phân phối phần thưởng đào tạo mà không cần tin cậy, cung cấp con đường khả thi cho việc xây dựng mạng lưới đào tạo hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế không đồng bộ, bị giới hạn băng thông và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút tiếp tục gửi các cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và sự tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và quá trình đào tạo liên tục.
OpenDiLoCo:Khung giao tiếp không đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect phát triển độc lập và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đưa ra, được thiết kế đặc biệt để đối phó với những thách thức phổ biến trong đào tạo Phi tập trung như hạn chế băng thông, tính không đồng nhất của thiết bị và sự không ổn định của các nút. Kiến trúc của nó dựa trên phân tán dữ liệu, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ dựa vào các nút lân cận cục bộ để hoàn thành đào tạo mô hình hợp tác. Kết hợp cập nhật không đồng bộ và cơ chế chịu lỗi tại điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và các thiết bị biên cũng có thể tham gia ổn định vào nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo Phi tập trung.
PCCL:Thư viện giao tiếp hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường huấn luyện AI Phi tập trung, nhằm giải quyết các vấn đề tương thích của thư viện giao tiếp truyền thống trong các thiết bị khác nhau và mạng lưới băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó cải thiện đáng kể khả năng chịu đựng băng thông của mạng huấn luyện và khả năng tương thích của thiết bị, mở ra "km cuối" cho cơ sở hạ tầng giao tiếp để xây dựng mạng huấn luyện hợp tác thực sự mở và không cần tin cậy.
Ba, Mạng lưới khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào các nhiệm vụ và nhận thưởng dựa trên những đóng góp thực sự. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số (SHARDCAST) và phát thưởng, tạo thành một vòng khép kín khuyến khích xoay quanh "hành vi đào tạo thực tế".
Bốn, INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect dự kiến phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo thông qua sự hợp tác của các nút phi tập trung, không cần tin cậy và bất đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được phân bố trên ba đại lục.