Sự ra đời của Orca 13B thể hiện một bước đột phá quan trọng trong việc thúc đẩy sự phát triển các mô hình máy học và hứa hẹn khai thác triệt để tiềm năng của LLM trong xử lý ngôn ngữ tự nhiên.
Microsoft vừa giới thiệu LLM nguồn mở mới có tên Orca 13B. Mô hình 13 tỷ tham số này ra mắt nhằm cạnh tranh với các mô hình ngôn ngữ lớn khác như GPT-4. Dưới đây là một số thông tin chính lên quan đến AI này:
Orca 13B là gì?
Orca 13B là một mô hình ngôn ngữ lớn được phát triển bởi Microsoft. Nó được thiết kế để học hỏi và cạnh tranh với các mô hình ngôn ngữ lớn khác như GPT-4. Orca 13B có 13 tỷ tham số và sẽ là mã nguồn mở, giúp cộng đồng AI có thể truy cập được.
Orca 13B khác gì so với với GPT-4?
Sự khác biệt chính giữa Orca 13B và GPT-4 là cách chúng học hỏi và suy luận. Orca 13B học hỏi từ các dấu vết giải thích phức tạp và quy trình suy luận từng bước từ GPT-4. Điều này cho phép Orca 13B hiểu rõ hơn về quá trình suy luận, giúp nó đưa ra các phản hồi chi tiết và chính xác hơn. Phương pháp học tập này nâng cao đáng kể kỹ năng suy luận và hiểu của Orca 13B so với GPT-4.
Orca 13B được huấn luyện cho mục đích gì?
Để tăng cường quá trình học hỏi của Orca, nhóm nghiên cứu sử dụng Bộ sưu tập Flan 2022. Nhóm đã lấy mẫu các nhiệm vụ từ bộ sưu tập này để đảm bảo sự thử thách một đa dạng. Các tác vụ này sau đó được lấy mẫu phụ để tạo các lời nhắc phức tạp, chịu trách nhiệm truy vấn cho các mô hình nền tảng lớn. Cách tiếp cận này tạo ra một tập huấn luyện đa dạng và phong phú cho Orca 13B.
Orca 13B hoạt động như thế nào so với các mẫu khác?
Các đánh giá đã chỉ ra rằng Orca 13B vượt trội so với các mẫu được cải tiến hiện đại như Vicuna-13B, cải thiện hơn 100% trên BigBench Hard (BBH). Orca 13B cũng thể hiện hiệu suất vượt trội hơn trong các kỳ thi học thuật trong ZSL (Zero-Shot Learning là một thiết lập vấn đề trong học máy, trong đó máy sẽ quan sát các mẫu từ các lớp không được giám sát và phải dự đoán lớp), cho thấy tiềm năng của nó đối với các ứng dụng trong thế giới thực.
Tầm quan trọng của sự phát triển Orca 13B là gì?
Sự ra đời của Orca 13B thể hiện một bước đột phá quan trọng trong việc thúc đẩy sự phát triển các Instruction-Tuned Model. Bằng cách từng bước học hỏi từ các giải thích và mở rộng các nhiệm vụ với các lời nhắc phức tạp, Orca 13B đạt được những tiến bộ đáng kể. Điều này hứa hẹn sẽ khai thác triệt để tiềm năng của các mô hình ngôn ngữ lớn và thúc đẩy tiến bộ trong xử lý ngôn ngữ tự nhiên.
Xem toàn văn: Tại đây