Cách chạy mô hình GPT-OSS của OpenAI trên Mac với Apple Silicon

Mô hình GPT-OSS từ OpenAI đã ra mắt với hai phiên bản khác nhau, cho phép người dùng tự chạy AI trên máy Mac của mình. Tìm hiểu cách cài đặt và sử dụng dưới đây.
OpenAI vừa tung ra mô hình trọng số mở, gpt-oss, được cộng đồng trông đợi bấy lâu nay. Điểm đặc biệt của GPT-OSS là khả năng hoạt động cục bộ trên phần cứng cá nhân, bao gồm cả máy Mac sử dụng Apple Silicon, giúp người dùng tự do khám phá những gì AI có thể làm.
GPT-OSS có hai phiên bản chính: gpt-oss-20b và gpt-oss-120b. Gpt-oss-20b là mô hình vừa, phù hợp cho các máy Mac có cấu hình cao, trong khi gpt-oss-120b là mô hình lớn hơn đáng kể.
Mô hình vừa có xu hướng tạo ra nhiều "ảo giác" hơn, nhưng nhờ vào kích thước dữ liệu nhỏ hơn, nó có thể chạy nhanh hơn trên máy Mac mạnh mẽ. Với cấu hình RAM thích hợp, người dùng có thể trực tiếp khám phá khả năng của mô hình mà không cần phụ thuộc vào dịch vụ trực tuyến như ChatGPT.
Để bắt đầu, máy Mac của bạn cần cài đặt ứng dụng Ollama, công cụ cần thiết để giao tiếp với gpt-oss-20b. Bạn có thể tải ứng dụng từ trang chính thức của Ollama hoặc qua đường dẫn tải xuống dành cho Mac. Sau khi cài đặt, mở Terminal và chạy lệnh để tải về gpt-oss-20b. Quá trình này yêu cầu khoảng 15GB dung lượng đĩa lưu trữ.
Sau khi cài đặt, mở ứng dụng Ollama và chọn gpt-oss-20b làm mô hình hoạt động. Bạn thậm chí có thể chuyển Ollama sang chế độ máy bay để đảm bảo mọi thứ diễn ra cục bộ, không cần tài khoản.
Khi chạy gpt-oss-20b, nhập lệnh vào khung văn bản và quan sát cách mô hình xử lý dữ liệu. Rõ ràng, hiệu suất máy Mac sẽ ảnh hưởng lớn đến tốc độ, vì mô hình sử dụng toàn bộ tài nguyên có sẵn.
Nếu bạn cần phục hồi không gian lưu trữ và xóa mô hình đã tải, hãy nhập lệnh "ollama rm gpt-oss:20b" vào Terminal.
GPT-OSS mang đến một cơ hội tuyệt vời để khám phá AI trực tiếp trên phần cứng cá nhân, mở ra một thế giới mới cho người dùng Mac với Apple Silicon.