هوش مصنوعی بدون نیاز به اینترنت با Ollama

امروزه برای طیف زیادی از کارها از هوش مصنوعی یا همان LLM ها استفاده میکنیم، از برنامه نویسی گرفته تا مشاوره پزشکی، آموزش و یادگیری و یا پرسیدن سوال هایی که روزانه با آنها مواجه می شویم.
در زمان هایی که به هر دلیلی از دسترسی به اینترنت محروم می شویم و امکان اتصال به ابزارهای هوش مصنوعی مانند چت جی پی تی یا جمنای وجود ندارد، میتوانیم با اجرای مدل های هوش مصنوعی متن باز روی کامپیوتر شخصی یک ابزار هوش مصنوعی نسبتا قابل قبول داشته باشیم.
آشنایی با Ollama
Ollama یک پلتفرم متنباز و سبک است که امکان اجرای مدلهای زبانی بزرگ (LLM) را بهصورت محلی و بدون نیاز به اینترنت فراهم میکند.
با Ollama میتوانید مدلهایی مانند Llama 2 و Llama 3 از Meta، Mistral و Mixtral، Phi-3 از Microsoft، Gemma از Google و حتی مدلهای سفارشی خودتان را اجرا کنید.
تمام این فرایند بهصورت آفلاین انجام میشود و دادههای شما روی سیستم شخصیتان باقی میمانند.
Ollama بهدلیل سادگی نصب، سرعت بالا و امنیت دادهها در میان توسعهدهندگان و محققان حوزه هوش مصنوعی خیلی محبوب است.
نصب و راه اندازی Ollama
راه اندازی این برنامه ساده است و نیاز به تنظیمات خاصی ندارد. فقط کافی است برنامه و مدل ها را دانلود و طبق توضیحات نصب کنید:
برای سیستم عامل ویندوز از لینک زیر برنامه را دانلود و نصب کنید:
(بروز شده به نسخه جدید در تاریخ 3 فروردین 1405 ساعت 12)
دانلود نرم افزار Ollama نسخه ویندوز (1.6GB)
برای سیستم عامل مک از این لینک می توانید استفاده کنید:
(بروز شده به نسخه جدید در تاریخ 3 فروردین 1405)
دانلود نرم افزار Ollama نسخه مک (104MB)
راه اندازی Ollama در لینوکس:
(بروز شده به نسخه جدید در تاریخ 3 فروردین 1405)
دانلود Ollama نسخه لینوکس (x86_64 – Intel / AMD CPU)
مناسب اکثر سیستمهای لینوکسی با پردازنده ۶۴ بیتی. اجرای Ollama با استفاده از CPU.
ollama-linux-amd64.tar.zst
دانلود Ollama نسخه لینوکس ARM64
ویژه سیستمهای مبتنی بر معماری ARM64 مانند سرورهای ARM و Raspberry Pi.
ollama-linux-arm64.tar.zst
دانلود Ollama نسخه لینوکس با پشتیبانی از AMD GPU (ROCm)
مخصوص کارتهای گرافیک AMD با درایور ROCm برای اجرای سریعتر مدلها.
ollama-linux-amd64-rocm.tar.zst
سپس فایل manifests را از لینک زیر دانلود و در مسیر مشخص شده اکسترکت کنید:
(فایل مانیفست بروز شده در تاریخ 4 فروردین 1405)
دانلود فایل manifests (آپدیت 4 فروردین 1405)
این فایل را در مسیر زیر اکسترکت کنید:
%HOMEPATH%\.ollama\models
در نهایت مدل های مورد نیاز خود را از فهرست زیر انتخاب و دانلود نمایید. دقت داشته باشید هرچقدر که پارامترهای مدل بیشتر باشد دقت آن بیشتر است و البته نیازمندی های سخت افزاری بالاتری دارد. در ادامه این مقاله سعی میکنیم تا حد ممکن در مورد مدل ها و کاربرد هر کدام توضیحاتی رو ارائه بدیم.
مدل ها را دانلود و در این مسیر اکسترکت کنید:
%HOMEPATH%\.ollama\models\blobs
بروزرسانی 3 فروردین 1405
حدود 30 تا مدل جدید و بروز اضافه شد.
فایل مانیفست اصلاح شد. مشکل مدل gpt oss 120b رفع شد.
همه مدل ها بدون اشکال کار میکنند.
(نکته: برای اجرای مدل هایی که با * مشخص شده اند حتما باید برنامه Ollama رو به آخرین نسخه بروزرسانی کنید.)
راهنمای انتخاب مدل های متن باز
در لیست بالا تعدادی مدل متن باز قابل دانلود داریم که می توانید با توجه به قدرت سخت افزاری و نیاز خود یک یا چند مدل را دانلود و استفاده کنید.
✅ DeepSeek-R1 8B
مدل استدلالمحور (Reasoning) با عملکرد قوی در حل مسائل پیچیده، تحلیل منطقی، ریاضی، تولید محتوا و کدنویسی.
کاربردها: حل مسئله، تحلیل داده، تولید متن دقیق، کمک برنامهنویسی
ویژگیها: قدرت استدلال بالا، پاسخهای ساختارمند، مناسب کارهای تحلیلی
سیستم پیشنهادی:
- RAM: حداقل 16GB
- VRAM: حداقل 8GB (بهتر: 10GB+)
- CPU-only: حداقل 32GB RAM
✅ DeepSeek-R1 1.5B
نسخه سبکتر برای اجرای سریعتر با حفظ بخشی از توان استدلالی.
کاربردها: کارهای روزمره، تحلیل سبک، چت
ویژگیها: سبک، سریع، مناسب سیستمهای ضعیف
سیستم پیشنهادی:
- RAM: 8GB
- VRAM: 4GB
✅ Gemma 3 - 1B
مدل بسیار سبک برای استفادههای ساده.
کاربردها: چت ساده، تولید متن کوتاه، تست و توسعه
ویژگیها: سرعت بالا، مصرف پایین
سیستم پیشنهادی:
- RAM: 4GB
- VRAM: بدون GPU هم قابل اجرا
✅ Gemma 3 - 4B
مدل متعادل برای استفاده عمومی.
کاربردها: تولید محتوا، ترجمه، چت
ویژگیها: کیفیت مناسب در کنار سرعت خوب
سیستم پیشنهادی:
- RAM: 8GB
- VRAM: 6GB
✅ Gemma 3 - 12B
مدل نیمهحرفهای برای کارهای جدیتر.
کاربردها: تولید محتوای باکیفیت، تحلیل متن، برنامهنویسی
ویژگیها: دقت بالاتر نسبت به مدلهای کوچک
سیستم پیشنهادی:
- RAM: 16GB
- VRAM: 12GB
✅ Gemma 3 - 27B
مدل قدرتمند برای کاربردهای پیشرفته.
کاربردها: پروژههای حرفهای، تحلیل سنگین، تولید محتوا سطح بالا
ویژگیها: کیفیت بالا، نزدیک به مدلهای بزرگ
سیستم پیشنهادی:
- RAM: 32GB
- VRAM: 24GB
✅ GPT-OSS 20B
مدل بزرگ و همهمنظوره با عملکرد خوب در متن و کدنویسی.
کاربردها: تولید محتوا، تحلیل، برنامهنویسی
ویژگیها: تعادل بین قدرت و مصرف
سیستم پیشنهادی:
- RAM: 32GB
- VRAM: 16–20GB
✅ GPT-OSS 120B
مدل بسیار بزرگ در سطح سازمانی.
کاربردها: تحلیل پیچیده، تولید محتوا سطح بالا، پروژههای سنگین
ویژگیها: دقت و کیفیت بسیار بالا
سیستم پیشنهادی:
- RAM: 128GB+
- VRAM: 48GB+ یا Multi-GPU
- مناسب اجرای خانگی نیست (سروری)
✅ Qwen3 4B
مدل سبک و سریع برای کارهای عمومی.
کاربردها: چت، ترجمه، تولید متن
ویژگیها: بهینه و سریع
سیستم پیشنهادی:
- RAM: 8GB
- VRAM: 6GB
✅ Qwen3 8B
مدل متعادل با دقت خوب.
کاربردها: تولید محتوا، تحلیل، کدنویسی سبک
ویژگیها: کیفیت بهتر نسبت به 4B
سیستم پیشنهادی:
- RAM: 16GB
- VRAM: 8–10GB
✅ Qwen3 30B
مدل قدرتمند برای کارهای حرفهای.
کاربردها: تحلیل پیشرفته، تولید محتوا حرفهای
ویژگیها: دقت بالا، مناسب پروژههای جدی
سیستم پیشنهادی:
- RAM: 32GB
- VRAM: 24GB
✅ Qwen3-Coder 30B
مدل تخصصی برنامهنویسی.
کاربردها: تولید کد، دیباگ، تبدیل زبانها
ویژگیها: درک عمیق ساختار کد
سیستم پیشنهادی:
- RAM: 32GB
- VRAM: 24GB
✅ Qwen3-VL 4B
مدل چندرسانهای سبک (متن + تصویر).
کاربردها: تحلیل تصویر، پاسخ به سوالات تصویری
ویژگیها: پشتیبانی از ورودی تصویر
سیستم پیشنهادی:
- RAM: 8GB
- VRAM: 6GB
✅ Qwen3-VL 8B
نسخه قویتر چندرسانهای.
کاربردها: پردازش دقیقتر تصویر + متن
ویژگیها: درک بهتر تصاویر
سیستم پیشنهادی:
- RAM: 16GB
- VRAM: 10GB
✅ Qwen3-VL 30B
مدل حرفهای چندرسانهای.
کاربردها: تحلیل پیچیده تصویر، پروژههای AI Vision
ویژگیها: دقت بالا در تصویر + متن
سیستم پیشنهادی:
- RAM: 32GB
- VRAM: 24GB
✅ LLaMA 3 - 8B
مدل محبوب و بهینه از Meta.
کاربردها: چت، تولید محتوا، برنامهنویسی
ویژگیها: پایداری و کیفیت خوب
سیستم پیشنهادی:
- RAM: 16GB
- VRAM: 8GB
✅ Phi-3 (3.8B / Mini 128K)
مدل سبک ولی بسیار بهینه از Microsoft.
کاربردها: چت، خلاصهسازی، پردازش متن
ویژگیها: عملکرد عالی نسبت به سایز
سیستم پیشنهادی:
- RAM: 8GB
- VRAM: 4–6GB
✅ Mixtral 8x7B
مدل Mixture-of-Experts با قدرت بالا.
کاربردها: تحلیل پیشرفته، تولید محتوا حرفهای
ویژگیها: عملکرد نزدیک به مدلهای خیلی بزرگ با مصرف کمتر
سیستم پیشنهادی:
- RAM: 32GB
- VRAM: 24GB
✅ EmbeddingGemma
مدل مخصوص تولید embedding (نه چت).
کاربردها: جستجوی معنایی، RAG، دستهبندی متن
ویژگیها: مناسب بکاند و سیستمهای جستجو
سیستم پیشنهادی:
- RAM: 4GB
- GPU نیاز ندارد
✅ Qwen 2.5 Coder 0.5B
مدل بسیار سبک برای کدنویسی ساده.
کاربردها: autocomplete، کد ساده
ویژگیها: سریع و کممصرف
سیستم پیشنهادی:
- RAM: 4GB
- بدون GPU
✅ Qwen 2.5 Coder 1.5B
نسخه قویتر برای توسعه سبک.
کاربردها: تولید کد، اسکریپتنویسی
ویژگیها: تعادل سرعت و دقت
سیستم پیشنهادی:
- RAM: 8GB
- VRAM: 4GB
✅ Dorna PartAI
مدل بومی/سفارشی (احتمالاً فارسیمحور).
کاربردها: پردازش متن فارسی، چت
ویژگیها: بهینه برای زبان فارسی
سیستم پیشنهادی:
- RAM: 16GB
- VRAM: 8GB
✅ Dorna 2 - 8B
نسخه بهبود یافته مدل قبلی.
کاربردها: تولید محتوا فارسی، چت پیشرفته
ویژگیها: دقت بالاتر در زبان فارسی
سیستم پیشنهادی:
- RAM: 16GB
- VRAM: 8GB
انتخاب مدل برای تازه کارها
برای کارهای عمومی روزمره روی سیستم متوسط DeepSeek-R1 8B گزینه خوبی است.
برای برنامه نویسی Qwen3-Coder 30B خیلی عالیه. اگه روی سیستمتون اجرا نمیشه میتونید از نسخه های سبک تر مثل ... استفاده کنید.
برای نیازهای سازمانی یا اینکه اگه سیستم خیلی قوی دارید GPT-OSS 120B خیلی قوی است. این مدل شبیه ترین به چت جی پی تی است. (البته در حد اون نیست.) نسخه متوسط این مدل GPT-OSS 20B است.
به طور کلی هیچ کدوم از مدل ها فارسیشون مثل چت جی پی تی یا جمنای خوب نیست ولی برای خیلی از کارها میشه ازشون استفاده کرد.
در صورتی که نیاز به فایل، پلاگین یا داکیومنت غیر مرتبط به Ollama دارید، می توانید در این صفحه مطرح کنید:
دانلود داکیومنت آفلاین کتابخانه ها و درخواست فایل
اگر در زمینه راهاندازی و اجرای مدلهای تولید تصویر تجربه کافی دارید، از شما دعوت میکنیم در فرآیند تست، بهینهسازی و راهاندازی این مدلها با ما همکاری کنید:
دانلود ComfyUI - ساخت عکس با هوش مصنوعی (آفلاین)
برای ثبت دیدگاه وارد حساب کاربری خود شوید.