هوش مصنوعی بدون نیاز به اینترنت با Ollama

هوش مصنوعی ollama

امروزه برای طیف زیادی از کارها از هوش مصنوعی یا همان LLM ها استفاده میکنیم، از برنامه نویسی گرفته تا مشاوره پزشکی، آموزش و یادگیری و یا پرسیدن سوال هایی که روزانه با آنها مواجه می شویم.

در زمان هایی که به هر دلیلی از دسترسی به اینترنت محروم می شویم و امکان اتصال به ابزارهای هوش مصنوعی مانند چت جی پی تی یا جمنای وجود ندارد، میتوانیم با اجرای مدل های هوش مصنوعی متن باز روی کامپیوتر شخصی یک ابزار هوش مصنوعی نسبتا قابل قبول داشته باشیم.

آشنایی با Ollama

Ollama یک پلتفرم متن‌باز و سبک است که امکان اجرای مدل‌های زبانی بزرگ (LLM) را به‌صورت محلی و بدون نیاز به اینترنت فراهم می‌کند.
با Ollama می‌توانید مدل‌هایی مانند Llama 2 و Llama 3 از Meta، Mistral و Mixtral، Phi-3 از Microsoft، Gemma از Google و حتی مدل‌های سفارشی خودتان را اجرا کنید.
تمام این فرایند به‌صورت آفلاین انجام می‌شود و داده‌های شما روی سیستم شخصی‌تان باقی می‌مانند.

Ollama به‌دلیل سادگی نصب، سرعت بالا و امنیت داده‌ها در میان توسعه‌دهندگان و محققان حوزه هوش مصنوعی خیلی محبوب است.

نصب و راه اندازی Ollama

راه اندازی این برنامه ساده است و نیاز به تنظیمات خاصی ندارد. فقط کافی است برنامه و مدل ها را دانلود و طبق توضیحات نصب کنید:

برای سیستم عامل ویندوز از لینک زیر برنامه را دانلود و نصب کنید:

(بروز شده به نسخه جدید در تاریخ 3 فروردین 1405 ساعت 12)

دانلود نرم افزار Ollama نسخه ویندوز (1.6GB)

 

برای سیستم عامل مک از این لینک می توانید استفاده کنید:

(بروز شده به نسخه جدید در تاریخ 3 فروردین 1405)

دانلود نرم افزار Ollama نسخه مک (104MB)

 

راه اندازی Ollama در لینوکس:

(بروز شده به نسخه جدید در تاریخ 3 فروردین 1405)

دانلود Ollama نسخه لینوکس (x86_64 – Intel / AMD CPU)
مناسب اکثر سیستم‌های لینوکسی با پردازنده ۶۴ بیتی. اجرای Ollama با استفاده از CPU.
ollama-linux-amd64.tar.zst

دانلود Ollama نسخه لینوکس ARM64
ویژه سیستم‌های مبتنی بر معماری ARM64 مانند سرورهای ARM و Raspberry Pi.
ollama-linux-arm64.tar.zst

دانلود Ollama نسخه لینوکس با پشتیبانی از AMD GPU (ROCm)
مخصوص کارت‌های گرافیک AMD با درایور ROCm برای اجرای سریع‌تر مدل‌ها.
ollama-linux-amd64-rocm.tar.zst

سپس فایل manifests را از لینک زیر دانلود و در مسیر مشخص شده اکسترکت کنید:

(فایل مانیفست بروز شده در تاریخ 4 فروردین 1405)

دانلود فایل manifests (آپدیت 4 فروردین 1405)

این فایل را در مسیر زیر اکسترکت کنید:

%HOMEPATH%\.ollama\models

 

در نهایت مدل های مورد نیاز خود را از فهرست زیر انتخاب و دانلود نمایید. دقت داشته باشید هرچقدر که پارامترهای مدل بیشتر باشد دقت آن بیشتر است و البته نیازمندی های سخت افزاری بالاتری دارد. در ادامه این مقاله سعی میکنیم تا حد ممکن در مورد مدل ها و کاربرد هر کدام توضیحاتی رو ارائه بدیم.

مدل ها را دانلود و در این مسیر اکسترکت کنید:

%HOMEPATH%\.ollama\models\blobs

 

بروزرسانی 3 فروردین 1405

حدود 30 تا مدل جدید و بروز اضافه شد.

فایل مانیفست اصلاح شد. مشکل مدل gpt oss 120b رفع شد.

همه مدل ها بدون اشکال کار میکنند.

#نام مدلحجم تقریبی
1deepseek-r1 8b5GB
2gemma3 1b800MB
3gemma3 4b3GB
4gemma3 12b8GB
5gemma3 27b16GB
6gpt-oss 20b13GB
7gpt-oss 120b61GB
8qwen3 4b2GB
9qwen3 8b5GB
10qwen3 30b17GB
11qwen3-coder 30b17GB
12qwen3-vl 4b3GB
13qwen3-vl 8b6GB
14qwen3-vl 30b18GB
15deepseek-r1-1.5b1GB
16Dorna-partai8GB
17llama3-8b4.5GB
18phi3-3.8b-and-mini-128k2GB
19dorna2-8b4.5GB
20embeddinggemma0.5GB
21qwen-2.5-coder-0.5b0.3GB
22qwen-2.5-coder-1.5b0.9GB
23Mixtral 8x7B25GB
24phi3:14b7.3GB
25llava:7b4.4GB
26llava:13b7.5GB
27llava:34b18.8GB
28phi4:14b8.4GB
29dolphin3:8b5.5GB
30bge-m3:567m1GB
31mistral-nemo:12b6.5GB
32deepseek-coder:6.7b3.5GB
33deepseek-coder:33b17.5GB
34codegemma:2b1.5GB
35codegemma:7b4.5GB
36falcon3:1b1.6GB
37falcon3:3b1.9GB
38falcon3:7b4.5GB
39falcon3:10b5.9GB
40llava-llama3:8b5.17GB
41translategemma:4b3GB
42translategemma:12b7.5GB
43translategemma:27b16GB
44qwq:32b18.5GB
45cogito:3b2GB
46cogito:8b4.5GB
47cogito:14b8.3GB
48cogito:32b18.5GB
50*qwen3.5:4b3.1GB
51*qwen3.5:9b6.1GB
52*qwen3.5:27b16.2GB
53*qwen3.5:35b22.2GB

(نکته: برای اجرای مدل هایی که با * مشخص شده اند حتما باید برنامه Ollama رو به آخرین نسخه بروزرسانی کنید.)

راهنمای انتخاب مدل های متن باز

در لیست بالا تعدادی مدل متن باز قابل دانلود داریم که می توانید با توجه به قدرت سخت افزاری و نیاز خود یک یا چند مدل را دانلود و استفاده کنید.

✅ DeepSeek-R1 8B

مدل استدلال‌محور (Reasoning) با عملکرد قوی در حل مسائل پیچیده، تحلیل منطقی، ریاضی، تولید محتوا و کدنویسی.

کاربردها: حل مسئله، تحلیل داده، تولید متن دقیق، کمک برنامه‌نویسی
ویژگی‌ها: قدرت استدلال بالا، پاسخ‌های ساختارمند، مناسب کارهای تحلیلی
سیستم پیشنهادی:

  • RAM: حداقل 16GB
  • VRAM: حداقل 8GB (بهتر: 10GB+)
  • CPU-only: حداقل 32GB RAM

✅ DeepSeek-R1 1.5B

نسخه سبک‌تر برای اجرای سریع‌تر با حفظ بخشی از توان استدلالی.

کاربردها: کارهای روزمره، تحلیل سبک، چت
ویژگی‌ها: سبک، سریع، مناسب سیستم‌های ضعیف
سیستم پیشنهادی:

  • RAM: 8GB
  • VRAM: 4GB

✅ Gemma 3 - 1B

مدل بسیار سبک برای استفاده‌های ساده.

کاربردها: چت ساده، تولید متن کوتاه، تست و توسعه
ویژگی‌ها: سرعت بالا، مصرف پایین
سیستم پیشنهادی:

  • RAM: 4GB
  • VRAM: بدون GPU هم قابل اجرا

✅ Gemma 3 - 4B

مدل متعادل برای استفاده عمومی.

کاربردها: تولید محتوا، ترجمه، چت
ویژگی‌ها: کیفیت مناسب در کنار سرعت خوب
سیستم پیشنهادی:

  • RAM: 8GB
  • VRAM: 6GB

✅ Gemma 3 - 12B

مدل نیمه‌حرفه‌ای برای کارهای جدی‌تر.

کاربردها: تولید محتوای باکیفیت، تحلیل متن، برنامه‌نویسی
ویژگی‌ها: دقت بالاتر نسبت به مدل‌های کوچک
سیستم پیشنهادی:

  • RAM: 16GB
  • VRAM: 12GB

✅ Gemma 3 - 27B

مدل قدرتمند برای کاربردهای پیشرفته.

کاربردها: پروژه‌های حرفه‌ای، تحلیل سنگین، تولید محتوا سطح بالا
ویژگی‌ها: کیفیت بالا، نزدیک به مدل‌های بزرگ
سیستم پیشنهادی:

  • RAM: 32GB
  • VRAM: 24GB

✅ GPT-OSS 20B

مدل بزرگ و همه‌منظوره با عملکرد خوب در متن و کدنویسی.

کاربردها: تولید محتوا، تحلیل، برنامه‌نویسی
ویژگی‌ها: تعادل بین قدرت و مصرف
سیستم پیشنهادی:

  • RAM: 32GB
  • VRAM: 16–20GB

✅ GPT-OSS 120B

مدل بسیار بزرگ در سطح سازمانی.

کاربردها: تحلیل پیچیده، تولید محتوا سطح بالا، پروژه‌های سنگین
ویژگی‌ها: دقت و کیفیت بسیار بالا
سیستم پیشنهادی:

  • RAM: 128GB+
  • VRAM: 48GB+ یا Multi-GPU
  • مناسب اجرای خانگی نیست (سروری)

✅ Qwen3 4B

مدل سبک و سریع برای کارهای عمومی.

کاربردها: چت، ترجمه، تولید متن
ویژگی‌ها: بهینه و سریع
سیستم پیشنهادی:

  • RAM: 8GB
  • VRAM: 6GB

✅ Qwen3 8B

مدل متعادل با دقت خوب.

کاربردها: تولید محتوا، تحلیل، کدنویسی سبک
ویژگی‌ها: کیفیت بهتر نسبت به 4B
سیستم پیشنهادی:

  • RAM: 16GB
  • VRAM: 8–10GB

✅ Qwen3 30B

مدل قدرتمند برای کارهای حرفه‌ای.

کاربردها: تحلیل پیشرفته، تولید محتوا حرفه‌ای
ویژگی‌ها: دقت بالا، مناسب پروژه‌های جدی
سیستم پیشنهادی:

  • RAM: 32GB
  • VRAM: 24GB

✅ Qwen3-Coder 30B

مدل تخصصی برنامه‌نویسی.

کاربردها: تولید کد، دیباگ، تبدیل زبان‌ها
ویژگی‌ها: درک عمیق ساختار کد
سیستم پیشنهادی:

  • RAM: 32GB
  • VRAM: 24GB

✅ Qwen3-VL 4B

مدل چندرسانه‌ای سبک (متن + تصویر).

کاربردها: تحلیل تصویر، پاسخ به سوالات تصویری
ویژگی‌ها: پشتیبانی از ورودی تصویر
سیستم پیشنهادی:

  • RAM: 8GB
  • VRAM: 6GB

✅ Qwen3-VL 8B

نسخه قوی‌تر چندرسانه‌ای.

کاربردها: پردازش دقیق‌تر تصویر + متن
ویژگی‌ها: درک بهتر تصاویر
سیستم پیشنهادی:

  • RAM: 16GB
  • VRAM: 10GB

✅ Qwen3-VL 30B

مدل حرفه‌ای چندرسانه‌ای.

کاربردها: تحلیل پیچیده تصویر، پروژه‌های AI Vision
ویژگی‌ها: دقت بالا در تصویر + متن
سیستم پیشنهادی:

  • RAM: 32GB
  • VRAM: 24GB

✅ LLaMA 3 - 8B

مدل محبوب و بهینه از Meta.

کاربردها: چت، تولید محتوا، برنامه‌نویسی
ویژگی‌ها: پایداری و کیفیت خوب
سیستم پیشنهادی:

  • RAM: 16GB
  • VRAM: 8GB

✅ Phi-3 (3.8B / Mini 128K)

مدل سبک ولی بسیار بهینه از Microsoft.

کاربردها: چت، خلاصه‌سازی، پردازش متن
ویژگی‌ها: عملکرد عالی نسبت به سایز
سیستم پیشنهادی:

  • RAM: 8GB
  • VRAM: 4–6GB

✅ Mixtral 8x7B

مدل Mixture-of-Experts با قدرت بالا.

کاربردها: تحلیل پیشرفته، تولید محتوا حرفه‌ای
ویژگی‌ها: عملکرد نزدیک به مدل‌های خیلی بزرگ با مصرف کمتر
سیستم پیشنهادی:

  • RAM: 32GB
  • VRAM: 24GB

✅ EmbeddingGemma

مدل مخصوص تولید embedding (نه چت).

کاربردها: جستجوی معنایی، RAG، دسته‌بندی متن
ویژگی‌ها: مناسب بک‌اند و سیستم‌های جستجو
سیستم پیشنهادی:

  • RAM: 4GB
  • GPU نیاز ندارد

✅ Qwen 2.5 Coder 0.5B

مدل بسیار سبک برای کدنویسی ساده.

کاربردها: autocomplete، کد ساده
ویژگی‌ها: سریع و کم‌مصرف
سیستم پیشنهادی:

  • RAM: 4GB
  • بدون GPU

✅ Qwen 2.5 Coder 1.5B

نسخه قوی‌تر برای توسعه سبک.

کاربردها: تولید کد، اسکریپت‌نویسی
ویژگی‌ها: تعادل سرعت و دقت
سیستم پیشنهادی:

  • RAM: 8GB
  • VRAM: 4GB

✅ Dorna PartAI

مدل بومی/سفارشی (احتمالاً فارسی‌محور).

کاربردها: پردازش متن فارسی، چت
ویژگی‌ها: بهینه برای زبان فارسی
سیستم پیشنهادی:

  • RAM: 16GB
  • VRAM: 8GB

✅ Dorna 2 - 8B

نسخه بهبود یافته مدل قبلی.

کاربردها: تولید محتوا فارسی، چت پیشرفته
ویژگی‌ها: دقت بالاتر در زبان فارسی
سیستم پیشنهادی:

  • RAM: 16GB
  • VRAM: 8GB

انتخاب مدل برای تازه کارها

برای کارهای عمومی روزمره روی سیستم متوسط DeepSeek-R1 8B گزینه خوبی است.

برای برنامه نویسی Qwen3-Coder 30B خیلی عالیه. اگه روی سیستمتون اجرا نمیشه میتونید از نسخه های سبک تر مثل ... استفاده کنید.

برای نیازهای سازمانی یا اینکه اگه سیستم خیلی قوی دارید GPT-OSS 120B خیلی قوی است. این مدل شبیه ترین به چت جی پی تی است. (البته در حد اون نیست.) نسخه متوسط این مدل GPT-OSS 20B است.

به طور کلی هیچ کدوم از مدل ها فارسیشون مثل چت جی پی تی یا جمنای خوب نیست ولی برای خیلی از کارها میشه ازشون استفاده کرد.


 

 در صورتی که نیاز به فایل، پلاگین یا داکیومنت غیر مرتبط به Ollama دارید، می توانید در این صفحه مطرح کنید:

دانلود داکیومنت آفلاین کتابخانه ها و درخواست فایل

 

اگر در زمینه راه‌اندازی و اجرای مدل‌های تولید تصویر تجربه کافی دارید، از شما دعوت می‌کنیم در فرآیند تست، بهینه‌سازی و راه‌اندازی این مدل‌ها با ما همکاری کنید:

دانلود ComfyUI - ساخت عکس با هوش مصنوعی (آفلاین)

 

 

برای ثبت دیدگاه وارد حساب کاربری خود شوید.