هوش مصنوعی بدون نیاز به اینترنت با Ollama

بروزرسانی 6 بهمن 1404: نسخه لینوکس اضافه شد.
امروزه برای طیف زیادی از کارها از هوش مصنوعی یا همان LLM ها استفاده میکنیم، از برنامه نویسی گرفته تا مشاوره پزشکی، آموزش و یادگیری و یا پرسیدن سوال هایی که روزانه با آنها مواجه می شویم.
در زمان هایی که به هر دلیلی از دسترسی به اینترنت محروم می شویم و امکان اتصال به ابزارهای هوش مصنوعی مانند چت جی پی تی یا جمنای وجود ندارد، میتوانیم با اجرای مدل های هوش مصنوعی متن باز روی کامپیوتر شخصی یک ابزار هوش مصنوعی نسبتا قابل قبول داشته باشیم.
آشنایی با Ollama
Ollama یک پلتفرم متنباز و سبک است که امکان اجرای مدلهای زبانی بزرگ (LLM) را بهصورت محلی و بدون نیاز به اینترنت فراهم میکند.
با Ollama میتوانید مدلهایی مانند Llama 2 و Llama 3 از Meta، Mistral و Mixtral، Phi-3 از Microsoft، Gemma از Google و حتی مدلهای سفارشی خودتان را اجرا کنید.
تمام این فرایند بهصورت آفلاین انجام میشود و دادههای شما روی سیستم شخصیتان باقی میمانند.
Ollama بهدلیل سادگی نصب، سرعت بالا و امنیت دادهها در میان توسعهدهندگان و محققان حوزه هوش مصنوعی خیلی محبوب است.
نصب و راه اندازی Ollama
راه اندازی این برنامه ساده است و نیاز به تنظیمات خاصی ندارد. فقط کافی است برنامه و مدل ها را دانلود و طبق توضیحات نصب کنید:
برای سیستم عامل ویندوز از لینک زیر برنامه را دانلود و نصب کنید:
دانلود نرم افزار Ollama نسخه ویندوز (1.2GB)
برای سیستم عامل مک از این لینک می توانید استفاده کنید:
دانلود نرم افزار Ollama نسخه مک (57MB)
راه اندازی Ollama در لینوکس:
دانلود Ollama نسخه لینوکس (x86_64 – Intel / AMD CPU)
مناسب اکثر سیستمهای لینوکسی با پردازنده ۶۴ بیتی. اجرای Ollama با استفاده از CPU.
ollama-linux-amd64.tar.zst
دانلود Ollama نسخه لینوکس ARM64
ویژه سیستمهای مبتنی بر معماری ARM64 مانند سرورهای ARM و Raspberry Pi.
ollama-linux-arm64.tar.zst
دانلود Ollama نسخه لینوکس با پشتیبانی از AMD GPU (ROCm)
مخصوص کارتهای گرافیک AMD با درایور ROCm برای اجرای سریعتر مدلها.
ollama-linux-amd64-rocm.tar.zst
سپس فایل manifests را از لینک زیر دانلود و در مسیر مشخص شده اکسترکت کنید:
(در تاریخ 29 دی این فایل بروز شده و بدون اشکال کار میکنه.)
این فایل را در مسیر زیر اکسترکت کنید:
%HOMEPATH%\.ollama\models
در نهایت مدل های مورد نیاز خود را از فهرست زیر انتخاب و دانلود نمایید. دقت داشته باشید هرچقدر که پارامترهای مدل بیشتر باشد دقت آن بیشتر است و البته نیازمندی های سخت افزاری بالاتری دارد. در ادامه این مقاله سعی میکنیم تا حد ممکن در مورد مدل ها و کاربرد هر کدام توضیحاتی رو ارائه بدیم.
مدل ها را دانلود و در این مسیر اکسترکت کنید:
%HOMEPATH%\.ollama\models\blobs
بروزرسانی 27 دی:
مشکلاتی که در فایل های اولیه وجود داشت و برخی از مدل ها شناسایی نمیشد با کمک دوست خوبمون آقای پوریا چیبایی حل شد.
مدل هایی که کنارشون تیک سبز داره تست شده و کار میکنند.
| # | نام مدل | حجم تقریبی |
|---|---|---|
| 1 | ✅ deepseek-r1 8b | 5GB |
| 2 | ✅ gemma3 1b | 800MB |
| 3 | ✅ gemma3 4b | 3GB |
| 4 | ✅ gemma3 12b | 8GB |
| 5 | ✅ gemma3 27b | 16GB |
| 6 | ✅ gpt-oss 20b | 13GB |
| 7 | ✅ gpt-oss 120b | 61GB |
| 8 | ✅ qwen3 4b | 2GB |
| 9 | ✅ qwen3 8b | 5GB |
| 10 | ✅ qwen3 30b | 17GB |
| 11 | ✅ qwen3-coder 30b | 17GB |
| 12 | qwen3-vl 4b | 3GB |
| 13 | qwen3-vl 8b | 6GB |
| 14 | qwen3-vl 30b | 18GB |
| 15 | ✅ deepseek-r1-1.5b | 1GB |
| 16 | ✅ Dorna-partai | 8GB |
| 17 | ✅ llama3-8b | 4.5GB |
| 18 | ✅ phi3-latest-and-mini-128k | 2GB |
راهنمای انتخاب مدل های متن باز
در لیست بالا 14 تا مدل متن باز قابل دانلود داریم که می توانید با توجه به قدرت سخت افزاری و نیاز خود یک یا چند مدل را دانلود و استفاده کنید.
مدل DeepSeek-R1 8B
مدل DeepSeek-R1 8B یک مدل زبان پیشرفته و کاربردی است که برای حل مسائل پیچیده، تولید محتوا، ترجمه، برنامهنویسی و تحلیل متن مناسب میباشد.
این مدل توانایی پاسخگویی به سوالات پیچیده، تولید محتوای متنی با کیفیت، ترجمه متن بین زبانها، کمک در برنامهنویسی و توسعه نرمافزار، و تحلیل و پردازش متن را دارد.
برای اجرای این مدل حداقل 8 گیگابایت رم و 6 گیگابایت VRAM مورد نیاز است.
مدل Gemma3 1B
مدل Gemma3 1B یک مدل زبان کوچک و سبک است که برای کاربردهای ساده تا متوسط پردازش متن مناسب میباشد.
این مدل توانایی پاسخگویی به سوالات ساده، تولید محتوای متنی با کیفیت، ترجمه متن بین زبانها، و کمک در برنامهنویسی و توسعه نرمافزار را دارد.
برای اجرای این مدل حداقل 4 گیگابایت رم و 4 گیگابایت VRAM مورد نیاز است.
مدل Gemma3 4B
مدل Gemma3 4B یک مدل زبان متوسط و کاربردی است که برای کاربردهای متوسط تا پیشرفته پردازش متن مناسب میباشد.
این مدل توانایی پاسخگویی به سوالات متوسط تا پیچیده، تولید محتوای متنی با کیفیت، ترجمه متن بین زبانها، و کمک در برنامهنویسی و توسعه نرمافزار را دارد.
برای اجرای این مدل حداقل 6 گیگابایت رم و 6 گیگابایت VRAM مورد نیاز است.
مدل Gemma3 12B
مدل Gemma3 12B یک مدل زبان متوسط تا پیشرفته است که برای کاربردهای پیچیده تا بسیار پیشرفته پردازش متن مناسب میباشد.
این مدل توانایی پاسخگویی به سوالات پیچیده، تولید محتوای متنی با کیفیت بالا، ترجمه متن بین زبانها، و کمک در برنامهنویسی پیشرفته و توسعه نرمافزار را دارد.
برای اجرای این مدل حداقل 12 گیگابایت رم و 12 گیگابایت VRAM مورد نیاز است.
مدل Gemma3 27B
مدل Gemma3 27B یک مدل زبان بزرگ و پیشرفته است که برای کاربردهای بسیار پیچیده پردازش متن مناسب میباشد.
این مدل توانایی پاسخگویی به سوالات بسیار پیچیده، تولید محتوای متنی با کیفیت بسیار بالا، ترجمه متن بین زبانها، و کمک در برنامهنویسی پیشرفته و توسعه نرمافزار پیشرفته را دارد.
برای اجرای این مدل حداقل 24 گیگابایت رم و 24 گیگابایت VRAM مورد نیاز است.
مدل GPT-OSS 20B
مدل GPT-OSS 20B یک مدل زبان بزرگ و قدرتمند است که برای کاربردهای پیچیده تا بسیار پیشرفته پردازش متن مناسب میباشد.
این مدل توانایی پاسخگویی به سوالات پیچیده، تولید محتوای متنی با کیفیت بالا، ترجمه متن بین زبانها، و کمک در برنامهنویسی پیشرفته و توسعه نرمافزار را دارد.
برای اجرای این مدل حداقل 20 گیگابایت رم و 20 گیگابایت VRAM مورد نیاز است.
مدل GPT-OSS 120B
مدل GPT-OSS 120B یک مدل زبان بسیار بزرگ و پیشرفته است که برای کاربردهای بسیار پیچیده و پیشرفته پردازش متن مناسب میباشد.
این مدل توانایی پاسخگویی به سوالات بسیار پیچیده، تولید محتوای متنی با کیفیت بسیار بالا، ترجمه متن بین زبانها، و کمک در برنامهنویسی پیشرفته و توسعه نرمافزار پیشرفته را دارد.
برای اجرای این مدل حداقل 120 گیگابایت رم و 120 گیگابایت VRAM مورد نیاز است.
مدل Qwen3 4B
مدل Qwen3 4B یک مدل زبان متوسط و کاربردی است که برای کاربردهای متوسط تا پیشرفته پردازش متن مناسب میباشد.
این مدل توانایی پاسخگویی به سوالات متوسط تا پیچیده، تولید محتوای متنی با کیفیت، ترجمه متن بین زبانها، و کمک در برنامهنویسی و توسعه نرمافزار را دارد.
برای اجرای این مدل حداقل 6 گیگابایت رم و 6 گیگابایت VRAM مورد نیاز است.
مدل Qwen3 8B
مدل Qwen3 8B یک مدل زبان متوسط تا پیشرفته است که برای کاربردهای پیچیده تا بسیار پیشرفته پردازش متن مناسب میباشد.
این مدل توانایی پاسخگویی به سوالات پیچیده، تولید محتوای متنی با کیفیت بالا، ترجمه متن بین زبانها، و کمک در برنامهنویسی پیشرفته و توسعه نرمافزار را دارد.
برای اجرای این مدل حداقل 12 گیگابایت رم و 12 گیگابایت VRAM مورد نیاز است.
مدل Qwen3 30B
مدل Qwen3 30B یک مدل زبان بزرگ و پیشرفته است که برای کاربردهای بسیار پیچیده پردازش متن مناسب میباشد.
این مدل توانایی پاسخگویی به سوالات بسیار پیچیده، تولید محتوای متنی با کیفیت بسیار بالا، ترجمه متن بین زبانها، و کمک در برنامهنویسی پیشرفته و توسعه نرمافزار پیشرفته را دارد.
برای اجرای این مدل حداقل 24 گیگابایت رم و 24 گیگابایت VRAM مورد نیاز است.
مدل Qwen3-Coder 30B
مدل Qwen3-Coder 30B یک مدل زبان بزرگ و تخصصی در حوزه برنامهنویسی است که برای کاربردهای پیچیده برنامهنویسی مناسب میباشد.
این مدل توانایی پاسخگویی به سوالات پیچیده برنامهنویسی، تولید کد با کیفیت بالا، ترجمه متن بین زبانهای برنامهنویسی، و کمک در توسعه نرمافزار پیشرفته را دارد.
برای اجرای این مدل حداقل 24 گیگابایت رم و 24 گیگابایت VRAM مورد نیاز است.
مدل Qwen3-VL 4B
مدل Qwen3-VL 4B یک مدل زبان و تصویر متوسط و کاربردی است که برای کاربردهای ترکیبی متن و تصویر مناسب میباشد.
این مدل توانایی پاسخگویی به سوالات ترکیبی متن و تصویر، تولید محتوای چند رسانهای با کیفیت، ترجمه متن بین زبانها و تصاویر، و کمک در توسعه نرمافزار چند رسانهای را دارد.
برای اجرای این مدل حداقل 6 گیگابایت رم و 6 گیگابایت VRAM مورد نیاز است.
مدل Qwen3-VL 30B
مدل Qwen3-VL 30B یک مدل زبان و تصویر بزرگ و پیشرفته است که برای کاربردهای پیچیده ترکیبی متن و تصویر مناسب میباشد.
این مدل توانایی پاسخگویی به سوالات پیچیده ترکیبی متن و تصویر، تولید محتوای چند رسانهای با کیفیت بسیار بالا، ترجمه متن بین زبانها و تصاویر، و کمک در توسعه نرمافزار چند رسانهای پیشرفته را دارد.
برای اجرای این مدل حداقل 24 گیگابایت رم و 24 گیگابایت VRAM مورد نیاز است.
تجربه عملی استفاده از مدل های متن باز
در این بخش تجربیات کاربران در راه اندازی و استفاده از این مدل ها را به تدریج منتشر میکنیم. شما هم می توانید تجربه خود را با ما و سایر کاربران از طریق بخش دیدگاه های همین صفحه در میان بگذارید.
تجربه تیم گیت در مورد مدل DeepSeek-R1 8B:
این مدل حجم زیادی ندارد (در حد 5 گیگ)، روی یک سیستم ویندوزی با 64 گیگ رم و کارت گرافیک NVIDIA GTX 3060 12GB به راحتی و بدون هیچ فشاری کار میکنه. زبان فارسی رو به خوبی میفهمه. در مورد مسائل برنامه نویسی (فرانت اند/بک اند/تحلیل) به خوبی میشه ازش استفاده کرد. برای تولید محتوای فارسی زیاد پیشنهاد نمیشه. (در حد چت جی پی تی نیست)
تجربه تیم گیت در مورد مدل Qwen3-Coder 30B:
این مدل احتمالا بهترین مدل برای برنامه نویسی هست. پیچیده ترین مسائل برنامه نویسی رو میتونه درک کنه. برای توسعه نرم افزار، مستند سازی نرم افزار و یا عیب یابی خیلی خوب عمل میکنه. روی یک سیستم ویندوزی با 64 گیگ رم و کارت گرافیک NVIDIA GTX 3060 12GB به راحتی اجرا میشه و موقع رندر کردن خروجی تقریبا 50 درصد منابع کارت گرافیک رو درگیر میکنه. (احتمالا روی کارت گرافیک پایینتر هم نصب بشه)، زبان فارسی رو به خوبی میفهمه و میتونه مسائل رو به فارسی هم توضیح بده. برای عیب یابی و کانفیگ موارد مربوط به شبکه و لینوکس هم به خوبی عمل میکنه.
تست بازی Snake با مدل Qwen3-Coder 30B:
یک پرامپت خیلی ساده به این مدل دادیم: "کد کامل یک بازی snake رو برام بنویس که با html و js داخل یک فایل اجرا بشه."
کد خروجی یک بازی کامل با تمام عملیات ها بود. (از اینجا میتونید ببینید) اسکرین خروجی بازی هم به این شکل هست تقریبا:

برای ثبت دیدگاه وارد حساب کاربری خود شوید.