هوش مصنوعی بدون نیاز به اینترنت با Ollama

هوش مصنوعی ollama

بروزرسانی 6 بهمن 1404: نسخه لینوکس اضافه شد.

امروزه برای طیف زیادی از کارها از هوش مصنوعی یا همان LLM ها استفاده میکنیم، از برنامه نویسی گرفته تا مشاوره پزشکی، آموزش و یادگیری و یا پرسیدن سوال هایی که روزانه با آنها مواجه می شویم.

در زمان هایی که به هر دلیلی از دسترسی به اینترنت محروم می شویم و امکان اتصال به ابزارهای هوش مصنوعی مانند چت جی پی تی یا جمنای وجود ندارد، میتوانیم با اجرای مدل های هوش مصنوعی متن باز روی کامپیوتر شخصی یک ابزار هوش مصنوعی نسبتا قابل قبول داشته باشیم.

آشنایی با Ollama

Ollama یک پلتفرم متن‌باز و سبک است که امکان اجرای مدل‌های زبانی بزرگ (LLM) را به‌صورت محلی و بدون نیاز به اینترنت فراهم می‌کند.
با Ollama می‌توانید مدل‌هایی مانند Llama 2 و Llama 3 از Meta، Mistral و Mixtral، Phi-3 از Microsoft، Gemma از Google و حتی مدل‌های سفارشی خودتان را اجرا کنید.
تمام این فرایند به‌صورت آفلاین انجام می‌شود و داده‌های شما روی سیستم شخصی‌تان باقی می‌مانند.

Ollama به‌دلیل سادگی نصب، سرعت بالا و امنیت داده‌ها در میان توسعه‌دهندگان و محققان حوزه هوش مصنوعی خیلی محبوب است.

نصب و راه اندازی Ollama

راه اندازی این برنامه ساده است و نیاز به تنظیمات خاصی ندارد. فقط کافی است برنامه و مدل ها را دانلود و طبق توضیحات نصب کنید:

برای سیستم عامل ویندوز از لینک زیر برنامه را دانلود و نصب کنید:

دانلود نرم افزار Ollama نسخه ویندوز (1.2GB)

 

برای سیستم عامل مک از این لینک می توانید استفاده کنید:

دانلود نرم افزار Ollama نسخه مک (57MB)

 

راه اندازی Ollama در لینوکس:

دانلود Ollama نسخه لینوکس (x86_64 – Intel / AMD CPU)
مناسب اکثر سیستم‌های لینوکسی با پردازنده ۶۴ بیتی. اجرای Ollama با استفاده از CPU.
ollama-linux-amd64.tar.zst

دانلود Ollama نسخه لینوکس ARM64
ویژه سیستم‌های مبتنی بر معماری ARM64 مانند سرورهای ARM و Raspberry Pi.
ollama-linux-arm64.tar.zst

دانلود Ollama نسخه لینوکس با پشتیبانی از AMD GPU (ROCm)
مخصوص کارت‌های گرافیک AMD با درایور ROCm برای اجرای سریع‌تر مدل‌ها.
ollama-linux-amd64-rocm.tar.zst

سپس فایل manifests را از لینک زیر دانلود و در مسیر مشخص شده اکسترکت کنید:

(در تاریخ 29 دی این فایل بروز شده و بدون اشکال کار میکنه.)

دانلود فایل manifests

این فایل را در مسیر زیر اکسترکت کنید:

%HOMEPATH%\.ollama\models

 

در نهایت مدل های مورد نیاز خود را از فهرست زیر انتخاب و دانلود نمایید. دقت داشته باشید هرچقدر که پارامترهای مدل بیشتر باشد دقت آن بیشتر است و البته نیازمندی های سخت افزاری بالاتری دارد. در ادامه این مقاله سعی میکنیم تا حد ممکن در مورد مدل ها و کاربرد هر کدام توضیحاتی رو ارائه بدیم.

مدل ها را دانلود و در این مسیر اکسترکت کنید:

%HOMEPATH%\.ollama\models\blobs

 

بروزرسانی 27 دی:

مشکلاتی که در فایل های اولیه وجود داشت و برخی از مدل ها شناسایی نمیشد با کمک دوست خوبمون آقای پوریا چیبایی حل شد. 

مدل هایی که کنارشون تیک سبز داره تست شده و کار میکنند.

#نام مدلحجم تقریبی
1deepseek-r1 8b5GB
2gemma3 1b800MB
3gemma3 4b3GB
4gemma3 12b8GB
5gemma3 27b16GB
6gpt-oss 20b13GB
7gpt-oss 120b61GB
8qwen3 4b2GB
9qwen3 8b5GB
10qwen3 30b17GB
11qwen3-coder 30b17GB
12qwen3-vl 4b3GB
13qwen3-vl 8b6GB
14qwen3-vl 30b18GB
15deepseek-r1-1.5b1GB
16Dorna-partai8GB
17llama3-8b4.5GB
18phi3-latest-and-mini-128k2GB

 

راهنمای انتخاب مدل های متن باز

در لیست بالا 14 تا مدل متن باز قابل دانلود داریم که می توانید با توجه به قدرت سخت افزاری و نیاز خود یک یا چند مدل را دانلود و استفاده کنید.

مدل DeepSeek-R1 8B

مدل DeepSeek-R1 8B یک مدل زبان پیشرفته و کاربردی است که برای حل مسائل پیچیده، تولید محتوا، ترجمه، برنامه‌نویسی و تحلیل متن مناسب می‌باشد.

این مدل توانایی پاسخگویی به سوالات پیچیده، تولید محتوای متنی با کیفیت، ترجمه متن بین زبان‌ها، کمک در برنامه‌نویسی و توسعه نرم‌افزار، و تحلیل و پردازش متن را دارد.

برای اجرای این مدل حداقل 8 گیگابایت رم و 6 گیگابایت VRAM مورد نیاز است.

 

مدل Gemma3 1B

مدل Gemma3 1B یک مدل زبان کوچک و سبک است که برای کاربردهای ساده تا متوسط پردازش متن مناسب می‌باشد.

این مدل توانایی پاسخگویی به سوالات ساده، تولید محتوای متنی با کیفیت، ترجمه متن بین زبان‌ها، و کمک در برنامه‌نویسی و توسعه نرم‌افزار را دارد.

برای اجرای این مدل حداقل 4 گیگابایت رم و 4 گیگابایت VRAM مورد نیاز است.

 

مدل Gemma3 4B

مدل Gemma3 4B یک مدل زبان متوسط و کاربردی است که برای کاربردهای متوسط تا پیشرفته پردازش متن مناسب می‌باشد.

این مدل توانایی پاسخگویی به سوالات متوسط تا پیچیده، تولید محتوای متنی با کیفیت، ترجمه متن بین زبان‌ها، و کمک در برنامه‌نویسی و توسعه نرم‌افزار را دارد.

برای اجرای این مدل حداقل 6 گیگابایت رم و 6 گیگابایت VRAM مورد نیاز است.

 

مدل Gemma3 12B

مدل Gemma3 12B یک مدل زبان متوسط تا پیشرفته است که برای کاربردهای پیچیده تا بسیار پیشرفته پردازش متن مناسب می‌باشد.

این مدل توانایی پاسخگویی به سوالات پیچیده، تولید محتوای متنی با کیفیت بالا، ترجمه متن بین زبان‌ها، و کمک در برنامه‌نویسی پیشرفته و توسعه نرم‌افزار را دارد.

برای اجرای این مدل حداقل 12 گیگابایت رم و 12 گیگابایت VRAM مورد نیاز است.

 

مدل Gemma3 27B

مدل Gemma3 27B یک مدل زبان بزرگ و پیشرفته است که برای کاربردهای بسیار پیچیده پردازش متن مناسب می‌باشد.

این مدل توانایی پاسخگویی به سوالات بسیار پیچیده، تولید محتوای متنی با کیفیت بسیار بالا، ترجمه متن بین زبان‌ها، و کمک در برنامه‌نویسی پیشرفته و توسعه نرم‌افزار پیشرفته را دارد.

برای اجرای این مدل حداقل 24 گیگابایت رم و 24 گیگابایت VRAM مورد نیاز است.

 

مدل GPT-OSS 20B

مدل GPT-OSS 20B یک مدل زبان بزرگ و قدرتمند است که برای کاربردهای پیچیده تا بسیار پیشرفته پردازش متن مناسب می‌باشد.

این مدل توانایی پاسخگویی به سوالات پیچیده، تولید محتوای متنی با کیفیت بالا، ترجمه متن بین زبان‌ها، و کمک در برنامه‌نویسی پیشرفته و توسعه نرم‌افزار را دارد.

برای اجرای این مدل حداقل 20 گیگابایت رم و 20 گیگابایت VRAM مورد نیاز است.

 

مدل GPT-OSS 120B

مدل GPT-OSS 120B یک مدل زبان بسیار بزرگ و پیشرفته است که برای کاربردهای بسیار پیچیده و پیشرفته پردازش متن مناسب می‌باشد.

این مدل توانایی پاسخگویی به سوالات بسیار پیچیده، تولید محتوای متنی با کیفیت بسیار بالا، ترجمه متن بین زبان‌ها، و کمک در برنامه‌نویسی پیشرفته و توسعه نرم‌افزار پیشرفته را دارد.

برای اجرای این مدل حداقل 120 گیگابایت رم و 120 گیگابایت VRAM مورد نیاز است.

 

مدل Qwen3 4B

مدل Qwen3 4B یک مدل زبان متوسط و کاربردی است که برای کاربردهای متوسط تا پیشرفته پردازش متن مناسب می‌باشد.

این مدل توانایی پاسخگویی به سوالات متوسط تا پیچیده، تولید محتوای متنی با کیفیت، ترجمه متن بین زبان‌ها، و کمک در برنامه‌نویسی و توسعه نرم‌افزار را دارد.

برای اجرای این مدل حداقل 6 گیگابایت رم و 6 گیگابایت VRAM مورد نیاز است.

 

مدل Qwen3 8B

مدل Qwen3 8B یک مدل زبان متوسط تا پیشرفته است که برای کاربردهای پیچیده تا بسیار پیشرفته پردازش متن مناسب می‌باشد.

این مدل توانایی پاسخگویی به سوالات پیچیده، تولید محتوای متنی با کیفیت بالا، ترجمه متن بین زبان‌ها، و کمک در برنامه‌نویسی پیشرفته و توسعه نرم‌افزار را دارد.

برای اجرای این مدل حداقل 12 گیگابایت رم و 12 گیگابایت VRAM مورد نیاز است.

 

مدل Qwen3 30B

مدل Qwen3 30B یک مدل زبان بزرگ و پیشرفته است که برای کاربردهای بسیار پیچیده پردازش متن مناسب می‌باشد.

این مدل توانایی پاسخگویی به سوالات بسیار پیچیده، تولید محتوای متنی با کیفیت بسیار بالا، ترجمه متن بین زبان‌ها، و کمک در برنامه‌نویسی پیشرفته و توسعه نرم‌افزار پیشرفته را دارد.

برای اجرای این مدل حداقل 24 گیگابایت رم و 24 گیگابایت VRAM مورد نیاز است.

 

مدل Qwen3-Coder 30B

مدل Qwen3-Coder 30B یک مدل زبان بزرگ و تخصصی در حوزه برنامه‌نویسی است که برای کاربردهای پیچیده برنامه‌نویسی مناسب می‌باشد.

این مدل توانایی پاسخگویی به سوالات پیچیده برنامه‌نویسی، تولید کد با کیفیت بالا، ترجمه متن بین زبان‌های برنامه‌نویسی، و کمک در توسعه نرم‌افزار پیشرفته را دارد.

برای اجرای این مدل حداقل 24 گیگابایت رم و 24 گیگابایت VRAM مورد نیاز است.

 

مدل Qwen3-VL 4B

مدل Qwen3-VL 4B یک مدل زبان و تصویر متوسط و کاربردی است که برای کاربردهای ترکیبی متن و تصویر مناسب می‌باشد.

این مدل توانایی پاسخگویی به سوالات ترکیبی متن و تصویر، تولید محتوای چند رسانه‌ای با کیفیت، ترجمه متن بین زبان‌ها و تصاویر، و کمک در توسعه نرم‌افزار چند رسانه‌ای را دارد.

برای اجرای این مدل حداقل 6 گیگابایت رم و 6 گیگابایت VRAM مورد نیاز است.

 

مدل Qwen3-VL 30B

مدل Qwen3-VL 30B یک مدل زبان و تصویر بزرگ و پیشرفته است که برای کاربردهای پیچیده ترکیبی متن و تصویر مناسب می‌باشد.

این مدل توانایی پاسخگویی به سوالات پیچیده ترکیبی متن و تصویر، تولید محتوای چند رسانه‌ای با کیفیت بسیار بالا، ترجمه متن بین زبان‌ها و تصاویر، و کمک در توسعه نرم‌افزار چند رسانه‌ای پیشرفته را دارد.

برای اجرای این مدل حداقل 24 گیگابایت رم و 24 گیگابایت VRAM مورد نیاز است.

 

تجربه عملی استفاده از مدل های متن باز

در این بخش تجربیات کاربران در راه اندازی و استفاده از این مدل ها را به تدریج منتشر میکنیم. شما هم می توانید تجربه خود را با ما و سایر کاربران از طریق بخش دیدگاه های همین صفحه در میان بگذارید.

تجربه تیم گیت در مورد مدل DeepSeek-R1 8B:

این مدل حجم زیادی ندارد (در حد 5 گیگ)، روی یک سیستم ویندوزی با 64 گیگ رم و کارت گرافیک NVIDIA GTX 3060 12GB به راحتی و بدون هیچ فشاری کار میکنه. زبان فارسی رو به خوبی میفهمه. در مورد مسائل برنامه نویسی (فرانت اند/بک اند/تحلیل) به خوبی میشه ازش استفاده کرد. برای تولید محتوای فارسی زیاد پیشنهاد نمیشه. (در حد چت جی پی تی نیست)

تجربه تیم گیت در مورد مدل Qwen3-Coder 30B:

این مدل احتمالا بهترین مدل برای برنامه نویسی هست. پیچیده ترین مسائل برنامه نویسی رو میتونه درک کنه. برای توسعه نرم افزار، مستند سازی نرم افزار و یا عیب یابی خیلی خوب عمل میکنه. روی یک سیستم ویندوزی با 64 گیگ رم و کارت گرافیک NVIDIA GTX 3060 12GB به راحتی اجرا میشه و موقع رندر کردن خروجی تقریبا 50 درصد منابع کارت گرافیک رو درگیر میکنه. (احتمالا روی کارت گرافیک پایینتر هم نصب بشه)، زبان فارسی رو به خوبی میفهمه و میتونه مسائل رو به فارسی هم توضیح بده. برای عیب یابی و کانفیگ موارد مربوط به شبکه و لینوکس هم به خوبی عمل میکنه.

تست بازی Snake با مدل Qwen3-Coder 30B:

یک پرامپت خیلی ساده به این مدل دادیم: "کد کامل یک بازی snake رو برام بنویس که با html و js داخل یک فایل اجرا بشه."

کد خروجی یک بازی کامل با تمام عملیات ها بود. (از اینجا میتونید ببینید) اسکرین خروجی بازی هم به این شکل هست تقریبا:

snake game

 

 

برای ثبت دیدگاه وارد حساب کاربری خود شوید.