آموزش هوش مصنوعی (AI)

آموزش هوش مصنوعی

آنچه در این صفحه می خوانید:

آموزش هوش مصنوعی (AI)

در علم رایانه، هوش مصنوعی (Artificial Intelligence) که گاه به آن هوش ماشین نیز گفته می شود، برخلاف هوش طبیعی است که توسط انسان نشان داده شده است. به اصطلاح هوش مصنوعی اغلب برای توصیف ماشین ها یا رایانه ها استفاده می شود و از عملکردهای شناختی که با ذهن انسان در ارتباط است، مانند یادگیری و حل مسئله استفاده می کند. قابلیت های ماشین مدرن که به طور کلی به عنوان AI طبقه بندی می شوند شامل درک موفقیت آمیز گفتار انسان، رقابت در بالاترین سطح در سیستم های بازی استراتژیک مانند شطرنج و گو، اتومبیل های خودران، مسیریابی هوشمند و در شبکه های تحویل محتوا و شبیه سازی های نظامی است.

هوش مصنوعی را می توان به سه نوع سیستم مختلف طبقه بندی کرد: تحلیلی، الهام گرفته از انسان و هوش مصنوعی انسانی. هوش مصنوعی تحلیلی تنها ویژگی های سازگار با هوش شناختی را با ایجاد بازنمایی شناختی از جهان و استفاده از یادگیری مبتنی بر تجربه گذشته برای آگاهی از تصمیمات آینده را در بردارد. هوش مصنوعی الهام گرفته از انسان عناصری از هوش شناختی و عاطفی دارد. علاوه بر عناصر شناختی، درک احساسات انسانی را شامل می شود که در تصمیم گیری آنها را در نظر می گیرد. هوش مصنوعی انسانی همه ویژگی و شایستگی های انسان یعنی شناختی، عاطفی و هوش اجتماعی را نشان می دهد، قادر به خودآگاهی است و در تعامل با دیگران از این خودآگاهی بهره مند است.

مشکلات سنتی که به عنوان اهداف تحقیقات هوش مصنوعی در نظر گرفته می شوند شامل استدلال، نمایش دانش، برنامه ریزی، یادگیری، پردازش زبان طبیعی (NLP)، ادراک و توانایی حرکت و دستکاری اشیاء است. هوش عمومی از جمله اهداف بلند مدت این حوزه است. رویکردها در این حوزه شامل روش های آماری، هوش محاسباتی و هوش مصنوعی سنتی است. ابزارهای زیادی در هوش مصنوعی استفاده می شود، از جمله نسخه های جستجو و بهینه سازی ریاضی، شبکه های عصبی مصنوعی و روش های مبتنی بر آمار، احتمال و اقتصاد. رشته هوش مصنوعی به علوم رایانه، مهندسی اطلاعات، ریاضیات، روانشناسی، زبانشناسی، فلسفه و بسیاری زمینه های دیگر می پردازد.

زمینه هوش مصنوعی با این ادعا پایه گذاری شده است که هوش انسانی می تواند چنانچه دقیق توصیف شود، می توان ماشینی را برای شبیه سازی آن ساخت. این استدلال های فلسفی راجع به ماهیت ذهن و اخلاق، ایجاد موجودات مصنوعی با هوش انسانی مانند موضوعاتی را مطرح می کند که از دوران باستان به وسیله اسطوره، داستان و فلسفه مورد کاوش قرار گرفته است. برخی افراد همچنین در صورت پیشرفت بدون تحرک، هوش مصنوعی را برای انسان خطری می دانند. برخی دیگر بر این باورند که هوش مصنوعی برخلاف انقلاب های فناوری قبلی، خطر بیکاری گسترده را ایجاد می کند. در قرن بیست و یکم، تکنیک های هوش مصنوعی به دنبال پیشرفت همزمان در قدرت رایانه، حجم زیاد داده ها و درک نظری، تولد دوباره را تجربه کرده اند. تکنیک های هوش مصنوعی به یک بخش اساسی در صنعت فناوری تبدیل شده اند و به حل بسیاری از مشکلات چالش برانگیز در علوم رایانه، مهندسی نرم افزار و تحقیقات عملیات کمک می کنند .

نظریه تورینگ

آلن تورینگ به لاتین Alan Mathison Turing یک ریاضیدان انگلیسی، دانشمند رایانه، منطق، رمزنگار، فیلسوف و زیست شناس نظری بود. تورینگ در توسعه علم نظری رایانه بسیار تأثیرگذار بود، ارائه رسمی سازی مفاهیم الگوریتم و محاسبه با دستگاه تورینگ، که می تواند الگویی از یک رایانه با کاربرد کلی باشد. تورینگ به عنوان پدر علم نظریه رایانه و هوش مصنوعی در نظر گرفته می شود. تورینگ نظریه اش را با این سؤال شروع میکند که "آیا ماشین ها می توانند فکر کنند؟". او می گوید که برای پاسخ دادن به این سؤال باید اول تعریف مشخصی از تفکر و ماشین داشتیم. ماشین در این مقاله یعنی تحقق فیزیکی ماشین های محاسباتی خودکار شبیه به رایانه های امروزی انجام شود. تورینگ می گوید صحبت از تعریف تفکر کاری عبث است و بنابراین پیشنهاد می دهد سؤال اصلی مقاله یعنی "آیا ماشین ها می توانند فکر کنند؟" با سؤال دیگری جایگزین شود: "آیا ماشین ها می توانند از بازی تقلید سربلند بیرون آیند؟"

آزمون تورینگ

در سال 1950، آلن تورینگ مقاله ای را در رابطه با هوش مصنوعی منتشر ساخت که بعد ها به تست تورینگ مشهور شد. به طور خلاصه گفته می شود مطابق آزمون تورینگ برای تایید هوشمندی اگر بازجوی انسانی نتواند ماهیت رایانه ای را که با آن در مکالمه است را تشخیص دهد و اطمینان پیدا کند که این ماشین انسان است باید گفت این ماشین هوشمند است. تورینگ پیش بینی کرده است که در فاصله حدود ۵۰ سال یعنی ابتدای هزاره جدید ماشین هایی پیدا شوند که آزمون تورینگ را با موفقیت پشت سر بگذارند. اما از آن زمان تا کنون ماشینی اختراع نشده است که توانسته باشد این تست را با موفقیت بگذراند. هر چند زبان AIML ابداع شد، اما این زبان هرگز به این حد از هوش مصنوعی دست نیافت.

تاریخچه هوش مصنوعی (AI)

مطالعه استدلال مکانیکی یا "رسمی" توسط فلاسفه و ریاضیدانان در دوران باستان آغاز شد. مطالعه منطق ریاضی مستقیما به تئوری محاسبه آلن تورینگ منجر شد که نشان می دهد یک ماشین با زدن نمادهای ساده "0" و "1" می تواند هر عملی قابل تصور از کسر ریاضی را شبیه سازی کند. این بینش که رایانه های دیجیتال می توانند هر فرآیند استدلال رسمی را شبیه سازی کنند، به عنوان پایان نامه کلیسا-تورینگ معروف است. در کنار اکتشافات همزمان در عصب شناسی، نظریه اطلاعات و سایبرنتیک، این امر باعث شد محققان احتمال ساخت مغز الکترونیکی را در نظر بگیرند. تورینگ اظهار داشت: اگر انسان نتواند بین پاسخ های یک ماشین و یک انسان تفاوت قائل شود، این دستگاه می تواند باهوش تلقی شود.

زمینه تحقیقات هوش مصنوعی در کارگاهی در کالج دارتموث در سال 1956 متولد شد. شرکت کنندگان آلن نیول (CMU)، هربرت سیمون (CMU)، جان مک کارتی (MIT)، ماروین مینسکی (MIT) و آرتور ساموئل (IBM) بنیانگذاران و رهبران تحقیقات هوش مصنوعی شدند. آنها و دانشجویان برنامه هایی تولید کردند که مطبوعات آن را حیرت آور توصیف کردند. رایانه ها استراتژی چکرز را یاد می گرفتند. مشکلات در جبر، اثبات قضایای منطقی و صحبت کردن به زبان انگلیسی را انجام می دادند و در اواسط دهه 1960، تحقیقات در ایالات متحده به شدت توسط وزارت دفاع تأمین می شد و آزمایشگاه هایی در سراسر جهان تأسیس شده بودند. بنیانگذاران هوش مصنوعی در مورد آینده خوش بین بودند چنانچه هربرت سیمون پیش بینی کرد ماشین ها در طی بیست سال قادر به انجام هر کاری خواهند بود که یک مرد بتواند انجام دهد.

آنها نتوانستند مشکل برخی از کارهای باقی مانده را تشخیص دهند. روند پیشرفت کند شد و در سال 1974، در پاسخ به انتقاد از سر جیمز لایتیل و فشارهای مداوم كنگره ایالات متحده برای تأمین بودجه پروژه های به سمت تولید، هم دولت های آمریكا و هم بریتانیا تحقیقات اكتشافی را در مصاحبه با هوش مصنوعی قطع كردند. چند سال بعد زمستان AI نامیده شد، دوره ای که گرفتن بودجه برای پروژه های هوش مصنوعی دشوار بود. در اوایل دهه 1980، تحقیقات هوش مصنوعی با موفقیت تجاری سیستم های خبره احیا شد، شکلی از برنامه هوش مصنوعی که دانش و مهارت های تحلیلی متخصصان انسانی را شبیه سازی می کرد. تا سال 1985، بازار هوش مصنوعی به بیش از یک میلیارد دلار رسیده بود. در عین حال، پروژه رایانه ای نسل پنجم ژاپن به دولت های ایالات متحده و انگلیس الهام بخش بود تا بودجه تحقیق دانشگاهی را بازگرداند. با این حال، با شروع فروپاشی بازار ماشین آلات Lisp در سال 1987، AI بار دیگر به بی اعتمادی افتاد و یک وقفه طولانی مدت طولانی تر آغاز شد.

در اواخر دهه 1990 و اوایل قرن 21، AI شروع به استفاده از لجستیک، داده کاوی، تشخیص پزشکی و منطق های دیگر کرد. این موفقیت که به دلیل افزایش قدرت محاسباتی بود و تاکید بیشتر بر حل مشکلات خاص، پیوندهای جدید بین هوش مصنوعی و سایر زمینه ها مانند آمار، اقتصاد و ریاضیات و تعهد محققان به روشهای ریاضی و معیارهای علمی بود. Deep Blue اولین سیستم بازی شطرنج رایانه ای بود که در 11 مه 1997 قهرمان شطرنج جهان، گری کاسپاروف را شکست داد. سال 2015 تولدی برای هوش مصنوعی بود و تعداد پروژه های نرم افزاری که به طور پراکنده از AI گوگل استفاده می کردند از سال 2012 به بیش از 2700 پروژه افزایش یافت. در حدود سال 2016، چین بودجه دولت خود را بسیار تسریع کرد. برخی از ناظران با توجه به عرضه گسترده داده ها و نتیجه تحقیقاتی که در حال افزایش است، معتقدند که ممکن است در مسیر تبدیل شدن به ابرقدرت هوش مصنوعی قرار داشته باشد. با این حال، اذعان شده است که چین در گزارش های مربوط به هوش مصنوعی تمایل به اغراق داشته اند.


مبانی هوش مصنوعی (AI)

هوش مصنوعی معمولی محیط خود را تجزیه و تحلیل می کند و اقداماتی انجام می دهد که شانس موفقیت آن را به حداکثر می رساند. عملکرد ابزار مورد نظر (یا هدف) AI می تواند ساده باشد ("1 اگر AI برنده بازی Go شود، در غیر این صورت") یا پیچیده ("عملکردهایی را که از لحاظ ریاضی شبیه کارهایی است که در گذشته موفق بودند" انجام دهید). اهداف را می توان صریحاً تعریف یا القا کرد. اگر هوش مصنوعی برای "یادگیری تقویت کننده" برنامه ریزی شده باشد، می توان با پاداش دادن برخی از انواع رفتارها یا مجازات دیگران، اهداف را به طور ضمنی تحریک کرد. از طرف دیگر، یک سیستم تکاملی می تواند اهداف خود را با استفاده از "عملکرد تناسب اندام" برای جهش و تکرار ترجیح سیستم های AI با امتیاز بالا، شبیه به نحوه تکامل حیوانات برای رسیدن به اهداف خاص مانند یافتن غذا القا کند.

به بعضی از سیستم های هوش مصنوعی، مانند نزدیکترین همسایه، به جای قیاس، این سیستم ها به طور کلی اهداف اهدا نمی شوند، مگر به حدی که اهداف در داده های آموزش آنها ضمنی باشند. چنین سیستم هایی اگر سیستم غیر هدف به عنوان سیستمی تنظیم شود که هدف اصلی آن انجام موفقیت آمیز وظیفه طبقه بندی باریک خود باشد، باز هم می تواند محک شود. هوش مصنوعی اغلب در مورد استفاده از الگوریتم ها می چرخد. الگوریتم مجموعه ای از دستورالعمل های بدون ابهام است که یک کامپیوتر مکانیکی می تواند آن را اجرا کند.

یادگیری ماشینی (Machine Learning)

یادگیری ماشینی (ML) یک مطالعه علمی از الگوریتم ها و مدل های آماری است که سیستم های رایانه ای برای انجام یک کار خاص و بدون استفاده از دستورالعمل های صریح و با استفاده از الگوهای و استنباط از آن ها استفاده می کنند. این به عنوان زیر مجموعه ای از هوش مصنوعی دیده می شود. الگوریتم های یادگیری ماشین یک مدل ریاضی را بر اساس داده های نمونه، معروف به "داده های آموزش" می سازند، تا بتوانند پیش بینی ها یا تصمیم گیری هایی را انجام دهند بدون اینکه صریحاً برای انجام کار برنامه ریزی شوند. الگوریتم های یادگیری ماشینی در طیف گسترده ای از برنامه ها، از جمله فیلتر ایمیل و بینایی رایانه استفاده می شود، جایی که تهیه یک الگوریتم معمولی برای انجام موثر کار، دشوار یا غیرقابل دسترس است.

یادگیری ماشین ارتباط نزدیکی با آمار محاسباتی دارد، که تمرکز آن بر ساخت پیش بینی با استفاده از رایانه است. مطالعه بهینه سازی ریاضی روش ها، نظریه ها و حوزه های کاربردی را به حوزه یادگیری ماشین ارائه می دهد. داده کاوی زمینه ای در زمینه یادگیری ماشینی است و تمرکز آن بر تجزیه و تحلیل داده های اکتشافی از طریق یادگیری بدون نظارت است. در کاربردهای خود در زمینه مشکلات تجاری، یادگیری ماشینی نیز به عنوان تجزیه و تحلیل پیش بینی کننده شناخته می شود.

یادگیری ماشینی یا Machine Learning نوعی از هوش مصنوعی (AI) است که اجازه می دهد برنامه های کاربردی نرم افزار در پیش بینی نتایج بدون برنامه ریزی دقیق تر شوند. فرض اساسی یادگیری ماشینی ایجاد الگوریتمی است که می تواند داده های ورودی را دریافت کند و از تجزیه و تحلیل آماری برای پیش بینی مقدار خروجی در یک محدوده قابل قبول استفاده کند. الگوریتم های یادگیری ماشینی اغلب با عنوان نظارت شده یا نظارت نشده طبقه بندی می شوند.

یادگیری تقویتی (Reinforcement Learning)

یادگیری تقویتی (Reinforcement Learning) رشته ای در هوش مصنوعی و شاخه ای از یادگیری ماشینی است. با الهام از روانشناسی رفتارگرایانه، این رشته عامل ها و ماشین های نرم افزاری را برای تعقیب رفتارها، اقدامات مربوطه، و در نهایت به حداکثر رساندن عملکرد آنها را ارائه می دهد.

Reinforcement Learning به اختصار RL، بیش از 100 سال پیش توسط ادوارد تورندیک، روانشناس، معرفی شده بود. این تکنولوژی، به جای اینکه برنامه نویس به آنها بگوید چه کاری باید انجام دهد، اجازه می دهد که عامل کامپیوتر / نرم افزار به خودش با بهترین راه کار task را انجام دهد. تعامل بین دو عنصر محیط و عامل یادگیری قرار دارد. در راه، عامل با محیطی که به عنوان سیگنال تقویت شناخته می شود پاداش می گیرد. بر اساس پاداش، عامل از این دانش استفاده می کند و گزینه ها را برای اقدام بعدی می سازد.

در حقیقت، رایانه ها مانند افرادی که نیاز به آموزش صریح ندارند یاد می گیرند. مجازات هایی که در طول راه برای عامل مصنوعی اتفاق می افتد، اما با روش های ثابت و محرمانه، عوامل متوجه می شوند و به بهترین روش را (بر اساس ورودی خام) بکار می گیرند. به طور مداوم، انتخاب ها هنگام جداسازی خوب و بد انجام می شود. نمایش توسط Q-network انجام می شود که مجموع پاداش را حدس می زند. تکنولوژی در حال حاضر با ترکیبی از یادگیری عمیق قوی تر است که با استفاده از یک شبکه عصبی شبیه سازی شده برای شناسایی الگوهای / روند داده ها و انجام وظایف یادگیری کامپیوتر انجام می شود.

یادگیری عمیق (Deep learning)

یادگیری عمیق (Deep learning) یا یادگیری عمیق یک تکنیک یادگیری ماشینی از هوش مصنوعی است که به کامپیوترها آموزش می دهد تا کارهایی که انسان به طور طبیعی انجام می دهد را فرا بگیرد: با مثال آموزش ببیند. یادگیری عمیق یک فن آوری کلیدی در پشت ماشین های بدون راننده است، آنها را قادر می سازد تا علامت توقف را شناسایی کنند یا عابر پیاده را از یک چراغ جلو تشخیص دهند. این کلید کنترل صدا در دستگاه های مصرفی مانند تلفن، قرص، تلویزیون، و بلندگوهای هندزفری است. یادگیری عمیق اخیرا توجه زیادی را به خود جلب کرده است. نتایجی به دست آورده که قبلا امکان پذیر نبود.

در یادگیری عمیق، یک مدل کامپیوتری می آموزد که تسک های طبقه بندی را مستقیما از تصاویر، متن یا صدا انجام دهد. مدل های یادگیری عمیق می توانند دقت بیشتری داشته باشند، گاهی اوقات عملکرد آنها از سطح انسان بالاتر می رود. مدل ها با استفاده از مجموعه ای از داده های برچسب گذاری شده و معماری شبکه های عصبی که شامل بسیاری از لایه ها هستند، آموزش داده می شود.

تنسورفلو (TensorFlow)

تنسورفلو (TensorFlow) یک کتابخانه نرم افزاری اوپن سورس برای برنامه ریزی داده ها و برنامه نویسی متفاوت با طیف وسیعی از کارها است. این یک کتابخانه ریاضی است و همچنین برای برنامه های یادگیری ماشین مانند شبکه های عصبی استفاده می شود. از تنسور فلو برای تحقیق و تولید در Google استفاده می شود. در نوامبر 2015 تحت مجوز Apache 2.0 منتشر شد. تنسورفلو یک کتابخانه نرم افزاری است که برای محاسبه عددی با گراف های جریان داده ها مورد استفاده قرار می گیرد که به کاربران اجازه می دهد محاسبات دلخواه را به عنوان یک گراف جریان های داده بیان کنند. گره ها در این گراف عملیات ریاضی را نشان می دهند درحالیکه edge داده ای را نشان می دهد که از یک گره با گره دیگر ارتباط دارد.

تنسورفلو در اصل توسط Google Brain Team در سازمان پژوهشی هوش ماشینی گوگل برای یادگیری ماشینی و پژوهش شبکه های عصبی عمیق ایجاد شد. Trensorflow چند سکویی است و بر روی تقریبا همه چیز مانند GPU و CPU از جمله پلتفرم های موبایل و جاسازی شده و حتی واحد پردازش تنسور (TPU) که سخت افزار تخصصی برای انجام ریاضی تانسور هستند اجرا می شود. داده های موجود در TensorFlow به عنوان تنسور نشان داده می شوند که آرایه های چند بعدی هستند. API لایه های رابط ساده تری برای لایه های مورد استفاده در مدل های یادگیری عمیق دارد. در بالای آن API های سطح بالا مانند API Keras و Estimator API و Core API قرار دارد که آموزش و ارزیابی مدل های توزیع شده را آسان می کند.


کاربرد هوش مصنوعی (AI)

آموزش جامع هوش مصنوعی

هوش مصنوعی معمولا محیط خود را تحلیل می کند و اقداماتی انجام می دهد که شانس موفقیت آن را به حداکثر می رساند. عملکرد ابزار مورد نظر یا هدف AI می تواند ساده و یا پیچیده باشد. بسیاری از الگوریتم های هوش مصنوعی قادر به یادگیری داده ها هستند. آنها می توانند خود را با یادگیری اکتشافات جدید که در گذشته به خوبی کار کرده اند، تقویت کنند و یا خودشان می توانند الگوریتم های دیگری بنویسند. تعاریف هوش مصنوعی به چهار دسته تقسیم میشود: از جنبه تفکر، سیستمی که مشابه انسان فکر میکند و سیستمی که منطقی فکر می کند.از جنبه رفتار، سیستمی که مثل انسان رفتار میکند و سیستمی که منطقی رفتار می کند.

هوش مصنوعی تنها به روبات ها، بازی شطرنج، فیلم های تخیلی محدود نمی شود بلکه امروزه توانسته در مسایل بسیاری همچون پردازش زبان طبیعی، سیستم های خبره، سیستم های عصبی، بینایی ماشین گام بردارد و موفقیت های بسیاری کسب کند. امروزه در هر علمی می توان رد پایی از هوش مصنوعی و کاربرد های ان پیدا کرد. از جمله پزشکی، هوا فضا، تسلیحات نظامی، تشخیص صدا و گفتار و بسیاری از علوم مختلف دیگر.

اندروید

گوگل اعلام کرد که در در حال تبدیل شدن و تغییر اولویت های خود از" mobile first" به "AI-first" است. همچنین اعلام کرد که اقدام به راه اندازی یک سری جدید ابزارها و برنامه هایی که ایجاد برنامه های هوش مصنوعی را برای اندروید (Android) آسانتر می کنند. این ابزارهای جدید شامل Android Jetpack بودند. یکی از ابزارهای جالب موجود در Jetpack،Slices نام دارد که قالب های UI را برای جستجوها و Google Assistant اضافه می کند. کیت جدید ML اکنون یادگیری دستگاه را به دستگاه های تلفن همراه منتقل می کند. API های پایه به سرویس های توسعه اندروید اجازه می دهد به راحتی ویژگی های شگفت انگیز مانند تشخیص چهره و برچسب زدن به تصویر را شامل شوند. در به روزرسانی های جدید Dialogflow، فناوری اساسی دستیار صوتی Google، به کاربران این امکان را می دهد تا بدون نیاز به گفتن "Hey, Google" هر بار با معاون مجازی خود مکالمه داشته باشند. در این بروزرسانی جدید، می توانید روال های سفارشی ایجاد کرده و چندین درخواست را در یک فرمان صوتی انجام دهید.

اپلیکیشن های موبایل

تکنیک های مدرن هوش مصنوعی بسیار گسترده هستند و در اینجا تعداد آنها بسیار زیاد است. غالبا، وقتی تکنیکی به جریان اصلی می رسد دیگر از هوش مصنوعی در نظر گرفته نمی شود. این پدیده به عنوان اثر هوش مصنوعی توصیف شده است. نمونه های برجسته هوش مصنوعی برنامه نویسی موبایل و اپلیکیشن ها مورد استفاده قرار گرفته است که شامل وسایل نقلیه خودران مانند هواپیماهای بدون سرنشین و اتومبیل های رانندگی، تشخیص های پزشکی، ایجاد هنر، اثبات قضایای ریاضی، انجام بازی ها مانند شطرنج و بازی های ویدیویی، موتورهای جستجو مانند جستجوی گوگل، دستیاران صوتی آنلاین مانند سیری و کرتانا، تشخیص چهره در عکس ها، فیلتر کردن اسپم، پیش بینی تاخیر در پرواز، پیش بینی تصمیم های قضایی و هدف قرار دادن تبلیغات آنلاین می باشد.

با رونق گرفتن سایت های رسانه های اجتماعی از تلویزیون به عنوان منبع خبر برای جوانان و سازمان های خبری که به طور فزاینده ای به تولید سیستم های رسانه های اجتماعی متکی هستند و توزیع می کنند، ناشران اصلی اکنون از فناوری هوش مصنوعی (AI) برای انتشار موثرتر داستان و ایجاد حجم بیشتر ترافیک استفاده می کنند.

رباتیک

رباتیک شاخه ای از فناوری است که به طراحی، ساخت، عملیات و کاربرد روبات ها و سیستم های کامپیوتری برای کنترل، فیدبک حسگرها و پردازش اطلاعات می پردازد. این فناوری ها با دستگاه های خودکاری سر و کار دارند که می‌توانند جانشین انسان در محیط ها یا روندهای تولیدی خطرناک شوند یا ظاهر، رفتار و درک انسانی را شبیه سازی کنند. بسیاری از روبات های امروزی از طبیعت الهام گرفته‌اند که به شاخه روباتیک مهم از بیولوژی مربوط می شوند. مفهوم ایجاد ماشین هایی که بتوانند خودکار کار کنند، به زمان های دور برمی گردد اما تحقیق روی عملیاتی کردن و کاربردهای احتمالی روبات ها از قرن بیستم آغاز شد. در طول تاریخ، روبات ها به تقلید رفتار انسانی شناخته شده و توانسته اند کارهای مشابهی نیز انجام دهند. امروزه و با پیشرفت فناوری، رشته روباتیک با سرعت زیادی در حال پیشرفت است. تحقیق، طراحی و ساخت روبات های جدید با اهداف کاربردی متفاوت عمومی، تجاری یا نظامی انجام شده است. بسیاری از روبات ها کارهایی را انجام می دهند که برای انسان خطرناک است، مانند خنثی سازی بمب و مین و بازرسی لاشه کشتی. سیستم های خبره در هوش مصنوعی، یک سیستم خبره (Expert System) یک سیستم کامپیوتری است که توانایی تصمیم سازی یک انسان خبره را شبیه سازی می کند. سیستم های خبره برای حل مشکلات پیچیده از طریق استنتاج در دانش خبرگی همانند یک انسان خبره است نه پیروی از دستورالعمل های برنامه نویس، آن طور که در برنامه های معمولی است. اولین سیستم های خبره در دهه ۱۹۷۰ ایجاد شدند و در دهه ۱۹۸۰ توسعه یافتند. سیستم های خبره از اولین اشکال واقعا موفق نرم افزارهای هوش مصنوعی بودند. سیستم خبره یک ساختار خاص، متفاوت از برنامه های کامپیوتری متداول است و به دو بخش تقسیم می شود؛ یک بخش ثابت، مستقل از سیستم خبره: موتور استنتاج و یک بخش متغیر: پایگاه دانش. در اجرای سیستم خبره، موتور همانند یک انسان بر اساس پایگاه دانش، استدلال می کند. در دهه ۸۰ بخش سومی هم ظاهر شد: رابط مکالمه برای ارتباط با کاربران. این توانایی برای مکالمه با کاربران بعدها به مکالمه ای شهرت یافت.

پردازش زبان طبیعی (NLP)

پردازش زبان طبیعی (NLP) یکی از حوزه های علوم کامپیوتر، هوش مصنوعی و زبانشناسی است که به تعامل کامپیوتر و زبان انسان می پردازد. از این منظر پردازش زبان طبیعی به حوزه تعامل انسان و کامپیوتر مربوط می شود. بسیاری از چالش های پردازش زبان طبیعی به درک زبان طبیعی مربوط می شود یعنی ایجاد توانایی در کامپیوتر برای استخراج مفهوم ورودی زبان انسانی یا طبیعی. با وجود فعالیت های قدیمی تر، تاریخچه پردازش زبان طبیعی عموما در دهه ۱۹۵۰ آغاز شد.

کسب و کار

هوش مصنوعی (AI) در کسب و کار به سرعت به ابزاری رقابتی متداول تبدیل می شود. بدیهی است، شرکت ها در حال بحث و تبادل نظر در مورد جوانب مثبت و منفی AI هستند. از چت بابات های بهتر برای خدمات به مشتری گرفته تا تجزیه و تحلیل داده ها گرفته تا توصیه های پیش بینی، یادگیری عمیق و هوش مصنوعی در بسیاری از اشکال آنها توسط رهبران مشاغل به عنوان ابزاری اساسی تلقی می شود.

این امر هوش مصنوعی را در لیست کوتاهی از فناوری هایی قرار می دهد که شرکت ها باید به طور فعال در مورد چگونگی استفاده از آن تحقیق می کند. اگر مطمئن نیستید که AI آماده انجام تعداد و طیف وسیعی از وظایف است، عملکرد برنده IBM در واتسون (Watson AI) در سال 2011 را در Jeopardy در نظر بگیرید. یا روش های مختلفی را که احتمالاً در حال استفاده از دستگاه ها و خدمات با قابلیت AI در زندگی شخصی خود هستید، در نظر بگیرید، مانند برنامه های دستیار هوشمند یا دستگاه هایی مانند Alexa یا Apple Siri.


پیاده سازی هوش مصنوعی با زبان های برنامه نویسی

سیستم ها و الگوریتم های هوش مصنوعی را می توان با زبان های برنامه نویس متعددی پیاده سازی کرد. در اینجا به مهمترین موارد آن اشاره می کنیم:

هوش مصنوعی(AI) با پایتون

پایتون (Python) یکی از بهترین زبان ها برای کار روی پروژه های هوش مصنوعی است. این در هنگام ساختن نمونه های اولیه AI برای بسیاری از افراد یک انتخاب محبوب است. پایتون شامل کد نویسی بسیار ساده و سینتکس ساده در بین سایر زبان های برنامه نویسی است که می تواند برای توسعه برنامه های هوش مصنوعی مورد استفاده قرار گیرد. آزادانه تایپ کنید و زمان زیادی را در مورد رسیدگی به مسائل مربوط به تلفیق صرفه جویی کنید و بیشتر به مسئله واقعی توجه کنید. مهمترین مزیت استفاده از پایتون برای AI این است که همراه با کتابخانه های داخلی است. انجمن Python کتابخانه ها و افزونه های زیادی را مانند NumPy،SciPy،matplotlib،nltk،SimpleAI برای انجام کارهای متداول مورد استفاده در پروژه های هوش مصنوعی مانند نمودار رسم، پردازش داده ها و غیره به راحتی توسعه داده است. بسته های موجود در مورد شبکه های عصبی مصنوعی نیز وجود دارد. بیشتر توسعه دهندگان هوش مصنوعی پایتون را برای توسعه هوش مصنوعی پیشنهاد می دهند.

هوش مصنوعی(AI) با جاوا

جاوا انتخاب بسیار خوبی است. این یک زبان برنامه نویسی شی گرا است که در ارائه تمام ویژگی های سطح بالا مورد نیاز برای کار بر روی پروژه های هوش مصنوعی تمرکز دارد. قابل حمل است و مجموعه جمع آوری زباله داخلی را ارائه می دهد. هوش مصنوعی ارتباط نزدیکی با الگوریتم های جستجو، برنامه نویسی ژنتیک و استفاده از شبکه های عصبی مصنوعی دارد. جاوا در حوزه هوش مصنوعی ممکن است مفید باشد. برنامه نویسی هوش مصنوعی در جاوا دارای مزایای بسیاری است زیرا استفاده از آن و اشکال زدایی آسان است و تجسم را تسهیل می کند و تعامل کاربر بهتری دارد. یکی دیگر از دلایل برنامه نویسی هوش مصنوعی در جاوا، ترکیب Swing و SWT است. این ویژگی ها باعث می شود گرافیک و رابط ها جذاب و پیشرفته به نظر برسند. جاوا خوب است اما به سرعت ++C نیست.

هوش مصنوعی(AI) با سی پلاس پلاس

سی پلاس پلاس (++C) یک زبان برنامه نویسی شی گرا است و زبان های دیگری مانند C#.NET و جاوا را تحت تأثیر قرار داده است و آخرین نسخه C++، C بیشتر در مواردی که برنامه ساده است استفاده می شود و سرعت اجرای آن مهمترین است. ++C هنوز خیلی سریعتر از جاوا است. تکنیک های آماری هوش مصنوعی مانند شبکه های عصبی نمونه های متداولی از این امر هستند. توانایی کد نویسی در سطح سخت افزار به توسعه دهندگان این امکان را می دهد تا زمان اجرای برنامه خود را بهبود بخشند. ++C برای پروژه های هوش مصنوعی بسیار مفید است. الگوریتم ها برای اجرای سریع در ++C نوشته شده اند. هوش مصنوعی در بازی ها بیشتر در ++C به علت زمان اجرا و پاسخ سریع کدگذاری می شود.

هوش مصنوعی (AI) با متلب

نرم افزار متلب در طراحی مدل های هوش مصنوعی و سیستم های مبتنی بر هوش مصنوعی کاربرد دارد. با استفاده از MATLAB، مهندسین و سایر متخصصان، هزاران برنامه کاربردی را برای یادگیری ماشین مستقر کرده اند. فقط با چند خط کد MATLAB، می توانید تکنیک های یادگیری عمیق را برای کار خود بکار گیرید، چه الگوریتم هایی را طراحی کنید، چه آماده سازی و برچسب زدن داده ها یا ایجاد کد و استفاده از سیستم های جاسازی شده. MATLAB با دستیابی به داده ها و پیش پردازش داده ها، ساختن مدل های یادگیری ماشین و مدل های پیش بینی کننده و ایجاد مدل ها در سیستم های IT، علوم داده را آسان می کند.

با استفاده از ابزارها و کارکردهای مدیریت مجموعه کلان داده، MATLAB جعبه ابزارهای ویژه ای را برای کار با یادگیری ماشین، شبکه های عصبی، یادگیری عمیق، بینایی رایانه ای و رانندگی خودکار ارائه می دهد. تنها با چند خط کد، متلب به شما امکان می دهد شبکه های عصبی را بدون اینکه متخصص باشید، توسعه دهید. می توانید مدل ها را ایجاد و ویژوال سازی کنید و مدل ها را به سرورها و دستگاه های تعبیه شده مستقر کنید. با MATLAB، می توانید نتایج را در برنامه های موجود خود ادغام کنید. MATLAB با استفاده از مدل های شبکه عصبی شما بر روی سیستم های سازمانی، کلاستر ها، ابرها و دستگاه های تعبیه شده به طور خودکار اقدام می کند.

هوش مصنوعی(AI) در دات نت

خدمات شناختی انواع مختلفی از مدل های از پیش ساخته را ارائه می دهد که به راحتی می توانند هوش مصنوعی و ماشین یادگیری را در برنامه های دات نت ادغام کنند. الگوریتم های API اوپن سورس قدرتمند و رایگان مانند Vision، دانش، زبان، گفتار و جستجو وجود دارد که توسط برنامه نویسان C#.NET در برنامه ها در هنگام و کجا مورد نیاز می توانید استفاده کنید.

آیا این نوشته را دوست داشتید؟
linkedin-machine-learning-in-mobile-applications

آموزش یادگیری ماشینی در اپلیکیشن های موبایل


این دوره نحوه اعمال قدرت یادگیری ماشینی در توسعه اپلیکیشن های موبایل، با استفاده از پلتفرم هایی مانند IBM Watson ، Microsoft Azure Cognitive Services ...

1399/05/11 387 بازدید
linkedin-introduction-to-deep-learning-with-opencv

مقدمه ای بر یادگیری عمیق با OpenCV


در این دوره، مدرس Jonathan Fernandes، با استفاده از ماژول dnn) OpenCV Deep Neural Networks)، شما را از طریق استنباط با دنیای یادگیری عمیق آشنا می کند....

1399/05/07 1057 بازدید
linkedin-leveraging-cloud-based-machine-learning-on-aws-real-world-applications

یادگیری ماشین مبتنی بر ابر در AWS: اپلیکیشن های دنیای واقعی


مدرس David Linthicum، شما را با SageMaker و پلتفرم Amazon’s AI آشنا می کند و انواع موارد استفاده را ارائه می دهد که بهترین شیوه ها، ابزارها و تکنیک ها...

1399/04/22 413 بازدید زیرنویس دارد
linkedin-tech-sense

آموزش Tech Sense


مدرس Morten Rand-Hendriksen در مورد مزایا و ارزش تجاری تکنولوژی هایی مانند HTTPS، احراز هویت دو مرحله ای، اینترنت اشیاء، معماری بدون سرور، بلاکچین، می...

1399/04/18 971 بازدید زیرنویس دارد
linkedin-building-recommender-systems-with-machine-learning-and-ai

ساخت سیستم های توصیه گر با یادگیری ماشینی و هوش مصنوعی


این دوره، الگوریتم های توصیه را بر اساس فیلتر مشارکتی مبتنی بر محله و تکنیک های مدرن تر، از جمله فاکتورگیری ماتریسی و حتی یادگیری عمیق با شبکه های عصب...

1399/04/11 1351 بازدید زیرنویس دارد
linkedin-leveraging-cloud-based-machine-learning-on-azure-real-world-applications

بهره گیری از یادگیری ماشینی مبتنی بر ابر در Azure: اپلیکیشن های دنیای واقعی


در این دوره، David Linthicum مبانی بهره گیری از Azure را برای اپلیکیشن های مبتنی بر هوش مصنوعی، از جمله ابزارهای کلیدی و فرآیندهای استفاده صحیح از آن ...

1399/04/03 431 بازدید زیرنویس دارد
linkedin-deep-learning-image-recognition

آموزش یادگیری عمیق - تشخیص عکس


ر این دوره، یاد بگیرید که چگونه یک شبکه عصبی عمیق بسازید که بتواند اشیاء را در عکس ها تشخیص دهد. همچنین بیاموزید که چگونه state-of-the-art در شبکه های...

1399/03/30 1624 بازدید زیرنویس دارد
linkedin-build-your-first-chatbot-with-sap-conversational-ai

ساخت اولین ربات چت با SAP Conversational AI


این دوره یک بررسی کلی درباره ربات های چت،از جمله موارد و عبارات استفاده رایج را ارائه می دهد و مراحل مختلف توسعه ربات را با استفاده از SAP Conversatio...

1399/03/17 443 بازدید زیرنویس دارد
linkedin-leveraging-cloud-computing-for-iot

بکارگیری رایانش ابری برای اینترنت اشیاء (IoT)


اینترنت اشیاء (IoT) و ارائه دهندگان مبتنی بر ابر تکه های جدایی ناپذیرند. David Linthicum این که Iot چیست و چگونگی ارتباط آن با رایانش ابری را توضیح می...

1399/03/13 715 بازدید زیرنویس دارد
linkedin-applied-machine-learning-algorithms

یادگیری ماشین کاربردی: الگوریتم ها


در این دوره مدرس با بررسی الگوریتم های مختلف، از رگرسیون لجستیکی تا تقویت گرادیانت و نشان دادن نحوه تنظیم بهترین ساختار شما را آشنا می کند. هر الگوریت...

1399/03/10 2129 بازدید زیرنویس دارد
linkedin-big-data-in-the-age-of-ai

آموزش کلان داده در عصر هوش مصنوعی


در این دوره غیر فنی، Barton Poulson به صورت عمیق به موضوع کلان داده می پردازد و توضیح می دهد که چگونه کار می کند و جهان داده های مدرن ما را شکل می دهد...

1399/03/06 870 بازدید زیرنویس دارد
linkedin-introducing-ai-to-your-organization

معرفی هوش مصنوعی به سازمانتان


مدرس Jonathan Fernandes در مسیر تعیین آمادگی سازمان شما برای هوش مصنوعی(AI) و اتخاذ این فناوری گام برمی دارد. نحوه پیاده سازی موفق هوش مصنوعی با متدول...

1399/03/02 592 بازدید
pluralsight-applied-time-series-analysis-and-forecasting-with-r

آموزش تحلیل سری های زمانی کاربردی و پیش بینی با R


در این دوره، یاد خواهید گرفت که چگونه مدل های سری زمانی مدرن را روی داده های دنیای واقعی اعمال کنید. ابتدا، چگونگی طراحی مدل های سری زمانی حاوی روند ی...

1399/02/18 912 بازدید
linkedin-essential-math-for-machine-learning-python-edition

ریاضی ضروری برای یادگیری ماشینی: نسخه پایتون


این دوره، ریاضیات اساسی مورد نیاز برای درک دقیق و نوشتن الگوریتم های یادگیری ماشینی در پایتون را به نحوی ساده تر و آسان تر توضیح می دهد. مفاهیم اساسی ...

1399/02/17 9055 بازدید زیرنویس دارد
linkedin-text-analytics-and-predictions-with-python-essential-training

آموزش اصولی پیش بینی ها و تحلیل متن با پایتون


در این دوره تکنیک های استخراج متن، پاکسازی و پردازش متن با استفاده از پایتون و کتابخانه های scikit-Learn و nltk آموزش داده می شود. مربی Kumaran Ponnam...

1399/02/13 1870 بازدید
packtpub-hands-on-deep-learning-for-computer-vision

آموزش عملی یادگیری عمیق برای بینایی کامپیوتری


این دوره طراحی شده است تا یادگیری عملی مفاهیم اساسی و جدیدترین روش های یادگیری عمیق را برای بینایی کامپیوتری مورد استفاده امروزه، به شما منتقل کند. د...

1399/02/13 1110 بازدید
pluralsight-architecting-production-ready-ml-models-using-google-cloud-ml-engine

معماری مدل های یادگیری ماشینی آماده تولید با Google Cloud ML Engine


در این دوره با معماری مدل های یادگیری ماشینی آماده تولید با استفاده از Google Cloud ML Engine آشنا می شوید. استفاده از ML Engine برای ساخت مدل ها در X...

1399/02/13 557 بازدید
pluralsight-implementing-image-recognition-systems-with-tensorflow

پیاده سازی سیستم های تشخیص تصویر با TensorFlow


در این دوره، اصول اولیه نحوه اجرای یک راهکار برای معمولی ترین سناریوهای تصویربرداری عمیق را خواهید آموخت. نخست خواهید آموخت که اگر می توانید برنامه خو...

1399/02/12 1184 بازدید
linkedin-building-a-recommendation-system-with-python-machine-learning-ai

آموزش ساخت سیستم توصیه گر با پایتون، یادگیری ماشینی و هوش مصنوعی


نحوه استفاده از پایتون و برخی مفاهیم اصلی یادگیری ماشین را بررسی کنید تا برنامه هایی را تهیه کنید که می توانند توصیه هایی را ارائه دهند. در این دوره آ...

1399/02/10 5979 بازدید
linkedin-transfer-learning-for-images-using-pytorch-essential-training

آموزش اصولی یادگیری انتقال برای تصاویر با PyTorch


PyTorch پس از شروع به کار در سال 2017، به سرعت ابزار انتخابی بسیاری از محققان یادگیری عمیق شد. در این دوره، Jonathan Fernandes به شما نشان می دهد که چ...

1399/02/03 1684 بازدید زیرنویس دارد

محمد 4 هفته و 1 روز قبل

سلام
لطفا بفرمایید چطور از پایه میتونم هوش مصنوعی رو بصورت کامل یاد بگیرم
از ریاضیات گرفته تا مباحث عملی هوش مصنوعی
کسیکه تازه وارده نمیدونه از کجا شروع کنه
لطفا راهنمایی بفرمایید

مونا شوشتری 3 هفته و 4 روز قبل

سلام دوست عزیز، می توانید از این دوره ها شروع کنید: https://git.ir/p/RO0M0 https://git.ir/p/k8lMv https://git.ir/p/71MWA https://git.ir/p/4Q2k1