پیشنهاد فرادرس

آموزش یادگیری تقویتی با پایتون

دسته بندی ها: هوش مصنوعی ، یادگیری تقویتی (Reinforcement Learning) ، آموزش های Packtpub ، شبکه های عصبی مصنوعی ، آموزش پایتون (Python)

یادگیری تقویتی یکی از شاخه های هوش مصنوعی است که اجازه می دهد تا برنامه نویسان agents نرم افزاری ایجاد کنند که یاد بگیرند اقدامات بهینه را برای به حداکثر رساندن پاداش، از طریق تلاش از راهبردهای مختلف در یک محیط معین، انجام دهند. در این دوره با مفاهیم اصلی در یادگیری تقویتی، تبدیل یک موضوع نظری به تمرینات برنامه نویسی ملموس پایتون با کمک OpenAI Gym، محیط gym، حل مسئله روباتیک اسباب بازی CartPole-v0، نحوه استفاده از برنامه نویسی پویا و شبکه های عصبی مبتنی بر TensorFlow برای حل GridWorld، اپلیکیشن های یادگیری تقویتی، استفاده از یادگیری تقویتی به عنوان یک استراتژی حل مسئله و استفاده از الگوریتم های مختلف برای حل مشکلات و غیره آشنا می شوید.

سرفصل:

  • معرفی دوره
  • درک الگوریتم های یادگیری تقویتی
  • نصب و راه اندازی OpenAI Gym
  • اجرای مصورسازی Cart Robot CartPole-v0 در OpenAI Gym
  • نور دوربین حرکت - ایجاد بلوک های یادگیری تقویتی
  • بررسی اکشن های احتمالی CartPole Robot در OpenAI Gym
  • درک محیط CartPole در OpenAIGym
  • کدنویسی اولین راه حل برای CartPole-v0
  • Multi-Armed Bandit
  • ایجاد Bandit با 4 Arms با استفاده از Python و Numpy
  • ایجاد یک عامل برای حل مشکل MAB با استفاده از پایتون و Tensorflow
  • درک Agent
  • Contextual Bandit
  • ایجاد یک محيط Multiple Bandits با استفاده از پايتون و Numpy
  • ایجاد اولین Policy Gradient Based RL Agent با Tensorflow
  • برنامه نویسی پویا- پیش بینی، کنترل، و تقارن ارزش
  • تجسم برنامه نویسی پویا در GridWorld در مرورگر شما
  • درک پیش بینی با ایجاد یک الگوریتم ارزیابی سیاست
  • درک کنترل از طریق ساخت یک الگوریتم اصلاح سیاست
  • ساخت یک الگوریتم تکرار ارزش
  • پیوند این همه با هم در مصورسازی GridWorld مبتنی بر وب
  • پروسه تصمیم گیری مارکوف و شبکه های عصبی
  • درک فرآیند تصمیم گیری مارکوف و برنامه نویسی پویا در CartPole-v0
  • ساخت یک شبکه عصبی با استفاده از Tensorflow
  • ایجاد یک شبکه عصبی برای پیش بینی ارزش موجود در حالت های مختلف محیطی
  • آموزش عامل در CartPole-v0
  • تجسم و درک اینکه چگونه عامل نرم افزار شما انجام شده است
  • پیش بینی و کنترل مدل رایگان با مونت کارلو (MC)
  • اجرا محیط Blackjack از OpenAI Gym
  • هر نتیجه ای از یک عامل بازی بک چاک با استفاده از MC
  • مصورسازی از نتایج یک استراتژی ساده Blackjack
  • کنترل - ایجاد یک سیاست بسیار ساده Epsilon-Greedy
  • مصورسازی از نتایج سیاست Epsilon-Greedy
  • پیش بینی و کنترل مدل بدون تفاوت زمانی (TD)
  • تجسم TD و SARSA در GridWorld در مرورگر شما
  • اجرای محیط GridWorld از OpenAI Gym
  • ایجاد الگوریتم SARSA برای یافتن خط مشی Optimal EpsilonGreedy
  • مصورسازی نتایج SARSA
آیا این نوشته را دوست داشتید؟
Hands - On Reinforcement Learning with Python [Video] Publisher:Packtpub Author:Rudy Lai Duration:4 hours and 28 minutes

A practical tour of prediction and control in Reinforcement Learning using OpenAI Gym, Python, and TensorFlow
Reinforcement learning (RL) is hot! This branch of machine learning powers AlphaGo and Deepmind's Atari AI. It allows programmers to create software agents that learn to take optimal actions to maximize reward, through trying out different strategies in a given environment.
This course will take you through all the core concepts in Reinforcement Learning, transforming a theoretical subject into tangible Python coding exercises with the help of OpenAI Gym. The videos will first guide you through the gym environment, solving the CartPole-v0 toy robotics problem, before moving on to coding up and solving a multi-armed bandit problem in Python. As the course ramps up, it shows you how to use dynamic programming and TensorFlow-based neural networks to solve GridWorld, another OpenAI Gym challenge. Lastly, we take the Blackjack challenge and deploy model free algorithms that leverage Monte Carlo methods and Temporal Difference (TD, more specifically SARSA) techniques.
The scope of Reinforcement Learning applications outside toy examples is immense. Reinforcement Learning can optimize agricultural yield in IoT powered greenhouses, and reduce power consumption in data centers. It's grown in demand to the point where its applications range from controlling robots to extracting insights from images and natural language data. By the end of this course, you will not only be able to solve these problems but will also be able to use Reinforcement Learning as a problem-solving strategy and use different algorithms to solve these problems.
All the code and supporting files for this course are available on Github at - https://github.com/PacktPublishing/Hands-On-Reinforcement-Learning-with-Python-
Style and Approach
Reinforcement Learning is about two things: framing the action, state, and reward correctly, and optimizing the policy that the software agent will use to approach the problem.
This action-packed course is grounded in Python code that you can follow along with and takes you through all the main pillars of Reinforcement Learning. Leveraging Python, TensorFlow, NumPy, and OpenAI Gym, you get to try things out and understand a powerful technology through practical examples.
Released: Friday, March 23, 2018
Getting Started With Reinforcement Learning Using OpenAI Gym
The Course Overview
Understanding Reinforcement Learning Algorithms
Installing and Setting Up OpenAI Gym
Running a Visualization of the Cart Robot CartPole-v0 in OpenAI Gym
Lights, Camera, Action – Building Blocks of Reinforcement Learning
Exploring the Possible Actions of Your CartPole Robot in OpenAI Gym
Understanding the Environment of CartPole in OpenAIGym
Coding up Your First Solution to CartPole-v0
The Multi-Armed Bandit
Creating a Bandit With 4 Arms Using Python and Numpy
Creating an Agent to Solve the MAB Problem Using Python and Tensorflow
Training the Agent, and Understanding What It Learned
The Contextual Bandit
Creating an Environment With Multiple Bandits Using Python and Numpy
Creating Your First Policy Gradient Based RL Agent With Tensorflow
Training the Agent, and Understanding What It Learned
Dynamic Programming – Prediction, Control, and Value Approximation
Visualizing Dynamic Programming in GridWorld in Your Browser
Understanding Prediction Through Building a Policy Evaluation Algorithm
Understanding Control Through Building a Policy Iteration Algorithm
Building a Value Iteration Algorithm
Linking It All Together in the Web-Based GridWorld Visualization
Markov Decision Processes and Neural Networks
Understanding Markov Decision Process and Dynamic Programming in CartPole-v0
Crafting a Neural Network Using Tensorflow
Crafting a Neural Network to Predict the Value of Being in Different Environment States
Training the Agent in CartPole-v0
Visualizing and Understanding How Your Software Agent Has Performed
Model-Free Prediction & Control With Monte Carlo (MC)
Running the Blackjack Environment From the OpenAI Gym
Tallying Every Outcome of an Agent Playing Blackjack Using MC
Visualizing the Outcomes of a Simple Blackjack Strategy
Control – Building a Very Simple Epsilon-Greedy Policy
Visualizing the Outcomes of the Epsilon-Greedy Policy
Model-Free Prediction & Control With Temporal Difference (TD)
Visualizing TD and SARSA in GridWorld in Your Browser
Running the GridWorld Environment From the OpenAI Gym
Building a SARSA Algorithm to Find the Optimal Epsilon-Greedy Policy
Visualizing the Outcomes of the SARSA

پیشنهاد فرادرس