پیشنهاد فرادرس

ایجاد خط لوله ها (Pipelines) بوسیله پایتون

دسته بندی ها: آموزش پایتون (Python) ، آموزش های Infinite Skills

این دوره نحوه ایجاد خط لوله ها (pipelines) و گردش کار های خودکار را با استفاده از پایتون 3 را به شما نشان می دهد. این دوره دانش ضروری مورد نیاز برای استفاده از توسعه راهکار های خودکار سازی شما، از پرس و جوهای ساده مبتنی بر وظیفه گرفته، تا چارچوب های پیچیده مانند Luigi و Airflow، را فراهم می آورد. شما اصول اولیه معماری را یاد خواهید گرفت و مقدمه ای برای رنج وسیعی از رایج ترین چارچوب ها و ابزارها دریافت خواهید کرد.

این دوره برای افراد حرفه ای که با داده ها کار  می کنند و در زمینه خط لوله ها (pipelines) و راهکار های  توزیع شده تازه کار می باشند طراحی شده است و به سطح تجربه متوسطی در زمینه پایتون و توانایی نصب و راه اندازی سیستم خود نیاز دارد.

  • درک عملی از چگونگی رویکرد خط لوله ها (pipelines) با استفاده از ابزارهای پایتون به دست می آورید
  • ماهر شدن در توانایی تعیین زمانی که یک چارچوب پایتون برای یک پروژه مناسب است
  • درک مفاهیم گردش کار را مانند گراف جهت‌دار غیرمدور، تولید کنندگان و مصرف کنندگان
  • یادگیری برای یکپارچه سازی جریان داده ها به داخل خط لوله ها (pipelines)، جریان های کاری و راه حل های خودکارسازی مبتنی بر وظیفه
  • درک نحوه تجزیه و تحلیل داده های موازی، همبه صورت محلی و هم توزیع شده در یک خوشه
  • تمرین نوشتن تست داده ساده با استفاده از تست های مبتنی بر خصوصیات

مدرس  یک توسعه دهنده پایتون، مشاور داده و مربی است که از سال 2008 با پایتون کار کرده است. مدرس مولف چندین دوره از شرکت O'Reilly است مانند دوره: Data Wrangling with Python: Tips and Tools to Make Your Life Easier.  او شرکت kjamistan UG را راه اندازی کرده است که در زمینه مشاوره، آموزش و تحلیل رقابتی پایتون فعالیت می کندو در شهر برلین از کشور آلمان مستقر است. او دارای مدرک کارشناسی ارشد از دانشگاه آمریکایی و مدرک مدرک کارشناسی ارشد از دانشگاه Pace می باشد.

مقیاس بندی تجزیه و تحلیل داده ها با Dask

نتیجه گیری

آیا این نوشته را دوست داشتید؟
Building Data Pipelines with Python Author:Katharine Jarmul Duration:03:39:41

This course shows you how to build data pipelines and automate workflows using Python 3. From simple task-based messaging queues to complex frameworks like Luigi and Airflow, the course delivers the essential knowledge you need to develop your own automation solutions. You'll learn the architecture basics, and receive an introduction to a wide variety of the most popular frameworks and tools.Designed for the working data professional who is new to the world of data pipelines and distributed solutions, the course requires intermediate level Python experience and the ability to manage your own system set-ups. Acquire a practical understanding of how to approach data pipelining using Python toolsets Master the ability to determine when a Python framework is appropriate for a project Understand workflow concepts like directed acyclic graphs, producers, and consumers Learn to integrate data flows into pipelines, workflows, and task-based automation solutions Understand how to parallelize data analysis, both locally and in a distributed cluster Practice writing simple data tests using property-based testingKatharine (AKA Kjam) Jarmul is a Python developer, data consultant, and educator who has worked with Python since 2008. Kjam runs kjamistan UG, a Python consulting, training, and competitive analysis company based in Berlin, Germany. She is the author of several O'Reilly titles, including Data Wrangling with Python: Tips and Tools to Make Your Life Easier. She holds an M.A. from American University and an M.S. from Pace University.

پیشنهاد فرادرس