pishborobanner

یک زیرساخت قدرتمند و مقرون به صرفه یادگیری ماشینی، نوآوری در فضای ابری را تسریع می کند

[ad_1]

هوش مصنوعی و یادگیری ماشین (AI و ML) فناوری‌های کلیدی هستند که به شرکت‌ها کمک می‌کنند راه‌های جدیدی برای افزایش فروش، کاهش هزینه‌ها، ساده‌سازی فرآیندهای تجاری و درک بهتر مشتریان خود بیابند. AWS به مشتریان کمک می‌کند تا با ارائه محاسبات با عملکرد بالا، شبکه‌های پرسرعت، و گزینه‌های ذخیره‌سازی مقیاس‌پذیر و با کارایی بالا در صورت نیاز برای هر پروژه یادگیری ماشینی، پذیرش هوش مصنوعی / ML خود را تسریع بخشند. این امر مانع ورود شرکت‌هایی را که می‌خواهند از ابر برای مقیاس‌بندی برنامه‌های ML خود استفاده کنند، کاهش می‌دهد.

مطلب جذاب: سال تحصیلی 99-98

توسعه دهندگان و دانشمندان داده مرزهای فناوری را در پیش می گیرند و به طور فزاینده ای بر یادگیری عمیق، نوعی از یادگیری ماشینی مبتنی بر الگوریتم های شبکه عصبی تکیه می کنند. این مدل‌های یادگیری عمیق بزرگ‌تر و پیچیده‌تر هستند و هزینه اجرای زیرساخت‌های اساسی برای آموزش و استقرار این مدل‌ها را افزایش می‌دهند.

برای اینکه مشتریان بتوانند تحول AI/ML خود را تسریع بخشند، AWS تراشه های یادگیری ماشینی قدرتمند و مقرون به صرفه می سازد. AWS Inferentia اولین تراشه یادگیری ماشینی است که توسط AWS از ابتدا برای مقرون‌به‌صرفه‌ترین استنتاج یادگیری ماشین در فضای ابری طراحی شده است. در واقع، نمونه‌های Amazon EC2 Inf1 Inferentia 2.3 برابر عملکرد و هزینه استنتاج یادگیری ماشینی را تا 70 درصد کمتر از نسل فعلی نمونه‌های EC2 مبتنی بر GPU ارائه می‌کنند. AWS Trainium دومین تراشه یادگیری ماشینی از AWS است که به طور ویژه برای آموزش مدل‌های یادگیری عمیق توسعه یافته است و در اواخر سال 2021 در دسترس خواهد بود.

مشتریان از تمام صنایع، برنامه های کاربردی ML خود را در تولید بر روی Inferentia به کار گرفته اند و شاهد بهبود عملکرد و صرفه جویی قابل توجهی در هزینه بوده اند. برای مثال، پلتفرم پشتیبانی مشتری AirBnB، تجربه خدمات هوشمند، مقیاس‌پذیر و خارق‌العاده‌ای را برای جامعه میلیون‌ها میزبان و مهمان خود در سراسر جهان فراهم می‌کند. از نمونه‌های EC2 Inf1 مبتنی بر Inferentia برای ارائه مدل‌های پردازش زبان طبیعی (NLP) استفاده کرد که از چت‌بات‌های آن پشتیبانی می‌کرد. این منجر به بهبود عملکرد 2 برابری در مقایسه با نمونه های مبتنی بر GPU شد.

با این نوآوری‌ها در سیلیکون، AWS مشتریان خود را قادر می‌سازد تا به راحتی مدل‌های یادگیری عمیق خود را در تولید با عملکرد و توان عملیاتی بالا با هزینه‌های بسیار کمتر آموزش داده و اجرا کنند.

یادگیری ماشینی چالش هایی را برای سرعت انتقال به زیرساخت های مبتنی بر ابر ایجاد می کند

یادگیری ماشینی یک فرآیند تکراری است که به تیم‌ها نیاز دارد تا به سرعت برنامه‌ها را بسازند، آموزش دهند، و برنامه‌ها را بکار ببرند، همچنین مرتباً آموزش دهند، بازآموزی کنند و آزمایش کنند تا دقت پیش‌بینی مدل‌ها را افزایش دهند. هنگام استقرار مدل های آموزش دیده در برنامه های تجاری خود، سازمان ها همچنین باید برنامه های خود را برای خدمت به کاربران جدید در سراسر جهان مقیاس کنند. برای اطمینان از تجربه کاربری برتر، باید بتوانید چندین درخواست همزمان را با تأخیر تقریباً هم زمان ارائه دهید.

موارد استفاده جدید مانند تشخیص اشیا، پردازش زبان طبیعی (NLP)، طبقه بندی تصویر، هوش مصنوعی محاوره ای و داده های سری زمانی مبتنی بر فناوری یادگیری عمیق هستند. مدل‌های یادگیری عمیق به طور تصاعدی از نظر اندازه و پیچیدگی در حال رشد هستند، از میلیون‌ها پارامتر به میلیاردها در چند سال آینده.

آموزش و استقرار این مدل‌های پیچیده و پیچیده منجر به هزینه‌های زیرساختی قابل توجهی می‌شود. وقتی شرکت‌ها برنامه‌های کاربردی خود را برای ارائه تجربیات تقریباً هم‌زمان به کاربران و مشتریان خود، مقیاس‌بندی می‌کنند، هزینه‌ها می‌تواند به سرعت بسیار زیاد شود.

اینجاست که خدمات زیرساخت یادگیری ماشین مبتنی بر ابر می‌توانند کمک کنند. این ابر دسترسی بر اساس تقاضا به شبکه‌های محاسباتی، با کارایی بالا و فروشگاه‌های داده بزرگ را فراهم می‌کند که به طور یکپارچه با عملیات ML و خدمات هوش مصنوعی سطح بالاتر ترکیب می‌شوند تا سازمان‌ها بتوانند فوراً شروع به کار کنند و ابتکارات AI / ML خود را افزایش دهند.

چگونه AWS به مشتریان کمک می کند تا تحول AI / ML خود را تسریع کنند

هدف AWS Inferentia و AWS Trainium دموکراتیک کردن یادگیری ماشین و در دسترس ساختن آن برای توسعه دهندگان صرف نظر از تجربه و اندازه شرکت است. طراحی Inferentia برای عملکرد بالا، توان عملیاتی و تأخیر کم بهینه شده است و آن را برای استقرار استنتاج ML در مقیاس بزرگ ایده آل می کند.

هر تراشه AWS Inferentia شامل چهار هسته عصبی است که یک موتور ضرب ماتریس آرایه سیستولیک قدرتمند را پیاده‌سازی می‌کند که عملیات یادگیری عمیق معمولی مانند کانولوشن و ترانسفورماتورها را به شدت افزایش می‌دهد. NeuronCores همچنین به یک کش بزرگ روی تراشه مجهز شده است که به کاهش دسترسی به حافظه خارجی، کاهش تاخیر و افزایش توان کمک می کند.

AWS Neuron، کیت توسعه نرم‌افزار Inferentia، به طور بومی از چارچوب‌های پیشرو ML مانند TensorFlow و PyTorch پشتیبانی می‌کند. توسعه‌دهندگان می‌توانند به استفاده از چارچوب‌ها و ابزارهای توسعه چرخه عمر یکسانی که می‌شناسند و دوست دارند، ادامه دهند. بسیاری از مدل‌های آموزش‌دیده آن‌ها را می‌توان با تغییر یک خط کد بدون تغییرات اضافی در کد برنامه، کامپایل و در Inferentia مستقر کرد.

نتیجه ارائه استنتاج با کارایی بالا است که به راحتی مقیاس می شود و در عین حال هزینه ها را تحت کنترل نگه می دارد.

Sprinklr، یک شرکت نرم‌افزار به‌عنوان یک سرویس، یک پلتفرم یکپارچه مبتنی بر هوش مصنوعی برای مدیریت تجربه مشتری دارد که شرکت‌ها را قادر می‌سازد تا بازخوردهای مشتری را در زمان واقعی در چندین کانال جمع‌آوری کرده و آن را به بینش‌های عملی تبدیل کنند. این به حل مشکلات پیشگیرانه تر، توسعه محصول بهبود یافته، بازاریابی محتوا بهبود یافته و خدمات بهتر به مشتریان ترجمه می شود. Sprinklr از Inferentia برای استقرار NLP و برخی از مدل‌های بینایی کامپیوتری خود استفاده کرد و شاهد بهبود عملکرد قابل توجهی بود.

چندین سرویس آمازون نیز مدل های یادگیری ماشینی خود را در Inferentia ارائه می دهند.

Amazon Prime Video از مدل های Computer Vision ML برای تجزیه و تحلیل کیفیت ویدیوی رویدادهای زنده استفاده می کند تا بهترین تجربه مشاهده را برای اعضای Prime Video تضمین کند. این مدل از مدل‌های ML خود برای طبقه‌بندی تصاویر در نمونه‌های EC2 Inf1 استفاده کرد و به بهبود عملکرد 4 برابری و تا 40 درصد کاهش هزینه در مقایسه با نمونه‌های مبتنی بر GPU دست یافت.

مثال دیگر هوش مبتنی بر هوش مصنوعی و ML آمازون الکسا است که توسط خدمات وب آمازون پشتیبانی می شود و امروزه در بیش از 100 میلیون دستگاه موجود است. قول الکسا به مشتریان این است که هوشمندتر، پرحرف تر، فعال تر و لذت بخش تر خواهد شد. برای حفظ این وعده، زمان پاسخگویی یادگیری ماشین و هزینه‌های زیرساخت باید به طور مداوم بهبود یابد. استقرار مدل‌های متن به گفتار ML الکسا در نمونه‌های Inf1، تأخیر استنتاج را تا 25 درصد و هزینه هر استنتاج را تا 30 درصد کاهش داده است تا تجربه خدمات را برای میلیون‌ها مشتری که هر ماه از الکسا استفاده می‌کنند، بهبود بخشد.

راه اندازی توابع جدید یادگیری ماشین در فضای ابری

در حالی که شرکت‌ها با ارائه بهترین محصولات و خدمات دیجیتالی برای اثبات آینده کسب‌وکار خود تلاش می‌کنند، هیچ شرکتی نمی‌تواند در ارائه مدل‌های یادگیری ماشینی پیچیده برای تجدید تجربیات مشتریان خود عقب بماند. در سال‌های اخیر، کاربرد یادگیری ماشین برای انواع موارد استفاده، از شخصی‌سازی و پیش‌بینی انحراف گرفته تا کشف تقلب و پیش‌بینی زنجیره تامین، به‌شدت رشد کرده است.

خوشبختانه، زیرساخت یادگیری ماشین در فضای ابری، ویژگی‌های جدیدی را ارائه می‌کند که قبلاً امکان‌پذیر نبود، و آنها را برای افراد عادی بسیار در دسترس‌تر می‌کند. به همین دلیل است که مشتریان AWS در حال حاضر از نمونه‌های آمازون EC2 Inf1 مبتنی بر Inferentia استفاده می‌کنند تا اطلاعات پشت موتورهای توصیه و ربات‌های چت خود را ارائه دهند و بینش‌های عملی را از بازخورد مشتریان ایجاد کنند.

با گزینه‌های زیرساخت یادگیری ماشین مبتنی بر ابر AWS مناسب برای سطوح مختلف مهارت، واضح است که هر کسب‌وکاری می‌تواند نوآوری را تسریع کند و کل چرخه زندگی یادگیری ماشین را در مقیاس بزرگ پوشش دهد. با فراگیرتر شدن یادگیری ماشینی، سازمان‌ها اکنون می‌توانند تجربه مشتری – و روش انجام تجارت خود را با زیرساخت‌های یادگیری ماشینی مبتنی بر ابر و کم‌هزینه، با کارایی بالا، به‌طور اساسی تغییر دهند.

در اینجا درباره اینکه چگونه پلت فرم یادگیری ماشینی AWS می تواند به کسب و کار شما در نوآوری کمک کند بیشتر بیاموزید.

این محتوا توسط AWS ایجاد شده است. این توسط تحریریه مجله MIT Technology Review نوشته نشده است.

[ad_2]

Nick Webster

مزاحم عمومی فن غذا. حلال مشکل بدون عذرخواهی کارآفرین. خواننده.

تماس با ما