[ad_1]
هوش مصنوعی و یادگیری ماشین (AI و ML) فناوریهای کلیدی هستند که به شرکتها کمک میکنند راههای جدیدی برای افزایش فروش، کاهش هزینهها، سادهسازی فرآیندهای تجاری و درک بهتر مشتریان خود بیابند. AWS به مشتریان کمک میکند تا با ارائه محاسبات با عملکرد بالا، شبکههای پرسرعت، و گزینههای ذخیرهسازی مقیاسپذیر و با کارایی بالا در صورت نیاز برای هر پروژه یادگیری ماشینی، پذیرش هوش مصنوعی / ML خود را تسریع بخشند. این امر مانع ورود شرکتهایی را که میخواهند از ابر برای مقیاسبندی برنامههای ML خود استفاده کنند، کاهش میدهد.
توسعه دهندگان و دانشمندان داده مرزهای فناوری را در پیش می گیرند و به طور فزاینده ای بر یادگیری عمیق، نوعی از یادگیری ماشینی مبتنی بر الگوریتم های شبکه عصبی تکیه می کنند. این مدلهای یادگیری عمیق بزرگتر و پیچیدهتر هستند و هزینه اجرای زیرساختهای اساسی برای آموزش و استقرار این مدلها را افزایش میدهند.
برای اینکه مشتریان بتوانند تحول AI/ML خود را تسریع بخشند، AWS تراشه های یادگیری ماشینی قدرتمند و مقرون به صرفه می سازد. AWS Inferentia اولین تراشه یادگیری ماشینی است که توسط AWS از ابتدا برای مقرونبهصرفهترین استنتاج یادگیری ماشین در فضای ابری طراحی شده است. در واقع، نمونههای Amazon EC2 Inf1 Inferentia 2.3 برابر عملکرد و هزینه استنتاج یادگیری ماشینی را تا 70 درصد کمتر از نسل فعلی نمونههای EC2 مبتنی بر GPU ارائه میکنند. AWS Trainium دومین تراشه یادگیری ماشینی از AWS است که به طور ویژه برای آموزش مدلهای یادگیری عمیق توسعه یافته است و در اواخر سال 2021 در دسترس خواهد بود.
مشتریان از تمام صنایع، برنامه های کاربردی ML خود را در تولید بر روی Inferentia به کار گرفته اند و شاهد بهبود عملکرد و صرفه جویی قابل توجهی در هزینه بوده اند. برای مثال، پلتفرم پشتیبانی مشتری AirBnB، تجربه خدمات هوشمند، مقیاسپذیر و خارقالعادهای را برای جامعه میلیونها میزبان و مهمان خود در سراسر جهان فراهم میکند. از نمونههای EC2 Inf1 مبتنی بر Inferentia برای ارائه مدلهای پردازش زبان طبیعی (NLP) استفاده کرد که از چتباتهای آن پشتیبانی میکرد. این منجر به بهبود عملکرد 2 برابری در مقایسه با نمونه های مبتنی بر GPU شد.
با این نوآوریها در سیلیکون، AWS مشتریان خود را قادر میسازد تا به راحتی مدلهای یادگیری عمیق خود را در تولید با عملکرد و توان عملیاتی بالا با هزینههای بسیار کمتر آموزش داده و اجرا کنند.
یادگیری ماشینی چالش هایی را برای سرعت انتقال به زیرساخت های مبتنی بر ابر ایجاد می کند
یادگیری ماشینی یک فرآیند تکراری است که به تیمها نیاز دارد تا به سرعت برنامهها را بسازند، آموزش دهند، و برنامهها را بکار ببرند، همچنین مرتباً آموزش دهند، بازآموزی کنند و آزمایش کنند تا دقت پیشبینی مدلها را افزایش دهند. هنگام استقرار مدل های آموزش دیده در برنامه های تجاری خود، سازمان ها همچنین باید برنامه های خود را برای خدمت به کاربران جدید در سراسر جهان مقیاس کنند. برای اطمینان از تجربه کاربری برتر، باید بتوانید چندین درخواست همزمان را با تأخیر تقریباً هم زمان ارائه دهید.
موارد استفاده جدید مانند تشخیص اشیا، پردازش زبان طبیعی (NLP)، طبقه بندی تصویر، هوش مصنوعی محاوره ای و داده های سری زمانی مبتنی بر فناوری یادگیری عمیق هستند. مدلهای یادگیری عمیق به طور تصاعدی از نظر اندازه و پیچیدگی در حال رشد هستند، از میلیونها پارامتر به میلیاردها در چند سال آینده.
آموزش و استقرار این مدلهای پیچیده و پیچیده منجر به هزینههای زیرساختی قابل توجهی میشود. وقتی شرکتها برنامههای کاربردی خود را برای ارائه تجربیات تقریباً همزمان به کاربران و مشتریان خود، مقیاسبندی میکنند، هزینهها میتواند به سرعت بسیار زیاد شود.
اینجاست که خدمات زیرساخت یادگیری ماشین مبتنی بر ابر میتوانند کمک کنند. این ابر دسترسی بر اساس تقاضا به شبکههای محاسباتی، با کارایی بالا و فروشگاههای داده بزرگ را فراهم میکند که به طور یکپارچه با عملیات ML و خدمات هوش مصنوعی سطح بالاتر ترکیب میشوند تا سازمانها بتوانند فوراً شروع به کار کنند و ابتکارات AI / ML خود را افزایش دهند.
چگونه AWS به مشتریان کمک می کند تا تحول AI / ML خود را تسریع کنند
هدف AWS Inferentia و AWS Trainium دموکراتیک کردن یادگیری ماشین و در دسترس ساختن آن برای توسعه دهندگان صرف نظر از تجربه و اندازه شرکت است. طراحی Inferentia برای عملکرد بالا، توان عملیاتی و تأخیر کم بهینه شده است و آن را برای استقرار استنتاج ML در مقیاس بزرگ ایده آل می کند.
هر تراشه AWS Inferentia شامل چهار هسته عصبی است که یک موتور ضرب ماتریس آرایه سیستولیک قدرتمند را پیادهسازی میکند که عملیات یادگیری عمیق معمولی مانند کانولوشن و ترانسفورماتورها را به شدت افزایش میدهد. NeuronCores همچنین به یک کش بزرگ روی تراشه مجهز شده است که به کاهش دسترسی به حافظه خارجی، کاهش تاخیر و افزایش توان کمک می کند.
AWS Neuron، کیت توسعه نرمافزار Inferentia، به طور بومی از چارچوبهای پیشرو ML مانند TensorFlow و PyTorch پشتیبانی میکند. توسعهدهندگان میتوانند به استفاده از چارچوبها و ابزارهای توسعه چرخه عمر یکسانی که میشناسند و دوست دارند، ادامه دهند. بسیاری از مدلهای آموزشدیده آنها را میتوان با تغییر یک خط کد بدون تغییرات اضافی در کد برنامه، کامپایل و در Inferentia مستقر کرد.
نتیجه ارائه استنتاج با کارایی بالا است که به راحتی مقیاس می شود و در عین حال هزینه ها را تحت کنترل نگه می دارد.
Sprinklr، یک شرکت نرمافزار بهعنوان یک سرویس، یک پلتفرم یکپارچه مبتنی بر هوش مصنوعی برای مدیریت تجربه مشتری دارد که شرکتها را قادر میسازد تا بازخوردهای مشتری را در زمان واقعی در چندین کانال جمعآوری کرده و آن را به بینشهای عملی تبدیل کنند. این به حل مشکلات پیشگیرانه تر، توسعه محصول بهبود یافته، بازاریابی محتوا بهبود یافته و خدمات بهتر به مشتریان ترجمه می شود. Sprinklr از Inferentia برای استقرار NLP و برخی از مدلهای بینایی کامپیوتری خود استفاده کرد و شاهد بهبود عملکرد قابل توجهی بود.
چندین سرویس آمازون نیز مدل های یادگیری ماشینی خود را در Inferentia ارائه می دهند.
Amazon Prime Video از مدل های Computer Vision ML برای تجزیه و تحلیل کیفیت ویدیوی رویدادهای زنده استفاده می کند تا بهترین تجربه مشاهده را برای اعضای Prime Video تضمین کند. این مدل از مدلهای ML خود برای طبقهبندی تصاویر در نمونههای EC2 Inf1 استفاده کرد و به بهبود عملکرد 4 برابری و تا 40 درصد کاهش هزینه در مقایسه با نمونههای مبتنی بر GPU دست یافت.
مثال دیگر هوش مبتنی بر هوش مصنوعی و ML آمازون الکسا است که توسط خدمات وب آمازون پشتیبانی می شود و امروزه در بیش از 100 میلیون دستگاه موجود است. قول الکسا به مشتریان این است که هوشمندتر، پرحرف تر، فعال تر و لذت بخش تر خواهد شد. برای حفظ این وعده، زمان پاسخگویی یادگیری ماشین و هزینههای زیرساخت باید به طور مداوم بهبود یابد. استقرار مدلهای متن به گفتار ML الکسا در نمونههای Inf1، تأخیر استنتاج را تا 25 درصد و هزینه هر استنتاج را تا 30 درصد کاهش داده است تا تجربه خدمات را برای میلیونها مشتری که هر ماه از الکسا استفاده میکنند، بهبود بخشد.
راه اندازی توابع جدید یادگیری ماشین در فضای ابری
در حالی که شرکتها با ارائه بهترین محصولات و خدمات دیجیتالی برای اثبات آینده کسبوکار خود تلاش میکنند، هیچ شرکتی نمیتواند در ارائه مدلهای یادگیری ماشینی پیچیده برای تجدید تجربیات مشتریان خود عقب بماند. در سالهای اخیر، کاربرد یادگیری ماشین برای انواع موارد استفاده، از شخصیسازی و پیشبینی انحراف گرفته تا کشف تقلب و پیشبینی زنجیره تامین، بهشدت رشد کرده است.
خوشبختانه، زیرساخت یادگیری ماشین در فضای ابری، ویژگیهای جدیدی را ارائه میکند که قبلاً امکانپذیر نبود، و آنها را برای افراد عادی بسیار در دسترستر میکند. به همین دلیل است که مشتریان AWS در حال حاضر از نمونههای آمازون EC2 Inf1 مبتنی بر Inferentia استفاده میکنند تا اطلاعات پشت موتورهای توصیه و رباتهای چت خود را ارائه دهند و بینشهای عملی را از بازخورد مشتریان ایجاد کنند.
با گزینههای زیرساخت یادگیری ماشین مبتنی بر ابر AWS مناسب برای سطوح مختلف مهارت، واضح است که هر کسبوکاری میتواند نوآوری را تسریع کند و کل چرخه زندگی یادگیری ماشین را در مقیاس بزرگ پوشش دهد. با فراگیرتر شدن یادگیری ماشینی، سازمانها اکنون میتوانند تجربه مشتری – و روش انجام تجارت خود را با زیرساختهای یادگیری ماشینی مبتنی بر ابر و کمهزینه، با کارایی بالا، بهطور اساسی تغییر دهند.
در اینجا درباره اینکه چگونه پلت فرم یادگیری ماشینی AWS می تواند به کسب و کار شما در نوآوری کمک کند بیشتر بیاموزید.
این محتوا توسط AWS ایجاد شده است. این توسط تحریریه مجله MIT Technology Review نوشته نشده است.
[ad_2]