سرمایهگذاری 110 میلیون دلاری AWS برای توسعه حوزه هوش مصنوعی مولد
AWS با توسعه چیپهای اختصاصی خود، مانند Trainium برای آموزش مدلها و Inferentia برای استنتاج، تلاش میکند عملکرد بهتری را با هزینه پایینتر ارائه دهد.
شرکت سرویسهای وب آمازون (AWS) برنامهای به نام Build on Trainium راهاندازی کرده است که با سرمایهگذاری ۱۱۰ میلیون دلاری، به پژوهشهای دانشگاهی در زمینه هوش مصنوعی مولد کمک میکند.
به گزارش ایتنا و به نقل از سیودایو، این برنامه، از طریق ارائه منابع رایانشی، به محققان در جهت توسعه معماریهای هوش مصنوعی، بهینهسازی کتابخانههای یادگیری ماشین و ارتقای عملکردی یاری میرساند. تمامی نتایج این تحقیقات بهصورت متنباز در دسترس قرار خواهند گرفت. دانشگاههای مطرحی مانند کارنگی ملون و برکلی کالیفرنیا از اولین شرکتکنندگان در این برنامه هستند.
در این برنامه، محققان موظف به انتشار مقالات علمی و اشتراکگذاری کدهای خود در کتابخانههای متنباز یادگیری ماشین هستند. AWS امیدوار است این همکاریها به پایهگذاری نسل بعدی پیشرفتها در هوش مصنوعی منجر شود.
AWS این برنامه را بهعنوان بخشی از استراتژی خود برای ارائه جایگزینهای مقرونبهصرفهتر نسبت به تراشههای هوش مصنوعی شرکت انویدیا اجرا میکند. اگرچه AWS همچنان همکاری عمیقی با انویدیا دارد و نخستین شرکتی بود که از چیپهای H200 این شرکت استفاده کرد، اما طبق گفتههای «اندی جسی»، مدیرعامل AWS، افزایش مقیاس کاربردهای هوش مصنوعی هزینهبر است. AWS با توسعه چیپهای اختصاصی خود، مانند Trainium برای آموزش مدلها و Inferentia برای استنتاج، تلاش میکند عملکرد بهتری را با هزینه پایینتر ارائه دهد.
انویدیا، که تأمینکننده برتر توان پردازشی هوش مصنوعی است، برنامههای حمایتی مشابهی برای پژوهشگران دانشگاهی دارد و منابعی نظیر دسترسی به فضای ابری، سختافزار و ابزارهای پیشرفته در اختیار آنها قرار میدهد. این شرکت در گزارش سهماهه اخیر خود از رکورد ۳۰ میلیارد دلار درآمد خبر داد که نشاندهنده تقاضای بیسابقه برای رایانش هوش مصنوعی است.
AWS همچنین در حال افزایش تولید چیپ Trainium نسل دوم است و در پی استقبال گسترده مشتریان، سفارشات بیشتری به تولیدکنندگان ارائه کرده است. این برنامه نشاندهنده تلاش AWS برای رقابت در بازار چیپهای هوش مصنوعی و نوآوری از طریق سیلیکون اختصاصی این شرکت است.
به گزارش ایتنا و به نقل از سیودایو، این برنامه، از طریق ارائه منابع رایانشی، به محققان در جهت توسعه معماریهای هوش مصنوعی، بهینهسازی کتابخانههای یادگیری ماشین و ارتقای عملکردی یاری میرساند. تمامی نتایج این تحقیقات بهصورت متنباز در دسترس قرار خواهند گرفت. دانشگاههای مطرحی مانند کارنگی ملون و برکلی کالیفرنیا از اولین شرکتکنندگان در این برنامه هستند.
در این برنامه، محققان موظف به انتشار مقالات علمی و اشتراکگذاری کدهای خود در کتابخانههای متنباز یادگیری ماشین هستند. AWS امیدوار است این همکاریها به پایهگذاری نسل بعدی پیشرفتها در هوش مصنوعی منجر شود.
AWS این برنامه را بهعنوان بخشی از استراتژی خود برای ارائه جایگزینهای مقرونبهصرفهتر نسبت به تراشههای هوش مصنوعی شرکت انویدیا اجرا میکند. اگرچه AWS همچنان همکاری عمیقی با انویدیا دارد و نخستین شرکتی بود که از چیپهای H200 این شرکت استفاده کرد، اما طبق گفتههای «اندی جسی»، مدیرعامل AWS، افزایش مقیاس کاربردهای هوش مصنوعی هزینهبر است. AWS با توسعه چیپهای اختصاصی خود، مانند Trainium برای آموزش مدلها و Inferentia برای استنتاج، تلاش میکند عملکرد بهتری را با هزینه پایینتر ارائه دهد.
انویدیا، که تأمینکننده برتر توان پردازشی هوش مصنوعی است، برنامههای حمایتی مشابهی برای پژوهشگران دانشگاهی دارد و منابعی نظیر دسترسی به فضای ابری، سختافزار و ابزارهای پیشرفته در اختیار آنها قرار میدهد. این شرکت در گزارش سهماهه اخیر خود از رکورد ۳۰ میلیارد دلار درآمد خبر داد که نشاندهنده تقاضای بیسابقه برای رایانش هوش مصنوعی است.
AWS همچنین در حال افزایش تولید چیپ Trainium نسل دوم است و در پی استقبال گسترده مشتریان، سفارشات بیشتری به تولیدکنندگان ارائه کرده است. این برنامه نشاندهنده تلاش AWS برای رقابت در بازار چیپهای هوش مصنوعی و نوآوری از طریق سیلیکون اختصاصی این شرکت است.