
شرکت OpenAI برای نخستینبار از چیپهای اختصاصی گوگل موسوم به TPU بهمنظور اجرای مدلهای هوش مصنوعی خود استفاده میکند. این تصمیم پس از محدودیت ظرفیت تأمین از سوی انویدیا و تغییر در روابط با مایکروسافت اتخاذ شده و گامی جدید در تنوعبخشی به زیرساخت پردازشی این شرکت محسوب میشود.
به گزارش خبرگزاری آنا؛ در تحولی تازه در حوزه زیرساخت هوش مصنوعی، شرکت OpenAI استفاده از چیپهای اختصاصی گوگل موسوم به TPU را آغاز کرده است. این اقدام بهمنظور پاسخ به نیاز فزاینده این شرکت برای تأمین توان محاسباتی جهت اجرای مدلهای هوش مصنوعی صورت گرفته و نشاندهنده تغییر در راهبردهای زیرساختی OpenAI است.
تا پیش از این، OpenAI برای اجرای مدلهای خود از پردازندههای گرافیکی انویدیا استفاده میکرد که از طریق پلتفرمهای ابری شرکتهایی نظیر مایکروسافت (Azure) و اوراکل در اختیارش قرار میگرفت. با این حال، افزایش شدید تقاضا، محدودیت در ظرفیت تأمین منابع، و برخی اختلافات با مایکروسافت موجب شد تا این شرکت برای نخستینبار بهسمت گزینهای غیر از انویدیا روی بیاورد.
به گزارش رویترز، گوگل حدود یک دهه پیش توسعه واحدهای پردازش تنسور (TPU) را آغاز کرد. این چیپها برای پردازش بهینه مدلهای یادگیری ماشینی طراحی شدهاند و ابتدا برای مصارف داخلی گوگل بهکار گرفته شدند. در سالهای اخیر، گوگل این چیپها را از طریق پلتفرم ابری Google Cloud به شرکتهای ثالث نیز عرضه کرده است. با این حال، نسخههایی که خود گوگل برای مدلهای داخلیاش بهکار میبرد، معمولاً یک نسل جلوتر از نسخههای تجاری هستند.
بر اساس گزارشها، OpenAI برای استفاده از این چیپها با گوگل وارد مذاکره شده، اما بهدلیل حجم بالای منابع موردنیاز، حتی گوگل نیز قادر به تأمین ظرفیت لازم از طریق دیتاسنترهای خود نبوده است. در نتیجه، گوگل ناچار شده تا برای نخستینبار برخی از چیپهای TPU خود را در دیتاسنترهای متعلق به سایر شرکتها مستقر کند تا ظرفیت کافی برای پاسخگویی به نیاز OpenAI فراهم شود.
اطلاعات منتشرشده نشان میدهد OpenAI در سال گذشته بیش از ۵ میلیارد دلار صرف هزینههای زیرساختی کرده که نیمی از آن مربوط به آموزش مدلها و نیمی دیگر مربوط به اجرای آنها بوده است. پیشبینی میشود این رقم در سال جاری به حدود ۱۵ میلیارد دلار افزایش یابد. استفاده از چیپهای TPU یکی از راهکارهای OpenAI برای کاهش هزینهها و افزایش مقیاسپذیری سامانههایش در پاسخ به رشد سریع کاربران و تقاضای پردازشی محسوب میشود.
پلتفرمهای محبوبی مانند ChatGPT ،Codex و DALL·E که توسط OpenAI توسعه داده شدهاند، بهطور روزافزون به منابع محاسباتی بیشتری نیاز دارند. با توجه به محدودیت در عرضه چیپهای پیشرفته انویدیا، همکاری با سایر تأمینکنندگان پردازشی، نظیر گوگل، گامی در جهت تداوم فعالیت پایدار این سامانهها و تضمین توان پاسخگویی در مقیاس جهانی بهشمار میرود.
این رویداد همچنین نشان میدهد که رقابت میان بازیگران اصلی حوزه زیرساخت هوش مصنوعی، یعنی انویدیا، گوگل و مایکروسافت، در حال ورود به مرحلهای جدید است. استقرار چیپهای اختصاصی در دیتاسنترهای شخص ثالث از سوی گوگل، نشانهای از انعطافپذیری فنی این شرکت برای جذب مشتریان کلان همچون OpenAI است.
با رشد سریع صنعت هوش مصنوعی، تنوعبخشی به منابع سختافزاری و کاهش وابستگی به تأمینکنندگان خاص به یکی از موضوعات کلیدی برای شرکتهای پیشرو در این حوزه تبدیل شده است. تصمیم اخیر OpenAI را میتوان در همین راستا تحلیل کرد؛ اقدامی که نهتنها پیامدهای فنی بلکه تبعات اقتصادی و رقابتی گستردهای در پی خواهد داشت.
source