Wp Header Logo 131.png
اوپن.ای.آی به گوگل متوسل شد

شرکت OpenAI برای نخستین‌بار از چیپ‌های اختصاصی گوگل موسوم به TPU به‌منظور اجرای مدل‌های هوش مصنوعی خود استفاده می‌کند. این تصمیم پس از محدودیت ظرفیت تأمین از سوی انویدیا و تغییر در روابط با مایکروسافت اتخاذ شده و گامی جدید در تنوع‌بخشی به زیرساخت پردازشی این شرکت محسوب می‌شود.

به گزارش خبرگزاری آنا؛ در تحولی تازه در حوزه زیرساخت هوش مصنوعی، شرکت OpenAI استفاده از چیپ‌های اختصاصی گوگل موسوم به TPU را آغاز کرده است. این اقدام به‌منظور پاسخ به نیاز فزاینده این شرکت برای تأمین توان محاسباتی جهت اجرای مدل‌های هوش مصنوعی صورت گرفته و نشان‌دهنده تغییر در راهبرد‌های زیرساختی OpenAI است.

تا پیش از این، OpenAI برای اجرای مدل‌های خود از پردازنده‌های گرافیکی انویدیا استفاده می‌کرد که از طریق پلتفرم‌های ابری شرکت‌هایی نظیر مایکروسافت (Azure) و اوراکل در اختیارش قرار می‌گرفت. با این حال، افزایش شدید تقاضا، محدودیت در ظرفیت تأمین منابع، و برخی اختلافات با مایکروسافت موجب شد تا این شرکت برای نخستین‌بار به‌سمت گزینه‌ای غیر از انویدیا روی بیاورد.

به گزارش رویترز، گوگل حدود یک دهه پیش توسعه واحد‌های پردازش تنسور (TPU) را آغاز کرد. این چیپ‌ها برای پردازش بهینه مدل‌های یادگیری ماشینی طراحی شده‌اند و ابتدا برای مصارف داخلی گوگل به‌کار گرفته شدند. در سال‌های اخیر، گوگل این چیپ‌ها را از طریق پلتفرم ابری Google Cloud به شرکت‌های ثالث نیز عرضه کرده است. با این حال، نسخه‌هایی که خود گوگل برای مدل‌های داخلی‌اش به‌کار می‌برد، معمولاً یک نسل جلوتر از نسخه‌های تجاری هستند.

بر اساس گزارش‌ها، OpenAI برای استفاده از این چیپ‌ها با گوگل وارد مذاکره شده، اما به‌دلیل حجم بالای منابع موردنیاز، حتی گوگل نیز قادر به تأمین ظرفیت لازم از طریق دیتاسنتر‌های خود نبوده است. در نتیجه، گوگل ناچار شده تا برای نخستین‌بار برخی از چیپ‌های TPU خود را در دیتاسنتر‌های متعلق به سایر شرکت‌ها مستقر کند تا ظرفیت کافی برای پاسخ‌گویی به نیاز OpenAI فراهم شود.

اطلاعات منتشرشده نشان می‌دهد OpenAI در سال گذشته بیش از ۵ میلیارد دلار صرف هزینه‌های زیرساختی کرده که نیمی از آن مربوط به آموزش مدل‌ها و نیمی دیگر مربوط به اجرای آنها بوده است. پیش‌بینی می‌شود این رقم در سال جاری به حدود ۱۵ میلیارد دلار افزایش یابد. استفاده از چیپ‌های TPU یکی از راهکار‌های OpenAI برای کاهش هزینه‌ها و افزایش مقیاس‌پذیری سامانه‌هایش در پاسخ به رشد سریع کاربران و تقاضای پردازشی محسوب می‌شود.

پلتفرم‌های محبوبی مانند ChatGPT ،Codex و DALL·E که توسط OpenAI توسعه داده شده‌اند، به‌طور روزافزون به منابع محاسباتی بیشتری نیاز دارند. با توجه به محدودیت در عرضه چیپ‌های پیشرفته انویدیا، همکاری با سایر تأمین‌کنندگان پردازشی، نظیر گوگل، گامی در جهت تداوم فعالیت پایدار این سامانه‌ها و تضمین توان پاسخ‌گویی در مقیاس جهانی به‌شمار می‌رود.

این رویداد همچنین نشان می‌دهد که رقابت میان بازیگران اصلی حوزه زیرساخت هوش مصنوعی، یعنی انویدیا، گوگل و مایکروسافت، در حال ورود به مرحله‌ای جدید است. استقرار چیپ‌های اختصاصی در دیتاسنتر‌های شخص ثالث از سوی گوگل، نشانه‌ای از انعطاف‌پذیری فنی این شرکت برای جذب مشتریان کلان همچون OpenAI است.

با رشد سریع صنعت هوش مصنوعی، تنوع‌بخشی به منابع سخت‌افزاری و کاهش وابستگی به تأمین‌کنندگان خاص به یکی از موضوعات کلیدی برای شرکت‌های پیشرو در این حوزه تبدیل شده است. تصمیم اخیر OpenAI را می‌توان در همین راستا تحلیل کرد؛ اقدامی که نه‌تنها پیامد‌های فنی بلکه تبعات اقتصادی و رقابتی گسترده‌ای در پی خواهد داشت.

source

rastannameh.ir

توسط rastannameh.ir

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *