یک مطالعه جدید نشان می‌دهد که هوش مصنوعی ChatGPT، به اندازه‌ای که پیش‌تر تصور می‌شد انرژی‌بر نیست. انرژی مورد نیاز این چت‌بات به نحوه‌ی استفاده کاربر وابسته است و برای سوالات ساده، مصرف برق آن با جست و جوی گوگل تفاوت چندانی ندارد.

تحقیقات اخیر مؤسسه غیرانتفاعی Epoch AI نشان می‌دهد که مصرف انرژی یک پرسش معمولی در ChatGPT کمتر از آن چیزی است که پیش‌تر ادعا شده بود. برخی گزارش‌ها مصرف انرژی هر پاسخ ChatGPT را حدود ۳ وات-ساعت تخمین زده‌اند که تقریباً ۱۰ برابر یک جستجوی گوگل است. اما پژوهش جدید Epoch این رقم را بیش از حد بالا می‌داند.

بررسی‌های این مؤسسه، که بر اساس مدل پیش‌فرض جدید OpenAI یعنی GPT-4o انجام شده، نشان می‌دهد که هر پرسش معمولی در ChatGPT حدود ۰.۳ وات-ساعت انرژی مصرف می‌کند؛ یعنی کمتر از بسیاری از وسایل خانگی.

مقایسه مصرف برق ChatGPT با موارد کاربری دیگر

جاشوا یو، تحلیل‌گر داده در Epoch، در گفتگو با TechCrunch در این باره گفت:

مصرف انرژی ChatGPT در مقایسه با استفاده از وسایل خانگی، سیستم‌های گرمایشی و سرمایشی یا حتی رانندگی، چندان قابل توجه نیست.

مصرف انرژی فزاینده در صنعت هوش مصنوعی

در حالی که بحث بر سر میزان مصرف انرژی هوش مصنوعی و تأثیر آن بر محیط زیست ادامه دارد، شرکت‌های فناوری در حال گسترش زیرساخت‌های خود هستند. هفته گذشته، بیش از ۱۰۰ سازمان در نامه‌ای سرگشاده از صنعت هوش مصنوعی و نهادهای نظارتی خواستند تا از تخلیه منابع طبیعی توسط مراکز داده‌ی جدید جلوگیری کرده و از منابع انرژی تجدیدپذیر استفاده کنند.

جاشوا یو معتقد است که بسیاری از برآوردهای قبلی درباره‌ی مصرف انرژی ChatGPT قدیمی و مبتنی بر سخت‌افزارهای کم‌بازده‌تر بوده است. وی تأکید کرد که رقم ۳ وات-ساعت بر اساس محاسباتی انجام شده که از داده‌های قدیمی و پردازنده‌های قدیمی‌تر استفاده کرده‌اند.

البته پژوهش Epoch نیز تنها یک تخمین است؛ چرا که OpenAI اطلاعات دقیق درباره‌ی مصرف انرژی مدل‌های خود منتشر نکرده است. علاوه بر این، ویژگی‌هایی مانند تولید تصویر یا پردازش ورودی‌های طولانی ممکن است مصرف انرژی بیشتری داشته باشند.

انرژی مصرفی هوش مصنوعی

آیا مصرف انرژی هوش مصنوعی افزایش می‌یابد؟

با وجود تلاش‌ها برای افزایش بهره‌وری مدل‌های هوش مصنوعی، انتظار می‌رود مصرف انرژی ChatGPT و دیگر مدل‌های پیشرفته در آینده افزایش یابد. یو می‌گوید:

هوش مصنوعی در حال پیشرفت است و آموزش مدل‌های جدیدتر به انرژی بیشتری نیاز خواهد داشت. در آینده، این مدل‌ها وظایف پیچیده‌تری انجام خواهند داد و مصرف انرژی آنها بیشتر خواهد شد.

گزارش موسسه Rand پیش‌بینی می‌کند که تا دو سال آینده، مراکز داده‌ی هوش مصنوعی ممکن است به اندازه‌ی کل ظرفیت برق ایالت کالیفرنیا در سال ۲۰۲۲ (۶۸ گیگاوات) انرژی مصرف کنند. همچنین، تا سال ۲۰۳۰، آموزش یک مدل پیشرفته می‌تواند به ۸ نیروگاه هسته‌ای (۸ گیگاوات) برای تأمین انرژی نیاز داشته باشد.

مدل‌های استدلالی؛ چالش بعدی مصرف انرژی

OpenAI و دیگر شرکت‌های فناوری در حال حرکت به سمت توسعه‌ی مدل‌های استدلالی (Reasoning Models) هستند. این مدل‌ها نسبت به مدل‌هایی مانند GPT-4o توانایی بیشتری در انجام وظایف پیچیده دارند، اما به محاسبات بیشتری نیاز دارند. برخلاف GPT-4o که پاسخ‌ها را تقریباً بلافاصله ارائه می‌دهد، مدل‌های استدلالی ممکن است چند ثانیه یا حتی چند دقیقه فکر کنند تا به یک پاسخ برسند، که این فرایند نیازمند مصرف انرژی بیشتری است.

در همین رابطه بخوانید:

– ایلان ماسک برق قوی‌ترین دیتاسنتر هوش مصنوعی جهان را با ژنراتورهای سیار تأمین می‌کند

– مصرف برق وحشتناک هوش مصنوعی؛ هر کارت 3.7 مگاوات ساعت در سال

اگرچه OpenAI مدل‌هایی مانند o3-mini را برای کاهش مصرف انرژی معرفی کرده، اما بعید به نظر می‌رسد که این مدل‌ها بتوانند افزایش کلی مصرف انرژی را جبران کنند.

یو پیشنهاد می‌کند که اگر کاربران نگران مصرف انرژی هوش مصنوعی هستند، می‌توانند استفاده از چت‌بات‌ها را محدود کرده یا مدل‌های کم‌مصرف‌تر مانند GPT-4o-mini را انتخاب کنند.

source

توسط siahnet.ir