یک مطالعه جدید نشان میدهد که هوش مصنوعی ChatGPT، به اندازهای که پیشتر تصور میشد انرژیبر نیست. انرژی مورد نیاز این چتبات به نحوهی استفاده کاربر وابسته است و برای سوالات ساده، مصرف برق آن با جست و جوی گوگل تفاوت چندانی ندارد.
تحقیقات اخیر مؤسسه غیرانتفاعی Epoch AI نشان میدهد که مصرف انرژی یک پرسش معمولی در ChatGPT کمتر از آن چیزی است که پیشتر ادعا شده بود. برخی گزارشها مصرف انرژی هر پاسخ ChatGPT را حدود ۳ وات-ساعت تخمین زدهاند که تقریباً ۱۰ برابر یک جستجوی گوگل است. اما پژوهش جدید Epoch این رقم را بیش از حد بالا میداند.
بررسیهای این مؤسسه، که بر اساس مدل پیشفرض جدید OpenAI یعنی GPT-4o انجام شده، نشان میدهد که هر پرسش معمولی در ChatGPT حدود ۰.۳ وات-ساعت انرژی مصرف میکند؛ یعنی کمتر از بسیاری از وسایل خانگی.
جاشوا یو، تحلیلگر داده در Epoch، در گفتگو با TechCrunch در این باره گفت:
مصرف انرژی ChatGPT در مقایسه با استفاده از وسایل خانگی، سیستمهای گرمایشی و سرمایشی یا حتی رانندگی، چندان قابل توجه نیست.
مصرف انرژی فزاینده در صنعت هوش مصنوعی
در حالی که بحث بر سر میزان مصرف انرژی هوش مصنوعی و تأثیر آن بر محیط زیست ادامه دارد، شرکتهای فناوری در حال گسترش زیرساختهای خود هستند. هفته گذشته، بیش از ۱۰۰ سازمان در نامهای سرگشاده از صنعت هوش مصنوعی و نهادهای نظارتی خواستند تا از تخلیه منابع طبیعی توسط مراکز دادهی جدید جلوگیری کرده و از منابع انرژی تجدیدپذیر استفاده کنند.
جاشوا یو معتقد است که بسیاری از برآوردهای قبلی دربارهی مصرف انرژی ChatGPT قدیمی و مبتنی بر سختافزارهای کمبازدهتر بوده است. وی تأکید کرد که رقم ۳ وات-ساعت بر اساس محاسباتی انجام شده که از دادههای قدیمی و پردازندههای قدیمیتر استفاده کردهاند.
البته پژوهش Epoch نیز تنها یک تخمین است؛ چرا که OpenAI اطلاعات دقیق دربارهی مصرف انرژی مدلهای خود منتشر نکرده است. علاوه بر این، ویژگیهایی مانند تولید تصویر یا پردازش ورودیهای طولانی ممکن است مصرف انرژی بیشتری داشته باشند.
آیا مصرف انرژی هوش مصنوعی افزایش مییابد؟
با وجود تلاشها برای افزایش بهرهوری مدلهای هوش مصنوعی، انتظار میرود مصرف انرژی ChatGPT و دیگر مدلهای پیشرفته در آینده افزایش یابد. یو میگوید:
هوش مصنوعی در حال پیشرفت است و آموزش مدلهای جدیدتر به انرژی بیشتری نیاز خواهد داشت. در آینده، این مدلها وظایف پیچیدهتری انجام خواهند داد و مصرف انرژی آنها بیشتر خواهد شد.
گزارش موسسه Rand پیشبینی میکند که تا دو سال آینده، مراکز دادهی هوش مصنوعی ممکن است به اندازهی کل ظرفیت برق ایالت کالیفرنیا در سال ۲۰۲۲ (۶۸ گیگاوات) انرژی مصرف کنند. همچنین، تا سال ۲۰۳۰، آموزش یک مدل پیشرفته میتواند به ۸ نیروگاه هستهای (۸ گیگاوات) برای تأمین انرژی نیاز داشته باشد.
مدلهای استدلالی؛ چالش بعدی مصرف انرژی
OpenAI و دیگر شرکتهای فناوری در حال حرکت به سمت توسعهی مدلهای استدلالی (Reasoning Models) هستند. این مدلها نسبت به مدلهایی مانند GPT-4o توانایی بیشتری در انجام وظایف پیچیده دارند، اما به محاسبات بیشتری نیاز دارند. برخلاف GPT-4o که پاسخها را تقریباً بلافاصله ارائه میدهد، مدلهای استدلالی ممکن است چند ثانیه یا حتی چند دقیقه فکر کنند تا به یک پاسخ برسند، که این فرایند نیازمند مصرف انرژی بیشتری است.
در همین رابطه بخوانید:
– ایلان ماسک برق قویترین دیتاسنتر هوش مصنوعی جهان را با ژنراتورهای سیار تأمین میکند
– مصرف برق وحشتناک هوش مصنوعی؛ هر کارت 3.7 مگاوات ساعت در سال
اگرچه OpenAI مدلهایی مانند o3-mini را برای کاهش مصرف انرژی معرفی کرده، اما بعید به نظر میرسد که این مدلها بتوانند افزایش کلی مصرف انرژی را جبران کنند.
یو پیشنهاد میکند که اگر کاربران نگران مصرف انرژی هوش مصنوعی هستند، میتوانند استفاده از چتباتها را محدود کرده یا مدلهای کممصرفتر مانند GPT-4o-mini را انتخاب کنند.
source