03 مرداد 1404 ساعت 15:52
بهباور پژوهشگران برجسته بهزودی هوش مصنوعی فراتر از فهم انسان خواهد شد و قادر نخواهیم بود آن را کنترل کنیم. این هشدار وحشتناک توسط مهندسان OpenAI، گوگل و متا صادر شده است.
از همان ابتدای توسعه صنعت رباتیک و هوش مصنوعی بسیاری نگران آینده بشر بودند. اینکه روزی زمین نابود گردد یا انسانها بهعنوان بردگان هوش مصنوعی فعالیت کنند. هرچند بسیاری نگرانیهای این گروه را نادیده میگرفتند. چراکه آنها نقش مستقیمی در توسعه هوش مصنوعی نداشتند و از فرآیندهای پیچیده مربوطه بیاطلاع بودند. گرچه اکنون شاهد صدور هشدار از طرف پژوهشگران شاغل در بزرگترین مراکز هوش مصنوعی جهان هستیم. هوش مصنوعی به زودی فراتر از فهم انسان خواهد رفت.
محدودیت نگرانکننده فهم انسان از هوش مصنوعی
وقتی پژوهشگران شاغل در شرکتهای OpenAI (توسعه دهنده ChatGPT)، گوگل دیپمایند، متا و Anthropic نسبت به آينده هوش مصنوعی ابراز نگرانی میکنند، باید موضوع را حسابی جدی گرفت. بهباور این افراد آينده بشر در خطر جدی قرار دارد. آنها تاکید میکنند که روی فرآيندهایی استدلالی و تصمیمگیری هوش مصنوعی نظارت کامل وجود ندارد. در نتیجه نمیتوان رفتارهای اشتباه را شناسایی کرد.
مشکل به زنجیره افکار هوش مصنوعی مربوط میشود. مدلهای مختلف AI معمولا مشکلات پیچیده را به بخشهای کوچکتر تبدیل میکنند تا بتوانند با برداشتن گامهای منطقی به مسئله پاسخ دهند. ما باید هرکدام از این گامها را با دقت بررسی کنیم. چراکه احتمال خارج شدن هوش مصنوعی از مسیر منافع انسانی بهشدت جدی است.
در حال حاضر بارها دیده شده که مدلهای کنونی بر اساس دادههای اشتباه یا دادههایی که اصلا وجود ندارند، اظهار نظر میکنند. مسئله نیز به عدم تلاش OpenAI و دیگر شرکتها برای نظارت بر هوش مصنوعی مربوط نمیشود. ما محدودیتهای زیادی برای ارزیابی فرآيندهای استدلالی هوش مصنوعی داریم. به این معنی که ممکن است بسیاری از رفتارها دیده نشوند.
پنهانکاری مدلهای مختلف AI
جالب است بدانید که همه این نگرانیها برای نسلهای پیشین هوش مصنوعی هستند. مشکل هوش مصنوعی و فهم انسان در نسلهای جدید بدتر نیز شده است. مدلهای جدید با کمک پایگاههای داده بسیار عظیم از الگوهای ویژهای برای تفکر و نتیجهگیری استفاده میکنند. در نتیجه دیگر چیزی بهنام زنجیره افکار وجود ندارد.
مدلهای جدید گوگل جمنای و ChatGPT نیز میتوانند بدون خرد کردن یک مشکل به نتیجه برسند. گاهی اوقات آنها فرآیندهای استدلالی خود را از اپراتور انسانی پنهان میکنند و گاهی هم اصلا مدل فکر کردن هوش مصنوعی با فهم انسان قابل درک نیست.
بدتر از همه اینکه هوش مصنوعی طوری طراحی شده که سبب رنجش یا آسیب به افراد نشود. به همین خاطر امکان مشاهده افکار یا فرضهای منفی وجود ندارد. در واقع مدلهای فعلی بخشی از فرآيندهای استدلالی خود را که ممکن است ناراحتکننده باشد حذف میکنند.
در گجتنیوز بخوانید:
هوش مصنوعی یا توهم مصنوعی؟ نتایج ناامیدکننده آزمایش ایجنت جدید ChatGPT
ایده جدید ایلان ماسک: هوش مصنوعی «دین کیهانی» آینده بشریت خواهد بود
هوش مصنوعی، حالا میتواند انسانها را باردار کند!
پژوهشگران پیشبینی میکنند که در آینده نزدیک انسان حتی توانایی فهم مراحل استدلالی هوش مصنوعی را نخواهد داشت. در عوض آنها پیشنهاد میکنند مدل دیگری برای ارزیابی هوش مصنوعی توسعه یابد. این مدل باید صرفا حالت نظارتی داشته و کلیه فرآیندهای پیدا و پنهان هوش مصنوعی را زیر ذرهبین قرار دهد. هرچند مشخص نیست چطور میتوان جلوی رفتن مدل جدید را به مسیر اشتباه گرفت.
گلوگاه تمدنی و نابودی انسان
این هشدارها در حالی مطرح میشوند که چندی پیش شاهد هشدار ارتش چین درباره هوش مصنوعی در جنگ بودیم. چینیها از هوش مصنوعی اختصاصی خود استفاده میکنند؛ اما نگران هستند که بشر با نابودی ناگهانی مواجه شود.
علاوه بر اینها، بسیاری از پژوهشگران حاضر در اخبار علمی هوش مصنوعی را یک گلوگاه تمدنی بزرگ میدانند. اگر گزارشهای رسمی ناسا را بپذیریم، انسان تاکنون نتوانسته هیچ نشانهای از وجود یک موجود هوشمند دیگر در جهان پیدا کند. بهباور برخی این مسئله به هوش مصنوعی ارتباط دارد. وقتی یک تمدن به میزان مشخصی از رشد میرسد، به توسعه هوش مصنوعی رو میآورد.
هوش مصنوعی در گامهای اولیه سبب پیشرفت بیشتر تمدن میشود؛ هرچند در مرحلهای از کنترل خارج خواهد شد. اینجاست که دیگر انسان (یا یک موجود پیشرفته) فهم و توان کنترل هوش مصنوعی را از دست میدهد. این اتفاق قطعا به نابودی آن تمدن منجر خواهد شد. در نتیجه هیچ تمدنی نمیتواند چندان در مقیاس کارداشف پیشرفت کرده و کهکشانها را در اختیار بگیرد.
آیا چنین سرنوشتی در انتظار انسان قرار دارد؟
source