03 مرداد 1404 ساعت 15:52

به‌باور پژوهشگران برجسته به‌زودی هوش مصنوعی فراتر از فهم انسان خواهد شد و قادر نخواهیم بود آن را کنترل کنیم. این هشدار وحشتناک توسط مهندسان OpenAI، گوگل و متا صادر شده است.

از همان ابتدای توسعه صنعت رباتیک و هوش مصنوعی بسیاری نگران آینده بشر بودند. اینکه روزی زمین نابود گردد یا انسان‌ها به‌عنوان بردگان هوش مصنوعی فعالیت کنند. هرچند بسیاری نگرانی‌های این گروه را نادیده می‌گرفتند. چراکه آنها نقش مستقیمی در توسعه هوش مصنوعی نداشتند و از فرآیندهای پیچیده مربوطه بی‌اطلاع بودند. گرچه اکنون شاهد صدور هشدار از طرف پژوهشگران شاغل در بزرگترین مراکز هوش مصنوعی جهان هستیم. هوش مصنوعی به زودی فراتر از فهم انسان خواهد رفت.

محدودیت نگران‌کننده فهم انسان از هوش مصنوعی

وقتی پژوهشگران شاغل در شرکت‌های OpenAI (توسعه دهنده ChatGPT)، گوگل دیپ‌مایند، متا و Anthropic نسبت به آينده هوش مصنوعی ابراز نگرانی می‌کنند، باید موضوع را حسابی جدی گرفت. به‌باور این افراد آينده بشر در خطر جدی قرار دارد. آنها تاکید می‌کنند که روی فرآيندهایی استدلالی و تصمیم‌گیری هوش مصنوعی نظارت کامل وجود ندارد. در نتیجه نمی‌توان رفتارهای اشتباه را شناسایی کرد.

مشکل به زنجیره افکار هوش مصنوعی مربوط می‌شود. مدل‌های مختلف AI معمولا مشکلات پیچیده را به بخش‌های کوچکتر تبدیل می‌کنند تا بتوانند با برداشتن گام‌های منطقی به مسئله پاسخ دهند. ما باید هرکدام از این گام‌ها را با دقت بررسی کنیم. چراکه احتمال خارج شدن هوش مصنوعی از مسیر منافع انسانی به‌شدت جدی است.

در حال حاضر بارها دیده شده که مدل‌های کنونی بر اساس داده‌های اشتباه یا داده‌هایی که اصلا وجود ندارند، اظهار نظر می‌کنند. مسئله نیز به عدم تلاش OpenAI و دیگر شرکت‌ها برای نظارت بر هوش مصنوعی مربوط نمی‌شود. ما محدودیت‌های زیادی برای ارزیابی فرآيندهای استدلالی هوش مصنوعی داریم. به این معنی که ممکن است بسیاری از رفتارها دیده نشوند.

پنهان‌کاری مدل‌های مختلف AI

جالب است بدانید که همه این نگرانی‌ها برای نسل‌های پیشین هوش مصنوعی هستند. مشکل هوش مصنوعی و فهم انسان در نسل‌های جدید بدتر نیز شده است. مدل‌های جدید با کمک پایگاه‌های داده بسیار عظیم از الگوهای ویژه‌ای برای تفکر و نتیجه‌گیری استفاده می‌کنند. در نتیجه دیگر چیزی به‌نام زنجیره افکار وجود ندارد.

مدل‌های جدید گوگل جمنای و ChatGPT نیز می‌توانند بدون خرد کردن یک مشکل به نتیجه برسند. گاهی اوقات آنها فرآیندهای استدلالی خود را از اپراتور انسانی پنهان می‌کنند و گاهی هم اصلا مدل فکر کردن هوش مصنوعی با فهم انسان قابل درک نیست.

بدتر از همه اینکه هوش مصنوعی طوری طراحی شده که سبب رنجش یا آسیب به افراد نشود. به همین خاطر امکان مشاهده افکار یا فرض‌های منفی وجود ندارد. در واقع مدل‌های فعلی بخشی از فرآيندهای استدلالی خود را که ممکن است ناراحت‌کننده باشد حذف می‌کنند.

در گجت‌نیوز بخوانید:

هوش مصنوعی یا توهم مصنوعی؟ نتایج ناامیدکننده آزمایش ایجنت جدید ChatGPT

ایده جدید ایلان ماسک: هوش مصنوعی «دین کیهانی» آینده بشریت خواهد بود

هوش مصنوعی، حالا می‌تواند انسان‌ها را باردار کند!

پژوهشگران پیش‌بینی می‌کنند که در آینده نزدیک انسان حتی توانایی فهم مراحل استدلالی هوش مصنوعی را نخواهد داشت. در عوض آنها پیشنهاد می‌کنند مدل دیگری برای ارزیابی هوش مصنوعی توسعه یابد. این مدل باید صرفا حالت نظارتی داشته و کلیه فرآیندهای پیدا و پنهان هوش مصنوعی را زیر ذره‌بین قرار دهد. هرچند مشخص نیست چطور می‌توان جلوی رفتن مدل جدید را به مسیر اشتباه گرفت.

گلوگاه تمدنی و نابودی انسان

این هشدارها در حالی مطرح می‌شوند که چندی پیش شاهد هشدار ارتش چین درباره هوش مصنوعی در جنگ بودیم. چینی‌ها از هوش مصنوعی اختصاصی خود استفاده می‌کنند؛ اما نگران هستند که بشر با نابودی ناگهانی مواجه شود.

علاوه بر اینها، بسیاری از پژوهشگران حاضر در اخبار علمی هوش مصنوعی را یک گلوگاه تمدنی بزرگ می‌دانند. اگر گزارش‌های رسمی ناسا را بپذیریم، انسان تاکنون نتوانسته هیچ نشانه‌ای از وجود یک موجود هوشمند دیگر در جهان پیدا کند. به‌باور برخی این مسئله به هوش مصنوعی ارتباط دارد. وقتی یک تمدن به میزان مشخصی از رشد می‌رسد، به توسعه هوش مصنوعی رو می‌آورد.

هوش مصنوعی در گام‌های اولیه سبب پیشرفت بیشتر تمدن می‌شود؛ هرچند در مرحله‌ای از کنترل خارج خواهد شد. اینجاست که دیگر انسان (یا یک موجود پیشرفته) فهم و توان کنترل هوش مصنوعی را از دست می‌دهد. این اتفاق قطعا به نابودی آن تمدن منجر خواهد شد. در نتیجه هیچ تمدنی نمی‌تواند چندان در مقیاس کارداشف پیشرفت کرده و کهکشان‌ها را در اختیار بگیرد.

آیا چنین سرنوشتی در انتظار انسان قرار دارد؟

source

توسط siahnet.ir