نتایج یک تحقیق جدید نشان میدهد که مدلهای هوش مصنوعی پیشرفتهتر، در پاسخ به سوالات دشوار به جای آنکه بگویند «نمیدانم»، پاسخهایی با اطلاعات نادرست ارائه میکنند. در ادامه این خبر با شهر سختافزار همراه باشید.
به نظر میرسد که مدلهای جدید هوشهای مصنوعی پیشرفته همیشه پاسخ درستی برای سوالات دارند، اما این مدلها توانایی بالایی در ارائه اطلاعات اشتباه به شکلی قانعکننده نیز دارند. یافتههای یک پژوهشی جدید نشان میدهد که مدلهای زبانی بزرگ با هر نسخه جدید قدرتمندتر میشوند، اما در عین حال به طور نگرانکنندهای به تولید اطلاعات غلط نیز گرایش بیشتری پیدا میکنند.
به گزارش Futurism، این تحقیق که در مجله Nature منتشر شده است، به بررسی چند مدل زبانی بزرگ (LLM) شامل GPT از OpenAI، LLaMA از Meta و یک مدل منبع باز از گروه تحقیقاتی BigScience به نام BLOOM پرداخته است. اگرچه یافتهها نشان میدهند که دقت کلی این مدلها افزایش یافته، اما قابلیت اطمینان آنها کاهش داشته است، چرا که نسبت پاسخهای نادرست به کل پاسخها بیشتر شده است.
به گفتهی محققان، این مدلها اکنون تقریباً به همه سوالات پاسخ میدهند. این افزایش در پاسخدهی منجر به تعداد بیشتری پاسخ درست شده، اما در عین حال تعداد پاسخهای نادرست نیز به مراتب افزایش یافته است. «خوزه هرناندز-اورالو»، یکی از نویسندگان این پژوهش، بیان میکند که مدلهای هوش مصنوعی مدرن به جای جواب ندادن به سوالات دشوار، ترجیح میدهند پاسخهای نادرست دهند.
مایک هیکس، فیلسوف علم و فناوری از دانشگاه گلاسکو که در این مطالعه مشارکت نداشت، اظهار کرده:
به نظرم من این پدیده را میتوان «چرت و پرت گفتن» نامید. اینها (مدلهای هوش مصنوعی) دارند در تظاهر به دانستن بهتر میشوند.
در آزمونهای مختلف، از ریاضیات گرفته تا جغرافیا، مدلهای بزرگتر دقت بهتری در پاسخ به سوالات داشتند اما حتی آنها هم در پاسخ به سوالات سختتر با دقت پایینتری عمل کردند.
بر اساس این مطالعه، مدلهای بزرگتری مانند GPT-4 و o1 از OpenAI که تقریباً به هر سوالی پاسخ میدهند، توانایی بالاتری در ارائه اطلاعات غلط از خود نشان دادند. روندی که در تمام مدلهای دیگر نیز مشاهده شده است.
نکته جالب این است که این مدلهای هوش مصنوعی در حل سوالات پیچیده عملکرد بهتری دارند، اما همچنان در پاسخ به سوالات ساده دچار اشتباه میشوند. این تناقض باعث میشود که کاربران به دلیل دقت مدلها در سوالات پیچیده، به این مدلهای اعتماد کنند و اشتباهات آشکار آنها در پاسخ به سوالات سادهتر را نادیده بگیرند. طبق این تحقیق انسانها بین ۱۰ تا ۴۰ درصد مواقع از تشخیص درستی یا نادرستی پاسخهای هوش مصنوعی ناتوان هستند.
در همین رابطه بخوانید:
– مدیر عامل OpenAI: اَبَرهوش فقط چند هزار روز با ما فاصله دارد
– AI با اعمال شاقه؛ زندانیان فنلاندی چگونه به بهبود مدلهای هوش مصنوعی کمک میکنند؟
برای مقابله با این مشکل، محققان پیشنهاد میکنند که مدلهای هوش مصنوعی باید کمتر به پاسخ دادن تمایل داشته باشند و در مواجهه با سوالات چالشبرانگیز به صراحت بگویند «نمیدانم». با این حال، صداقت در این زمینه ممکن است با منافع شرکتهای توسعهدهنده هوش مصنوعی که به دنبال نمایش قابلیتهای محصولات خود هستند و جذب مشتریهای بیشتر هستند، همسو نباشد.
source