نتایج یک تحقیق جدید نشان می‌دهد که مدل‌های هوش مصنوعی پیشرفته‌تر، در پاسخ به سوالات دشوار به جای آنکه بگویند «نمی‌دانم»، پاسخ‌هایی با اطلاعات نادرست ارائه می‌کنند. در ادامه‌ این خبر با شهر سخت‌افزار همراه باشید.

به نظر می‌رسد که مدل‌های جدید هوش‌های مصنوعی پیشرفته همیشه پاسخ درستی برای سوالات دارند، اما این مدل‌ها توانایی بالایی در ارائه اطلاعات اشتباه به شکلی قانع‌کننده نیز دارند. یافته‌های یک پژوهشی جدید نشان می‌دهد که مدل‌های زبانی بزرگ با هر نسخه جدید قدرتمندتر می‌شوند، اما در عین حال به طور نگران‌کننده‌ای به تولید اطلاعات غلط نیز گرایش بیشتری پیدا می‌کنند.

ارائه اطلاعات اشتباه توسط LLM یا مدل‌های زبانی بزرگ

به گزارش Futurism، این تحقیق که در مجله Nature منتشر شده است، به بررسی چند مدل زبانی بزرگ (LLM) شامل GPT از OpenAI، LLaMA از Meta و یک مدل منبع باز از گروه تحقیقاتی BigScience به نام BLOOM پرداخته است. اگرچه یافته‌ها نشان می‌دهند که دقت کلی این مدل‌ها افزایش یافته، اما قابلیت اطمینان آنها کاهش داشته است، چرا که نسبت پاسخ‌های نادرست به کل پاسخ‌ها بیشتر شده است.

به گفته‌ی محققان، این مدل‌ها اکنون تقریباً به همه سوالات پاسخ می‌دهند. این افزایش در پاسخ‌دهی منجر به تعداد بیشتری پاسخ درست شده، اما در عین حال تعداد پاسخ‌های نادرست نیز به مراتب افزایش یافته است. «خوزه هرناندز-اورالو»، یکی از نویسندگان این پژوهش، بیان می‌کند که مدل‌های هوش مصنوعی مدرن به جای جواب ندادن به سوالات دشوار، ترجیح می‌دهند پاسخ‌های نادرست دهند.

مایک هیکس، فیلسوف علم و فناوری از دانشگاه گلاسکو که در این مطالعه مشارکت نداشت، اظهار کرده:

به نظرم من این پدیده را می‌توان «چرت و پرت گفتن» نامید. اینها (مدل‌های هوش مصنوعی) دارند در تظاهر به دانستن بهتر می‌شوند.

در آزمون‌های مختلف، از ریاضیات گرفته تا جغرافیا، مدل‌های بزرگ‌تر دقت بهتری در پاسخ به سوالات داشتند اما حتی آنها هم در پاسخ به سوالات سخت‌تر با دقت پایین‌تری عمل کردند.

بر اساس این مطالعه، مدل‌های بزرگتری مانند GPT-4 و o1 از OpenAI که تقریباً به هر سوالی پاسخ می‌دهند، توانایی بالاتری در ارائه اطلاعات غلط از خود نشان دادند. روندی که در تمام مدل‌های دیگر نیز مشاهده شده است.

افازایش پاسخ‌های نادرست Chatgpt

نکته جالب این است که این مدل‌های هوش مصنوعی در حل سوالات پیچیده عملکرد بهتری دارند، اما همچنان در پاسخ به سوالات ساده دچار اشتباه می‌شوند. این تناقض باعث می‌شود که کاربران به دلیل دقت مدل‌ها در سوالات پیچیده، به این مدل‌های اعتماد کنند و اشتباهات آشکار آنها در پاسخ به سوالات ساده‌تر را نادیده بگیرند. طبق این تحقیق انسان‌ها بین ۱۰ تا ۴۰ درصد مواقع از تشخیص درستی یا نادرستی پاسخ‌های هوش مصنوعی ناتوان هستند.

در همین رابطه بخوانید:

– مدیر عامل OpenAI: اَبَرهوش فقط چند هزار روز با ما فاصله دارد

– AI با اعمال شاقه؛ زندانیان فنلاندی چگونه به بهبود مدل‌های هوش مصنوعی کمک می‌کنند؟

برای مقابله با این مشکل، محققان پیشنهاد می‌کنند که مدل‌های هوش مصنوعی باید کمتر به پاسخ دادن تمایل داشته باشند و در مواجهه با سوالات چالش‌برانگیز به صراحت بگویند «نمی‌دانم». با این حال، صداقت در این زمینه ممکن است با منافع شرکت‌های توسعه‌دهنده هوش مصنوعی که به دنبال نمایش قابلیت‌های محصولات خود هستند و جذب مشتری‌های بیشتر هستند، همسو نباشد.

source

توسط siahnet.ir