بسیاری از سایتهای اینترنتی سالهای سال است که برای احراز اینکه کاربر یک انسان است یا ربات، از احراز هویت با کپچا استفاده میکنند. اما یافتههای جدید محققین نشان میدهد که ابزارهای هوش مصنوعی ویژهای که برای دور زدن CAPTCHA ارائهشدهاند آنقدر پیشرفته شدهاند که حتی از انسانها هم درصد موفقیت بیشتری در حل مسائل کپچا را کسب میکنند!
بنابر گزارشی که Futurism منتشر کرده، فناوری هوش مصنوعی به حدی پیشرفته شده که محققان در مقالهای جدید هشدار میدهند باید راهی بهتر برای تأیید هویت انسانها بهجای رباتهای هوش مصنوعی پیدا شود. این پژوهش که توسط محققانی از IVY League (8 دانشگاه خصوصی برتر ایالات متحده) و شرکتهایی مانند OpenAI و مایکروسافت صورت گرفته نشان میدهد، سیستمی به نام گواهی هویت انسانی یا PHC میتواند برای جایگزینی روشهایی مانند CAPTCHA پیشنهاد شده و مورد استفاده قرار گیرد.
برای کسانی که نگران حریم خصوصی و نظارت گسترده هستند، این راهحل میتواند ناقص و مشکلساز باشد؛ زیرا بار مسئولیت را به دوش کاربران میاندازد، که این روش رایجی در سیلیکون ولی است.
کریس گیلیارد، محقق حوزه نظارت، در مصاحبهای با واشنگتن پست میگوید:
بسیاری از این طرحها بر این ایده استوار هستند که، به جای اینکه شرکتها بیشتر تلاش کنند تا محصولات ایمنتری ارائه دهند، جامعه و افراد باید رفتارهای خود را بر اساس مشکلاتی که شرکتها با پر کردن همه چیز با چتباتها و مدلهای زبانی بزرگ ایجاد کردهاند تغییر دهند.
خطرات هوش مصنوعی در حوزه اینترنت
از جمله نگرانیهای اصلی پژوهشگران این است که هوش مصنوعی آنقدر پیشرفت که میتواند محتواهای شبیه به محتوای تولید شده توسط انسان را به راحتی تولید کند و با دخل و تصرف توسط افراد ناصالح، نظر و عقیده آنها را به راحتی در وب گسترش دهد.
همچنین ایجاد آواتارهای دیجیتالی که شبیه به انسانهای واقعی هستند نیز پدیده دیگری است که این روزها به شدت شاهد آن هستیم و از سیمای یک فرد معروف گرفته که حرکتی غیرعادی میکند تا تطابق صدای یک فرد دیگر روی صورت یا حتی صوت منفرد شخص دیگر، تشخیص آنها از واقعیت را بسیار دشوار میکند.
در همین رابطه بخوانید:
– نتایج ترسناک یک پژوهش: هوش مصنوعی میتواند خطرناکترین بدافزارها را تولید کند!
–حتی OpenAI هم نسبت به پیشرفت هوش مصنوعی نگران است
مهارت فزاینده و خطرناک دیگر رباتهای هوش مصنوعی تقلید از رفتارهای انسانی در اینترنت مانند حل کردن CAPTCHA است که این اواخر گزارشهای متعددی از شکست خوردن آن از رباتها منتشر شده است.
به همین دلیل، ایده گواهی هویت انسانی در نمای اولیه میتواند بسیار جذاب و مفید به نظر برسد. در این شرایط سازمانی قدرتمند، مانند یک دولت، که خدمات دیجیتال ارائه میدهد، میتواند یک گواهی هویت منحصربهفرد برای هر کاربر انسانی صادر کند که این افراد با استفاده از تکنیکهای رمزنگاری مانند «اثبات بدون افشای اطلاعات»، هویت انسانی خود را تأیید کنند. کاربران این گواهیها را بهصورت دیجیتال در دستگاههای شخصی خود ذخیره میکنند که به حفظ حریم خصوصی آنلاین کمک میکند.
در همین رابطه بخوانید:
– معایب، مضرات و خطرات هوش مصنوعی برای بشریت
– هشدار محققان مایکروسافت: تشخیص هوش مصنوعی ChatGPT از انسان غیر ممکن شده است
این سیستم میتواند جایگزین یا مکمل روشهای تأیید هویت انسانی مانند CAPTCHAها و روشهای بیومتریک مانند اثر انگشت باشد. هرچند در نگاه اول این روش، راهحل مناسبی به نظر میرسد، اما محققان اذعان میکنند که سیستم PHC همچنان دارای چالشهای بسیاری است.
از جمله این چالشها، احتمال فروش این گواهیها توسط برخی افراد به اسپمرهای هوش مصنوعی است که به محتوای خودکار جلوهای معتبر میبخشد و اهداف این پروژه را تضعیف میکند. مضاف بر این، سازمانهایی که این گواهیها را صادر میکنند ممکن است قدرت بیش از حدی کسب کنند و این سیستم همچنان میتواند در معرض حملات هکری قرار بگیرد. در مقاله مذکور پیرامون این مسئله آمده است:
یکی از چالشهای مهم برای اکوسیستم PHC این است که ممکن است قدرت را در دست تعداد کمی از نهادها، بهویژه صادرکنندگان PHC و ارائهدهندگان بزرگ خدمات، متمرکز کند که تصمیمات آنها تأثیرات گستردهای بر این اکوسیستم خواهد داشت.
این سیستم همچنین میتواند برای کاربرانی که کمتر با اینترنت آشنا هستند، مانند سالمندان که اغلب هدف کلاهبرداریهای آنلاین قرار میگیرند، مشکلاتی ایجاد کند.
نقدی بر عدم پذیرش مسئولیت باتهای هوش مصنوعی توسط شرکتها
این سیستم بار مسئولیت تولید محتوای خطرناک یا کلاهبرداری را از شرکتهای پشتیبانی رباتهای هوش مصنوعی و افراد مستقل برداشته و به دوش کاربران میاندازد. در واقع اینطور میتوان پیشبینی کرد که شرکتهای هوش مصنوعی مدعی آن خواهند بود که اگر مشکلی برای شما پیش آن و عامل آن یک ربات بود، مقصر اصلی خودتان هستید که راهکارهای محافظت از آن را روی سیستم یا وبسایتتان پیاده نکردهاید.
به عنوان یک نگاه منتقدانه میتوان گفت که اگر شرکتهای برتر دنیای فناوری که در حوزه مدیریت ابزارهای هوش مصنوعی مولد یا رباتهای پیشرفته هوش مصنوعی فعال هستند خود را از این مسئولیت معاف کنند، در واقع یک لکه سیاه دیگر بر کارنامه قواعد مطالبهگرانه همیشگی خود زدهاند. شرکتهایی که بهطور مداوم مشکلاتی را که هیچکس درخواست نکرده ایجاد میکنند و در عین حال از پیامدهای آنها سود میبرد!
این حالت مشابه وضعیتی است که شرکتهای فناوری مقادیر زیادی برق و آب را برای راهاندازی مراکز داده هوش مصنوعی مصرف میکنند، در حالی که جوامع محلی، بهویژه در مناطقی که دچار خشکسالی هستند، از این تخصیص منابع آسیب میبینند.
نظر شما در این مورد چیست؟ مسئولیت حفاظت در برابر رباتها باید با چه گروهی باشد؟ کاربران یا شرکتها؟
source