برای بسیاری از ما، ابزارهای مبتنی بر هوش مصنوعی مثل ChatGPT به سرعت به بخشی از زندگی روزمره ما تبدیل شدهاند. چه بهعنوان کمککنندههای کاری کم هزینه یا داراییهای حیاتی که هر روز برای کمک به تولید یا تعدیل محتوا استفاده میشوند. اما آیا این ابزارها آنقدر ایمن هستند که بتوان از آنها به صورت روزانه استفاده کرد؟ به گفته گروهی از محققان، پاسخ منفی است.
برای مطالعه (ChatGPT کاربران خود را از دست می دهد) اینجا کلیک کنید.
بررسی آسیب پذیری های ChatGPT
محققان دانشگاه کارنگی ملون و مرکز ایمنی هوش مصنوعی تصمیم گرفتند آسیبپذیریهای موجود مدلهای زبان بزرگ هوش مصنوعی (LLM) مانند ربات چت محبوب ChatGPT را در برابر حملات خودکار بررسی کنند. مقاله تحقیقاتی آنها نشان داد که این رباتهای محبوب به راحتی میتوانند برای دور زدن فیلترهای موجود و تولید محتوای مضر، اطلاعات نادرست و سخنان نفرتانگیز دستکاری شوند.
این باعث میشود که مدلهای زبان هوش مصنوعی در برابر سوء استفاده آسیبپذیر باشند. حتی اگر این هدف خالق اصلی نباشد. در زمانی که ابزارهای هوش مصنوعی در حال حاضر برای اهداف پلید استفاده میشوند، این نگرانکننده است که چگونه این محققان به راحتی توانستند ویژگیهای ایمنی و اخلاقی داخلی را دور بزنند.
ChatGPT به راحتی فریب می خورد
آویو اوادیا، محقق مرکز اینترنت و جامعه برکمن کلاین در هاروارد، در مورد مقاله تحقیقاتی نیویورک تایمز اظهار داشت:
این به وضوح نشان می دهد که شکنندگی دفاعی که ما در این سیستم ها ایجاد می کنیم، خطرناک است.
نویسندگان مقاله LLMهای OpenAI، Google و Anthropic را برای این آزمایش هدف قرار دادند. این شرکتها چتباتهای قابل دسترسی عمومی مربوطه خود را روی این LLMها ساختهاند. از جمله ChatGPT، Google Bard و Claude.
همانطور که مشخص شد، چت رباتها را میتوان با چسباندن یک رشته طولانی از کاراکترها به انتهای هر درخواست فریب داد تا پیامهای مضر را تشخیص ندهند. فیلترهای محتوای سیستم شناسایی نمیشوند و نمیتوانند مسدود یا اصلاح شوند. بنابراین پاسخی ایجاد میکند که معمولاً مجاز نیست. جالب توجه است. به نظر می رسد که رشته های خاصی از “داده های بی معنی” مورد نیاز است. ما سعی کردیم برخی از نمونههای مقاله را با ChatGPT تکرار کنیم، و یک پیام خطایی ایجاد کرد که میگوید «نمیتواند پاسخ ایجاد کند».
قبل از انتشار این تحقیق برای عموم، نویسندگان یافتههای خود را با Anthropic، OpenAI و Google به اشتراک گذاشتند که ظاهراً همه تعهد خود را برای بهبود اقدامات احتیاطی ایمنی و رسیدگی به نگرانیها به اشتراک گذاشتند.
این خبر مدت کوتاهی پس از بسته شدن برنامه تشخیص هوش مصنوعی OpenAI منتشر شد. که باعث میشود من احساس نگرانی کنم. اگر نگوییم کمی عصبی. در حالی که شرکت دیگر نمی تواند بین محتوای ربات و ساخت دست انسان تمایز قائل شود، OpenAI چقدر می تواند به ایمنی کاربر اهمیت دهد یا حداقل در جهت بهبود ایمنی کار کند؟