به نظر می رسد که اکثریت قریب به اتفاق ما هنوز نسبت به مدل بدنام زبان بزرگ (LLM) ChatGPT تردید داریم. عمدتاً به دلیل نگرانی در مورد دقت و ایمنی آن.
بر اساس نظرسنجی انجام شده توسط فروشنده آنتی ویروس Malwarebytes، حدود 81 درصد از مصرف کنندگان نگران خطرات امنیتی نویسنده هوش مصنوعی هستند. در حالی که 63 درصد دیگر به اطلاعاتی که ارائه می دهد اعتماد ندارند و بیش از نیمی معتقدند استفاده از آن باید متوقف شود. تا ابتدا مقررات حاکم بر استفاده و توسعه هوش مصنوعی مولد تدوین شود.
مارک استوکلی، مبشر امنیت سایبری در Malwarebytes می گوید:
انقلاب هوش مصنوعی برای مدت طولانی سرعت گرفته است و بسیاری از برنامه های کاربردی خاص و محدود بدون ایجاد این نوع بی اعتمادی بسیار موفق بوده اند. احساس عمومی در مورد ChatGPT یک جانور متفاوت است و عدم اطمینان در مورد اینکه چگونه ChatGPT زندگی ما را تغییر می دهد با روش های مرموز کار ترکیب می شود.
برای مطالعه (ChatGPT توان حفاظت از حساب ها را ندارد) اینجا کلیک کنید.
چرا امنیت ChatGPT مهم است؟
اگر مصرفکنندگان نگران امنیت و قابل اعتماد بودن ChatGPT هستند، کسبوکارها نیز اگر قصد دارند از آن در محل کار استفاده کنند و دادههای مشتری یا شرکت حساس به ماشین را تغذیه کنند، قطعاً باید نگران باشند.
سامسونگ قبلاً این درس را به سختی آموخته است. زیرا کارگران هنگام استفاده از ChatGPT اطلاعات محرمانه شرکت و اسرار تجاری را برای کمک به کار خود وارد کردند. این دادهها اکنون احتمالاً در سرورهای OpenAI قرار دارند و مانند تمام ورودیهایی که ChatGPT دریافت میکند، ممکن است برای آموزش بیشتر هوش مصنوعی مولد استفاده شود.
غول الکترونیکی اکنون استفاده از آن را برای کارمندان ممنوع کرده است. اما آنها اکنون یک نسخه حاوی برای استفاده دارند که طول سریع محدودی دارد و داده های ورودی در داخل شرکت حفظ می شود.
OpenAI شرکتی است که در پشت ChatGPT قرار دارد و سرمایه گذاری زیادی از مایکروسافت در توسعه هوش مصنوعی همه جانبه خود دریافت کرده است.
بسیاری از شرکتها، از جمله خود مایکروسافت، از مدلهای زیربنایی ChatGPT برای ساختن سیستمهای هوش مصنوعی متناسب با برنامههای خاص سازمانی استفاده میکنند. و برخی از آنها قول میدهند مطمئن شوند که دادهها و درخواستهای ورودی جدا باقی میمانند و به OpenAI ارسال نمیشوند.
دیگران در مورد امنیت ChatGPT چه گفته اند؟
نتایج نظرسنجی احساسات بسیاری از کارشناسان در زمینه های هوش مصنوعی، امنیت و حریم خصوصی را منعکس می کند.
بسیاری بدون شک از بیانیه خطر هوش مصنوعی مرکز ایمنی هوش مصنوعی که توسط چهره های مهم صنعت، از جمله مدیر عامل OpenAI خود سام آلتمن، امضا شده است، آگاه هستند و هشدار می دهد که هوش مصنوعی موجودیت بشر را تهدید می کند. بسیاری از افراد دیگر نیز نگرانی های خود را بیان می کنند. اگرچه به روشی تا حدودی ملایم تر.
برای مثال، پروفسور اوری گال از دانشکده بازرگانی دانشگاه سیدنی، استدلال میکند که ChatGPT با توجه به حجم زیادی از دادههایی که برای آموزش مدلهای خود به نمایش گذاشته میشود، با اصل قانونی یکپارچگی متن در تضاد است. حتی اگر این داده ها به صورت عمومی در دسترس هستند، طبق این اصل نباید خارج از زمینه اصلی خود افشا شوند.
او همچنین معتقد است که ChatGPT ممکن است حتی با GDPR مطابقت نداشته باشد. زیرا هیچ راه روشنی برای بررسی اینکه آیا اطلاعات شخصی کاربر توسط OpenAI ذخیره شده است یا درخواست حذف آن وجود ندارد. این یکی از دلایلی است که ایتالیا چت بات را در سراسر کشور ممنوع کرده است.