از زمانی که اولین ابزارهای هوش مصنوعی مولد (AI) در صحنه فناوری منفجر شدند، سؤالاتی در مورد اینکه آنها داده های خود را از کجا دریافت می کنند و اینکه آیا آنها داده های خصوصی شما را برای آموزش محصولات خود جمع آوری می کنند وجود داشته است. اکنون، OpenAI سازنده ChatGPT می تواند دقیقاً به این دلایل در آب گرم باشد.
برای مطالعه (ChatGPT محتوای غیرقانونی سایت ها را تعدیل می کند) اینجا کلیک کنید.
ChatGPT قوانین امنیتی را نقض می کند
به گزارش TechCrunch، شکایتی به دفتر حفاظت از داده های شخصی لهستان ارسال شده است که ادعا می کند ChatGPT تعداد زیادی از قوانین موجود در مقررات عمومی حفاظت از داده های اتحادیه اروپا (GDPR) را نقض می کند. این نشان میدهد که ابزار OpenAI دادههای کاربران را به روشهای مشکوک جمعآوری میکند.
در این شکایت آمده است که OpenAI قوانین GDPR را بر اساس مبنای قانونی، شفافیت، انصاف، حقوق دسترسی به داده ها و حریم خصوصی بر اساس طراحی زیر پا گذاشته است.
به نظر می رسد اینها اتهامات جدی است. به هر حال، شاکی مدعی نیست که OpenAI به سادگی یک یا دو قانون را زیر پا گذاشته است، بلکه با بسیاری از محافظتهایی که برای جلوگیری از استفاده و سوء استفاده از دادههای خصوصی افراد بدون اجازه شما طراحی شدهاند، نقض کرده است. از یک جهت، می توان آن را به عنوان نقض تقریباً سیستماتیک قوانین محافظت از حریم خصوصی میلیون ها کاربر در نظر گرفت.
ChatGPT در مظن اتهام
این اولین بار نیست که OpenAI خود را در تیر رس قرار می دهد. در مارس 2023، با رگولاتورهای ایتالیایی برخورد کرد که منجر به ممنوعیت ChatGPT در ایتالیا به دلیل نقض حریم خصوصی کاربران شد. این یک دردسر دیگر برای چت ربات هوش مصنوعی ویروسی است. در زمانی که رقبایی مانند Google Bard سر خود را بالا می برند.
و OpenAI تنها سازنده چت بات نیست که نگرانی های مربوط به حریم خصوصی را مطرح می کند. پیشتر در آگوست 2023، متا، مالک فیس بوک اعلام کرد که ساخت چت ربات های خود را آغاز خواهد کرد. که منجر به ایجاد ترس در میان حامیان حریم خصوصی در مورد اینکه چه داده های خصوصی توسط این شرکت بدنام که از حریم خصوصی بیزار است، جمع آوری می شود.
نقض GDPR می تواند منجر به جریمه تا 4 درصد از گردش مالی سالانه جهانی برای شرکت هایی شود که جریمه می شوند. که در صورت اجرا می تواند منجر به جریمه هنگفت OpenAI شود. اگر تنظیمکنندهها مخالف OpenAI باشند، ممکن است مجبور شود ChatGPT را تا زمانی که با قوانین مطابقت داشته باشد اصلاح کند، همانطور که برای ابزار در ایتالیا اتفاق افتاد.
جریمه های هنگفتی ممکن است در راه ChatGPT باشد
شکایت لهستانی توسط یک محقق امنیت و حریم خصوصی به نام Lukasz Olejnik مطرح شده است. که اولین بار زمانی که از ChatGPT برای تهیه بیوگرافی از خود استفاده کرد که به نظر او مملو از ادعاها و اطلاعات نادرست واقعی بود، نگران شد.
او سپس با OpenAI تماس گرفت و خواستار اصلاح نادرستی ها شد و همچنین درخواست کرد که اطلاعاتی در مورد داده هایی که OpenAI از او جمع آوری کرده است برای او ارسال شود. با این حال، او اظهار می دارد که OpenAI در ارائه تمام اطلاعات مورد نیاز تحت GDPR شکست خورده است. که نشان می دهد که نه شفاف و نه منصفانه بوده است.
GDPR همچنین بیان می کند که افراد باید اجازه داشته باشند اطلاعاتی را که یک شرکت در مورد آنها نگهداری می کند در صورت نادرست بودن تصحیح کنند. با این حال، وقتی اولجنیک از OpenAI خواست تا بیوگرافی اشتباهی که ChatGPT در مورد او نوشته بود اصلاح کند، او می گوید OpenAI ادعا کرد که قادر به انجام این کار نیست. این شکایت استدلال میکند که این نشان میدهد که قانون GDPR در عمل کاملاً توسط OpenAI نادیده گرفته شده است.
برای OpenAI ظاهر خوبی نیست. زیرا به نظر میرسد که مقررات متعددی از یک قانون مهم اتحادیه اروپا را نقض میکند. از آنجایی که به طور بالقوه می تواند میلیون ها نفر را تحت تأثیر قرار دهد، مجازات ها می تواند در واقع بسیار شدید باشد. مراقب نحوه انجام این کار باشید، زیرا می تواند منجر به تغییرات گسترده نه فقط برای ChatGPT، بلکه برای چت ربات های هوش مصنوعی به طور کلی شود.