آیا اخبار ChatGPT برای شما قدیمی شده است؟ این امر غیرممکن به نظر می رسد. زیرا محبوبیت هوش مصنوعی به همه جنبه های زندگی ما نفوذ کرده است. چه شاهکارهای دیجیتالی که با بهترین تولیدکنندگان هنر هوش مصنوعی ساخته شده اند یا چه کمک هایی ما در مسائل مختلف کردند.
برای مطالعه (ChatGPT و خطرات امنیتی نگران کننده) اینجا کلیک کنید
کاهش میزان کاربران هوش مصنوعی ChatGPT
اما علیرغم اینکه در مسابقه تسلیحاتی هوش مصنوعی پیشتاز است، و هوش مصنوعی Bing مایکروسافت را تقویت می کند، به نظر می رسد ChatGPT ممکن است شتاب خود را از دست بدهد. طبق گزارش SimilarWeb، ترافیک سایت ChatGPT OpenAI نسبت به ماه گذشته تقریباً 10 درصد کاهش یافته است. معیارهای Sensor Tower همچنین نشان می دهد که دانلودهای برنامه iOS نیز کاهش یافته است.
همانطور که توسط Insider گزارش شده است، کاربران پولی مدل قدرتمندتر GPT-4 (دسترسی به آن در ChatGPT Plus گنجانده شده است) در رسانه های اجتماعی و انجمن های خود OpenAI از کاهش کیفیت خروجی از چت بات شکایت کرده اند.
یک توافق مشترک این بود که GPT-4 میتواند خروجیها را سریعتر، اما در سطح کیفیت پایینتری تولید کند. پیتر یانگ، یکی از رهبران محصولات Roblox، در توییتر کار اخیر ربات را محکوم کرد و ادعا کرد که (کیفیت بدتر به نظر می رسد). یکی از کاربران فروم گفت که تجربه اخیر GPT-4 (مانند رانندگی یک فراری به مدت یک ماه است و ناگهان به یک پیکاپ قدیمی شکست خورده تبدیل می شود).
رقابت سنگین دیگر هوش های مصنوعی با ChatGPT
با این حال، مشکل مبرم دیگری در ChatGPT وجود دارد که برخی از کاربران گمان میکنند میتواند دلیل افت اخیر عملکرد باشد. مسئلهای که به نظر میرسد صنعت هوش مصنوعی عمدتاً برای مقابله با آن آماده نیست.
اگر با اصطلاح «آدمخواری هوش مصنوعی» آشنا نیستید، اجازه دهید آن را به طور خلاصه شرح دهم. مدلهای زبان بزرگ (LLM) مانند ChatGPT و Google Bard اینترنت عمومی را برای استفاده از دادهها در هنگام تولید پاسخها میخراشند.
در ماههای اخیر، رونق واقعی محتوای آنلاین تولید شده توسط هوش مصنوعی، از جمله یک تورنت ناخواسته از رمانهای نویسندگان هوش مصنوعی در Kindle Unlimited ،به این معنی است که LLMها به احتمال زیاد مواد اطلاعاتی را که قبلاً توسط یک هوش مصنوعی تولید شده بود، در هنگام شکار از طریق وب جمعآوری میکنند.
ChatGPT از دیگر هوش های مصنوعی یاد می گیرد
این خطر ایجاد یک حلقه بازخورد را به همراه دارد. جایی که مدلهای هوش مصنوعی از محتوایی که خود توسط هوش مصنوعی تولید شده است، «یاد میگیرند» و منجر به کاهش تدریجی انسجام و کیفیت خروجی میشود. با وجود تعداد زیادی LLM که در حال حاضر هم برای متخصصان و هم برای عموم مردم در دسترس است، خطر آدمخواری با هوش مصنوعی به طور فزاینده ای رایج می شود.
به ویژه از آنجایی که هنوز هیچ نمایش معناداری وجود ندارد که چگونه مدل های هوش مصنوعی می توانند به طور دقیق بین اطلاعات “واقعی” و محتوای تولید شده توسط هوش مصنوعی تمایز قائل شوند.
بحثها در مورد هوش مصنوعی تا حد زیادی بر روی خطراتی که برای جامعه ایجاد میکند متمرکز شده است. به عنوان مثال، متا مالک فیسبوک اخیراً از باز کردن هوش مصنوعی جدید تولیدکننده گفتار خود برای عموم خودداری کرد. زیرا برای انتشار آن “بیش از حد خطرناک” تشخیص داده شد. اما آدمخواری محتوا بیشتر خطری برای آینده خود هوش مصنوعی است. چیزی که تهدیدی برای از بین بردن عملکرد ابزارهایی مانند ChatGPT است که برای یادگیری و تولید محتوا به مواد اولیه ساخت بشر وابسته است.