ایلان ماسک «گراکی‌پدیا» را برای رقابت با «ویکی‌پدیا» توسعه می‌دهد آپدیت ویندوز ۱۱ برای بعضی کامپیوترهای قدیمی منتشر شد تتر در معرض فریز | چگونه از رمزارز خود محافظت کنیم؟ تصاویر آیپد پرو ۲۰۲۵ اپل پیش از رونمایی رسمی لو رفت + فیلم عربستان مالک جدید بازی FIFA مایکروسافت قابلیت Agent Mode را معرفی کرد | ساده‌شدن تولید اسناد گسترده با هوش مصنوعی هر روز یک میلیارد تومان هدیه برای دعوت از دوستان به بلو یا بلوجونیور مدل Claude Sonnet 4.5، هوش مصنوعی پیشرفته‌ای برای کدنویسی رونمایی موتورولا از گوشی باریک Moto X70 Air تا اوایل آبان ۱۴۰۴ آموزش رایگان لینوکس با Linux Journey شیائومی پد مینی با نمایشگر ۸.۸ اینچی و تراشه دایمنسیتی ۹۴۰۰ پلاس عرضه شد + عکس تریلر جدید Battlefield ۶ طعنه‌ای جدی به Call of Duty زد + جزئیات کمپینگ و تاریخ عرضه ویدئو | رونمایی از بزرگ‌ترین توربین بادی هوایی جهان توسط چین معرفی آیفون ۱۷e؛ گزینه اقتصادی اپل برای خریداران هوشمند معرفی اسنپدراگون ۸ الیت نسل ۵ | قدرتمندترین تراشه موبایل معرفی تلویزیون‌های سری TV S Pro Mini LED ۲۰۲۶ شیائومی سم آلتمن: هوش مصنوعی تا ۲۰۳۰ از هوش انسانی پیشی می‌گیرد بانک مرکزی سقف خرید سالانه تتر را تعیین کرد اینترنت آزاد محقق نشد، حالا وعده بهبود کیفیت تا شب عید الکامپ ۱۴۰۴؛ گردهمایی بزرگ فناوری ایران معرفی یخچال هوشمند ۲۰۲۵ شیائومی | تولید یک کیلوگرم یخ در یک ساعت!
سرخط خبرها

مایکروسافت برای جلوگیری از پاسخ‌های عجیب و غریب، مکالمه با هوش مصنوعی بینگ را محدود کرد

  • کد خبر: ۱۵۰۹۵۶
  • ۳۰ بهمن ۱۴۰۱ - ۱۲:۰۶
مایکروسافت برای جلوگیری از پاسخ‌های عجیب و غریب، مکالمه با هوش مصنوعی بینگ را محدود کرد
مایکروسافت که اخیراً گفته بود چت طولانی مدت با بینگ جدید باعث بروز خطا می‌شود حالا قصد دارد محدودیت‌های مکالمه جدیدی را برای هوش مصنوعی آن اعمال کند.

به گزارش شهرآرانیوز -  پس از اینکه گزارش‌هایی منتشر شد که این موتور جستجو به کاربران توهین می‌کند و به آن‌ها اطلاعات نادرست می‌دهد، با وجود این محدودیت می‌توان حداکثر ۵۰ سؤال در روز یا پنج سؤال در هر جلسه از هوش مصنوعی بینگ پرسید.

مایکروسافت در پست جدید وبلاگ بینگ توضیح می‌دهد:

«داده‌های ما نشان داده است که اکثر افراد پاسخ‌هایی را که به دنبال آن‌ها هستند را در ۵ نوبت پیدا می‌کنند و تنها حدود ۱ درصد از مکالمات چت بیش از ۵۰ پیام دارند.»

با وجود این تغییر جدید، زمانی که کاربران پنج سؤال خود را بپرسند، بینگ از آن‌ها می‌خواهد که یک موضوع جدید را شروع کنند تا از چت طولانی و پشت سر هم جلوگیری شود.

مایکروسافت اخیراً هشدار داده بود که این جلسات چت طولانی مدت با ۱۵ سؤال یا بیشتر، می‌تواند باعث شود Bing پاسخ‌هایی را ارائه کند که لزوماً مفید یا طبق لحن طراحی شده آن نیستند. مایکروسافت توضیح داد که شروع کردن مکالمه جدید پس از پنج سؤال باعث می‌شود تا مدل هوش مصنوعی گیج نشود.

غول ردموندی همچنان در حال کار روی بهبود لحن بینگ است، اما مشخص نیست که این محدودیت‌ها تا چه زمانی ادامه خواهند داشت. مایکروسافت در انتهای پست خود می‌گوید:

«همانطور که به دریافت بازخورد‌های جدید ادامه می‌دهیم، افزایش محدودیت‌ها در جلسات چت را بررسی خواهیم کرد.»

مایکروسافت با بررسی مشکلات فنی و همچنین ارائه اصلاحات به‌صورت هفتگی برای بهبود جستجو و پاسخ‌ها، تلاش دارد تا عملکرد نسخه جدید بینگ با هوش مصنوعی ChatGPT را بهبود بخشد. غول فناوری هفته گذشته گفته بود که تصور نمی‌کرد مردم از رابط چت بینگ برای سرگرمی‌های اجتماعی یا به عنوان ابزاری برای کشف عمومی‌تر جهان استفاده کنند.

منبع: دیجیاتو 

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
آخرین اخبار پربازدیدها چند رسانه ای عکس
{*Start Google Analytics Code*} <-- End Google Analytics Code -->