بسته اینترنت ۱۴۰۴ خبرنگاران چه زمانی فعال می‌شود؟ + فیلم ریتم مخفی مغز در کنترل استرس کشف شد استودیو تیم‌ نینجا: نسخه اصلی بازی Nioh ۳ بهبودها و تغییرات زیادی خواهد داشت گلکسی S25 FE چه زمانی رونمایی می‌شود؟ طرح «نظام‌بخشی فضای مجازی» در مجلس اعلام وصول شد | صیانت ۳ در راه است؟ ضعف آنتن‌دهی و دسترسی دشوار به اینترنت در مشهد در زمان قطعی برق | چرا با قطع شدن برق آنتن موبایل هم می‌رود؟ گوگل در تبلیغ جدید پیکسل ۱۰، هوش مصنوعی اپل را به مسخره کرده است چرا مردم از اینترنت فیبر نوری استقبال نمی‌کنند؟ ویوو X۳۰۰ به دوربین جدید و قدرتمند ساخت سامسونگ مجهز خواهد بود ۸ ترفند جدید و غیرمعمول و کاربردی برای سؤال‌پرسیدن از چت‌جی‌پی‌تی آیا بازی‌های ویدیویی باعث افزایش ضریب هوشی کودکان می‌شود؟ اطلاعیه گروه انتخاب: اختلال ۹۰ درصد تلویزیون‌های اسنوا و دوو حل شده است بعد از نابودی بشریت، احتمالاً اختاپوس‌ها وارث تمدن انسان‌ها خواهند بود! برای اجرای بازی Battlefield ۶ چه مشخصات سیستمی نیاز است؟ چطور بفهمیم چت‌هایمان با ChatGPT در گوگل منتشر شده است یا نه؟ + راهنمای حذف ماجرای عجیب انتشار چت‌های کاربران ChatGPT در گوگل جزئیاتی جدید از زمان و شیوه رفع مشکل تلویزیون‌های هوشمند اسنووا و دوو (۱۱ مرداد ۱۴۰۴) حمله سایبری هکرها به بیش از ۹۰ نهاد آمریکا گوشی گلکسی S۲۵ FE سامسونگ به زودی عرضه می‌شود حساب گوگل کاربران زیر ۱۸ سال با هوش مصنوعی محدود می‌شود نوزادی که رویانش ۳۰ سال پیش فریز شده بود، سالم متولد شد
سرخط خبرها

مایکروسافت برای جلوگیری از پاسخ‌های عجیب و غریب، مکالمه با هوش مصنوعی بینگ را محدود کرد

  • کد خبر: ۱۵۰۹۵۶
  • ۳۰ بهمن ۱۴۰۱ - ۱۲:۰۶
مایکروسافت برای جلوگیری از پاسخ‌های عجیب و غریب، مکالمه با هوش مصنوعی بینگ را محدود کرد
مایکروسافت که اخیراً گفته بود چت طولانی مدت با بینگ جدید باعث بروز خطا می‌شود حالا قصد دارد محدودیت‌های مکالمه جدیدی را برای هوش مصنوعی آن اعمال کند.

به گزارش شهرآرانیوز -  پس از اینکه گزارش‌هایی منتشر شد که این موتور جستجو به کاربران توهین می‌کند و به آن‌ها اطلاعات نادرست می‌دهد، با وجود این محدودیت می‌توان حداکثر ۵۰ سؤال در روز یا پنج سؤال در هر جلسه از هوش مصنوعی بینگ پرسید.

مایکروسافت در پست جدید وبلاگ بینگ توضیح می‌دهد:

«داده‌های ما نشان داده است که اکثر افراد پاسخ‌هایی را که به دنبال آن‌ها هستند را در ۵ نوبت پیدا می‌کنند و تنها حدود ۱ درصد از مکالمات چت بیش از ۵۰ پیام دارند.»

با وجود این تغییر جدید، زمانی که کاربران پنج سؤال خود را بپرسند، بینگ از آن‌ها می‌خواهد که یک موضوع جدید را شروع کنند تا از چت طولانی و پشت سر هم جلوگیری شود.

مایکروسافت اخیراً هشدار داده بود که این جلسات چت طولانی مدت با ۱۵ سؤال یا بیشتر، می‌تواند باعث شود Bing پاسخ‌هایی را ارائه کند که لزوماً مفید یا طبق لحن طراحی شده آن نیستند. مایکروسافت توضیح داد که شروع کردن مکالمه جدید پس از پنج سؤال باعث می‌شود تا مدل هوش مصنوعی گیج نشود.

غول ردموندی همچنان در حال کار روی بهبود لحن بینگ است، اما مشخص نیست که این محدودیت‌ها تا چه زمانی ادامه خواهند داشت. مایکروسافت در انتهای پست خود می‌گوید:

«همانطور که به دریافت بازخورد‌های جدید ادامه می‌دهیم، افزایش محدودیت‌ها در جلسات چت را بررسی خواهیم کرد.»

مایکروسافت با بررسی مشکلات فنی و همچنین ارائه اصلاحات به‌صورت هفتگی برای بهبود جستجو و پاسخ‌ها، تلاش دارد تا عملکرد نسخه جدید بینگ با هوش مصنوعی ChatGPT را بهبود بخشد. غول فناوری هفته گذشته گفته بود که تصور نمی‌کرد مردم از رابط چت بینگ برای سرگرمی‌های اجتماعی یا به عنوان ابزاری برای کشف عمومی‌تر جهان استفاده کنند.

منبع: دیجیاتو 

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
آخرین اخبار پربازدیدها چند رسانه ای عکس
{*Start Google Analytics Code*} <-- End Google Analytics Code -->