ایلان ماسک کارمند ایرانی شرکت تسلا را اخراج کرد + علت هک بیش از صد سایت فعال رژیم صهیونیستی توسط گروه هکری ابابیل+تصاویر هدست اپل ویژن پرو در اتاق کولونوسکوپی به پزشکان در تشخیص سرطان کمک می‌کند سامسونگ از ارزان‌ترین ایرباد خود با نام Galaxy Buds Core رونمایی کرد + مشخصات آیا اینستاگرام رفع فیلتر شده است؟ (۴ تیر ۱۴۰۴) اختلال گسترده در مکان‌یاب اپلیکیشن‌‌های کاربران | آیا GPS در ایران قطع شده است؟ آیا قرار است تلگرام رفع فیلتر شود؟ (۴ تیر ۱۴۰۴) اینترنت بین‌الملل در تمام اپراتور‌ها وصل شد (۴ تیر ۱۴۰۴) شهرداری مشهد در «محور مالی و اقتصادی» نخستین لیگ خلاقیت کلان‌شهر‌ها رتبه دوم را کسب کرد اطلاعیه جدید نوبیتکس | همه چیز را به حالت عادی برمی گردانیم حملات سایبری ایران در کمین آمریکا و اسرائیل استفاده از واتساپ روی تمام دستگاه‌های مجلس نمایندگان آمریکا ممنوع شد زمان رفع محدودیت‌های اینترنت بین‌الملل بعد از آتش‌بس میان ایران و رژیم صهیونیستی ویدئو انفجار ورودی زندان اوین، غیرواقعی و ساختۀ هوش مصنوعی است! + عکس دارایی‌های رمزارزی صرافی‌ها به کیف‌پول‌های سرد منتقل شد | امکان برداشت رمزارز وجود ندارد مکالمه نامحدود و رایگان تلفن ثابت تا پایان تیرماه ۱۴۰۴ تفاوت راکتور هسته‌ای و مرکز غنی‌سازی اورانیوم چیست؟ | بمباران کدام‌یک خطرناک‌تر است؟ همه‌چیز درباره بمب‌افکن B‑2، مشخصات آن و مأموریت‌هایش + عکس و جدول فعال استرالیایی حمایت گوگل از صهیونیست‌ها را افشا کرد آیا پلتفرم «رمزینکس» هک شده است؟ توضیحات جدید مدیرعامل «نوبیتکس» درباره حمله هکری اخیر (۳۱ خرداد ۱۴۰۴)
سرخط خبرها

مایکروسافت برای جلوگیری از پاسخ‌های عجیب و غریب، مکالمه با هوش مصنوعی بینگ را محدود کرد

  • کد خبر: ۱۵۰۹۵۶
  • ۳۰ بهمن ۱۴۰۱ - ۱۲:۰۶
مایکروسافت برای جلوگیری از پاسخ‌های عجیب و غریب، مکالمه با هوش مصنوعی بینگ را محدود کرد
مایکروسافت که اخیراً گفته بود چت طولانی مدت با بینگ جدید باعث بروز خطا می‌شود حالا قصد دارد محدودیت‌های مکالمه جدیدی را برای هوش مصنوعی آن اعمال کند.

به گزارش شهرآرانیوز -  پس از اینکه گزارش‌هایی منتشر شد که این موتور جستجو به کاربران توهین می‌کند و به آن‌ها اطلاعات نادرست می‌دهد، با وجود این محدودیت می‌توان حداکثر ۵۰ سؤال در روز یا پنج سؤال در هر جلسه از هوش مصنوعی بینگ پرسید.

مایکروسافت در پست جدید وبلاگ بینگ توضیح می‌دهد:

«داده‌های ما نشان داده است که اکثر افراد پاسخ‌هایی را که به دنبال آن‌ها هستند را در ۵ نوبت پیدا می‌کنند و تنها حدود ۱ درصد از مکالمات چت بیش از ۵۰ پیام دارند.»

با وجود این تغییر جدید، زمانی که کاربران پنج سؤال خود را بپرسند، بینگ از آن‌ها می‌خواهد که یک موضوع جدید را شروع کنند تا از چت طولانی و پشت سر هم جلوگیری شود.

مایکروسافت اخیراً هشدار داده بود که این جلسات چت طولانی مدت با ۱۵ سؤال یا بیشتر، می‌تواند باعث شود Bing پاسخ‌هایی را ارائه کند که لزوماً مفید یا طبق لحن طراحی شده آن نیستند. مایکروسافت توضیح داد که شروع کردن مکالمه جدید پس از پنج سؤال باعث می‌شود تا مدل هوش مصنوعی گیج نشود.

غول ردموندی همچنان در حال کار روی بهبود لحن بینگ است، اما مشخص نیست که این محدودیت‌ها تا چه زمانی ادامه خواهند داشت. مایکروسافت در انتهای پست خود می‌گوید:

«همانطور که به دریافت بازخورد‌های جدید ادامه می‌دهیم، افزایش محدودیت‌ها در جلسات چت را بررسی خواهیم کرد.»

مایکروسافت با بررسی مشکلات فنی و همچنین ارائه اصلاحات به‌صورت هفتگی برای بهبود جستجو و پاسخ‌ها، تلاش دارد تا عملکرد نسخه جدید بینگ با هوش مصنوعی ChatGPT را بهبود بخشد. غول فناوری هفته گذشته گفته بود که تصور نمی‌کرد مردم از رابط چت بینگ برای سرگرمی‌های اجتماعی یا به عنوان ابزاری برای کشف عمومی‌تر جهان استفاده کنند.

منبع: دیجیاتو 

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->