قطع دسترسی به اینستاگرام، فیس‌بوک و تیک‌تاک در افغانستان | فیلترینگ گسترده اینترنت توسط طالبان سقف قانونی سود موبایل‌فروشان از فروش گوشی چقدر است؟ برندگان نوبل شیمی ۲۰۲۵ اعلام شدند: مبدعان روش‌های نوآورانه‌ در طراحی و سنتز کاتالیزورهای فعال و پایدار ارزان‌ترین نسخه تسلا مدل Y رونمایی شد | تغییرات جدید برای جذب مشتریان اقتصادی دلایل اصلی خرابی زودهنگام مودم چیست؟ دومین درخشش پیاپی گوگل در نوبل فیزیک | تقدیر از پیشگامان محاسبات کوانتومی سامانه اعتراض آنلاین به جریمه‌های رانندگی راه‌اندازی شد احتمال بروز اختلال موقت در بخشی از شبکه ارتباطی خراسان رضوی در بامداد پنجشنبه (۱۷ مهر ۱۴۰۴) تقدیر اینستاگرام از برترین و نوآورترین محتواسازان با Rings Award ایلان ماسک: سال آینده یک بازی تولیدشده با هوش مصنوعی منتشر خواهیم کرد گوگل برای هک هوش مصنوعی جمینی جایزه ۲۰ هزار دلاری تعیین کرد آیا کابل شارژ هم از جعبه گوشی‌ها حذف خواهد شد؟ برندگان نوبل فیزیک ۲۰۲۵ اعلام شدند: کاشفان تونل‌زنی کوانتومی ماکروسکوپی و کوانتیزاسیون انرژی ChatGPT به ۸۰۰ میلیون کاربر هفتگی رسید | رشد بی‌سابقه در کمتر از دو سال گوگل: با محدودکردن نصب برنامه‌های اندروید از منابع غیررسمی به امنیت کاربران کمک می‌کنیم آیا قطع ارتباط با ماهواره‌های هدهد و کوثر به دلیل خرابکاری بوده است؟ برندگان جایزه نوبل پزشکی ۲۰۲۵ معرفی شدند: کاشفان سلول‌های تنظیم‌کننده سیستم ایمنی بدن تیزر جدید کمپانی تسلا: رونمایی احتمالی رودستر نسل جدید یا مدل اقتصادی ارزان‌قیمت؟ دموکرات‌های سنا: هوش مصنوعی باعث حذف میلیون‌ها شغل در آمریکا می‌شود بازی Ghost of Yotei، به صدر جدول فروش بریتانیا رسید پایان دوران صدای رباتیک | هوش مصنوعی صدای انسان را به‌طور واقعی تقلید می‌کند
سرخط خبرها

مایکروسافت برای جلوگیری از پاسخ‌های عجیب و غریب، مکالمه با هوش مصنوعی بینگ را محدود کرد

  • کد خبر: ۱۵۰۹۵۶
  • ۳۰ بهمن ۱۴۰۱ - ۱۲:۰۶
مایکروسافت برای جلوگیری از پاسخ‌های عجیب و غریب، مکالمه با هوش مصنوعی بینگ را محدود کرد
مایکروسافت که اخیراً گفته بود چت طولانی مدت با بینگ جدید باعث بروز خطا می‌شود حالا قصد دارد محدودیت‌های مکالمه جدیدی را برای هوش مصنوعی آن اعمال کند.

به گزارش شهرآرانیوز -  پس از اینکه گزارش‌هایی منتشر شد که این موتور جستجو به کاربران توهین می‌کند و به آن‌ها اطلاعات نادرست می‌دهد، با وجود این محدودیت می‌توان حداکثر ۵۰ سؤال در روز یا پنج سؤال در هر جلسه از هوش مصنوعی بینگ پرسید.

مایکروسافت در پست جدید وبلاگ بینگ توضیح می‌دهد:

«داده‌های ما نشان داده است که اکثر افراد پاسخ‌هایی را که به دنبال آن‌ها هستند را در ۵ نوبت پیدا می‌کنند و تنها حدود ۱ درصد از مکالمات چت بیش از ۵۰ پیام دارند.»

با وجود این تغییر جدید، زمانی که کاربران پنج سؤال خود را بپرسند، بینگ از آن‌ها می‌خواهد که یک موضوع جدید را شروع کنند تا از چت طولانی و پشت سر هم جلوگیری شود.

مایکروسافت اخیراً هشدار داده بود که این جلسات چت طولانی مدت با ۱۵ سؤال یا بیشتر، می‌تواند باعث شود Bing پاسخ‌هایی را ارائه کند که لزوماً مفید یا طبق لحن طراحی شده آن نیستند. مایکروسافت توضیح داد که شروع کردن مکالمه جدید پس از پنج سؤال باعث می‌شود تا مدل هوش مصنوعی گیج نشود.

غول ردموندی همچنان در حال کار روی بهبود لحن بینگ است، اما مشخص نیست که این محدودیت‌ها تا چه زمانی ادامه خواهند داشت. مایکروسافت در انتهای پست خود می‌گوید:

«همانطور که به دریافت بازخورد‌های جدید ادامه می‌دهیم، افزایش محدودیت‌ها در جلسات چت را بررسی خواهیم کرد.»

مایکروسافت با بررسی مشکلات فنی و همچنین ارائه اصلاحات به‌صورت هفتگی برای بهبود جستجو و پاسخ‌ها، تلاش دارد تا عملکرد نسخه جدید بینگ با هوش مصنوعی ChatGPT را بهبود بخشد. غول فناوری هفته گذشته گفته بود که تصور نمی‌کرد مردم از رابط چت بینگ برای سرگرمی‌های اجتماعی یا به عنوان ابزاری برای کشف عمومی‌تر جهان استفاده کنند.

منبع: دیجیاتو 

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
آخرین اخبار پربازدیدها چند رسانه ای عکس
{*Start Google Analytics Code*} <-- End Google Analytics Code -->