صفحه نخست

سیاست

اقتصاد

جامعه

فرهنگ‌وهنر

ورزش

شهرآرامحله

علم و فناوری

دین و فرهنگ رضوی

مشهد

چندرسانه‌ای

شهربانو

توانشهر

افغانستان

عکس

کودک

صفحات داخلی

گوگل موتور جستجوی خود را با ابزار هوش مصنوعی (AI) به روز کرده است، اما طبق گزارش‌‌ها، ظاهراً این ابزار به کاربران گفته است که سنگ بخورند، به پیتزا‌های خود چسب اضافه کنند و ماشین لباسشویی خود را با گاز کلر تمیز کنند. 

شهرآرانیوز - در یک مورد عجیب، هوش مصنوعی زمانی که کاربر «احساس افسردگی دارم» را جست‌وجو می‌کند، «پریدن از پل گلدن گیت» را پیشنهاد می‌دهد.

ابزار آزمایشی "AI Overviews" تمام وب را بررسی می‌کند تا نتایج جستجو را با استفاده از مدل Gemini AI خلاصه کند. گوگل در ۱۴ مه در کنفرانس توسعه‌دهندگان I/O خود اعلام کرد که این ویژگی برای برخی از کاربران در آمریکا پیش از انتشار جهانی منتشر می‌شود.

اما این ابزار پیش از این باعث ناراحتی گسترده کاربران در رسانه‌های اجتماعی شده است و آن‌ها ادعا می‌کنند که در برخی مواقع، AI Overviews مقالات وب‌سایت‌های طنز و فکاهی را منبع قرار می‌دهد و براساس آن‌ها، خلاصه‌هایی تولید می‌کند. 

AI Overviews در پاسخ به سوالی درباره پیتزا، با توجه به اسکرین شات ارسال شده در X، گفته: «همچنین می‌توانید حدود ⅛ فنجان چسب غیرسمی به سس اضافه کنید تا چسبندگی بیشتری به سس بدهد.» این پاسخ بر اساس یک شوخی که ده سال پیش در Reddit منتشر شده، ارائه شده است.

دیگر ادعا‌ی نادرست هوش مصنوعی گوگل این است که باراک اوباما مسلمان است، یک سگ در NBA، NHL و NFL بازی می‌کند و اینکه کاربران باید روزی یک سنگ بخورند تا به هضم غذا کمک کند. 

هنوز به طور دقیق نمی‌توان این گزارش‌ها را تأیید کرد. نمایندگان گوگل در پاسخ به سؤالاتی درباره میزان گسترده بودن نتایج اشتباه، در بیانیه‌ای گفتند که نمونه‌های مشاهده‌شده «عموماً سؤالات بسیار غیرمعمولی هستند و نشان‌دهنده تجربیات بیشتر افراد نیستند».

در بیانیه گوگل آمده است: «بیشتر بررسی‌های هوش مصنوعی در اینترنت اطلاعات با کیفیت بالا را با لینک‌هایی برای جستجوی عمیق‌تر در وب ارائه می‌دهند. ما آزمایش‌های گسترده‌ای را قبل از عرضه این تجربه جدید انجام دادیم تا اطمینان حاصل کنیم که مرور‌های هوش مصنوعی با انتظارات بالای ما از کیفیت مطابقت داشته باشد. در مواردی که خط‌مشی‌های ما نقض شده است، اقدامات لازم را انجام داده‌ایم. همچنین از گزارش خطاها استفاده می‌کنیم و همچنان به اصلاح آن ادامه می‌دهیم.»

این اولین‌باری نیست که مدل‌های هوش مصنوعی چیزی را می‌سازند که درواقع درست نیست؛ پدیده‌ای که با عنوان "توهم هوش مصنوعی" شناخته می‌شود. در یکی از نمونه‌های قابل توجه، ChatGPT یک رسوایی آزار جنسی ساخت و یک استاد حقوق واقعی را به‌عنوان مجرم معرفی کرد و گزارش‌های ساختگی روزنامه‌ها را هم به عنوان مدرک آورد.

ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.