گوگل تمام ابزارهای هوش مصنوعی‌اش را در Gemini Enterprise جمع کرد کشف شواهد جدیدی از وجود اقیانوس باستانی در مریخ چین تبدیل به بزرگ‌ترین تولیدکننده ربات‌های صنعتی جهان شد نمایش شگفت‌انگیز سه دنباله‌دار زمردین در آسمان شب پاییز ۱۴۰۴ + تاریخ و بهترین مکان رصد در ایران قطع دسترسی به اینستاگرام، فیس‌بوک و تیک‌تاک در افغانستان | فیلترینگ گسترده اینترنت توسط طالبان سقف قانونی سود موبایل‌فروشان از فروش گوشی چقدر است؟ برندگان نوبل شیمی ۲۰۲۵ اعلام شدند: مبدعان روش‌های نوآورانه‌ در طراحی و سنتز کاتالیزورهای فعال و پایدار ارزان‌ترین نسخه تسلا مدل Y رونمایی شد | تغییرات جدید برای جذب مشتریان اقتصادی دلایل اصلی خرابی زودهنگام مودم چیست؟ دومین درخشش پیاپی گوگل در نوبل فیزیک | تقدیر از پیشگامان محاسبات کوانتومی سامانه اعتراض آنلاین به جریمه‌های رانندگی راه‌اندازی شد احتمال بروز اختلال موقت در بخشی از شبکه ارتباطی خراسان رضوی در بامداد پنجشنبه (۱۷ مهر ۱۴۰۴) تقدیر اینستاگرام از برترین و نوآورترین محتواسازان با Rings Award ایلان ماسک: سال آینده یک بازی تولیدشده با هوش مصنوعی منتشر خواهیم کرد گوگل برای هک هوش مصنوعی جمینی جایزه ۲۰ هزار دلاری تعیین کرد آیا کابل شارژ هم از جعبه گوشی‌ها حذف خواهد شد؟ برندگان نوبل فیزیک ۲۰۲۵ اعلام شدند: کاشفان تونل‌زنی کوانتومی ماکروسکوپی و کوانتیزاسیون انرژی ChatGPT به ۸۰۰ میلیون کاربر هفتگی رسید | رشد بی‌سابقه در کمتر از دو سال گوگل: با محدودکردن نصب برنامه‌های اندروید از منابع غیررسمی به امنیت کاربران کمک می‌کنیم آیا قطع ارتباط با ماهواره‌های هدهد و کوثر به دلیل خرابکاری بوده است؟ برندگان جایزه نوبل پزشکی ۲۰۲۵ معرفی شدند: کاشفان سلول‌های تنظیم‌کننده سیستم ایمنی بدن
سرخط خبرها

فریب هوش مصنوعی گوگل توسط محققان MIT

  • کد خبر: ۱۷۳۳۵
  • ۲۰ بهمن ۱۳۹۸ - ۱۶:۳۲
فریب هوش مصنوعی گوگل توسط محققان MIT
تا به حال از شیوه‌های مختلفی برای فریب سیستم‌های هوش مصنوعی استفاده شده و در تازه‌ترین رویداد از این دست، محققان دانشگاه ام آی تی سیستم هوش مصنوعی گوگل را فریب داده اند.
به گزارش شهرآرانیوز؛ پژوهشگران این دانشگاه یک سیستم متنی موسوم به تکست فولر ابداع کرده‌اند که می‌تواند مدل‌های هوش مصنوعی که از سیستم پردازش زبان‌های طبیعی استفاده می‌کنند را گول بزند.

بسیاری از دستیار‌های صوتی مانند الکسای آمازون و سیری اپل از سیستم پردازش زبان‌های طبیعی برای درک دستورات کاربران استفاده می‌کنند و لذا فریب آن‌ها می‌تواند امنیت چنین سیستم‌هایی را به خطر بیاندازد. همچنین فریب سیستم مذکور موجب سوءاستفاده از آن‌ها برای ارسال هرزنامه یا متون غیرمؤدبانه می‌شود.

تکست فولر یک سیستم فریبنده است که با درک نقص‌ها و ضعف‌های سیستم پردازش زبان‌های طبیعی آن‌ها را فریب می‌دهد.

این سیستم جملاتی را با دستکاری چند کلمه آن‌ها به خورد سیستم پردازش زبان‌های طبیعی می‌دهد، بدون اینکه دستکاری یادشده موجب تغییر معنا یا ایجاد غلط‌های دستور زبانی شود.

بعد از این کار و بررسی واکنش سیستم پردازش زبان‌های طبیعی به این تغییر، به تدریج تغییرات جدی‌تر و عمیق‌تری در جملات ایجاد می‌شود تا در نهایت از حساسیت و دقت این سیستم کاسته شود و بتوان آن را فریب داد.

محققان دانشگاه ام آی تی می‌گویند با همین روش سه مدل متداول در سیستم پردازش زبان‌های طبیعی را دستکاری کرده و فریب داده‌اند.

یکی از این مدل‌ها که برت نام دارد، یک مدل زبانی متن باز ابداع شده توسط گوگل است که تنها تغییر ۱۰ درصد از بخش‌های هر جمله توسط تکست فولر به فریب آن منجر شد. بر همین اساس انتظار می‌رود شرکت‌های فناوری برای ارتقای سیستم پردازش زبان‌های طبیعی اقدام کنند تا از دستکاری آن جلوگیری کنند.
گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
آخرین اخبار پربازدیدها چند رسانه ای عکس
{*Start Google Analytics Code*} <-- End Google Analytics Code -->