مطالعه جدید: خفاش‌ها از صدای قورباغه‌ها، طعمه‌های خوشمزه را از سمی تشخیص می‌دهند بسته‌های تخفیفی رومینگ همراه اول و ایرانسل ویژه حج ۱۴۰۴ + روش فعالسازی مشخصات سرفیس پرو جدید با نمایشگر ۱۲ اینچی لو رفت گوگل به زودی به کودکان زیر ۱۳ سال اجازه استفاده از چت‌بات Gemini را می‌دهد کشف انقلابی دانشمندان درباره منشأ طلا: مگنتارها، کارخانه‌های جدید تولید عناصر گرانبها! نسخه آزمایشی One UI ۸ سامسونگ احتمالا ماه آینده منتشر می‌شود ویدئو | موتورسیکلت پرنده Volonaut که از پیشرانه جت برای پرواز استفاده می‌کند زمان انتشار بازی GTA VI به تأخیر افتاد + دلیل و تاریخ جدید هشدار اپل به کاربران آيفون: مراقب حمله جاسوس‌افزاری باشید نتیجه تحقیقات جدید: رژیم غذایی فستینگ منجر به تغییرات پویا در مغز می‌شود گوگل پلی از ابتدای سال ۲۰۲۴ تا کنون ۴۷ درصد از برنامه‌هایش را کاهش داده است جمینای گوگل احتمالا تا پایان ۲۰۲۵ با آیفون ادغام می‌شود بزرگ‌ترین ساختار کیهانی ممکن است ۵۰درصد بزرگ‌تر از آن چیزی باشد که تصور می‌کردیم نامه انجمن «فین‌تک» ایران به رئیس جمهور در اعتراض به ضرب‌الاجل بانک مرکزی به صرافی‌های رمزارزی ابزارهای جدید هوش مصنوعی گوگل برای یادگیری زبان معرفی شدند گوگل زبان فارسی را به هوش مصنوعی پادکست‌ساز NotebookLM اضافه کرد ویدئوکست | اخبار علم و فناوری در هفته گذشته (۱۰ اردیبهشت ۱۴۰۴) ازبین‌بردن عوارض قرص‌های لاغری و راهکار‌های علمی و مؤثر برای بازگرداندن سلامتی راهکار‌های جلوگیری از قطع اینترنت در تابستان | ارتباطات زیر سایه خاموشی‌ها دانشمندان، به‌صورت اتفاقی، فرضیه ۶۷ ساله درباره ویتامین B1 را تأیید کردند نتیجه تحقیقات جدید: ضرر استرس کاری و دود دست‌دوم سیگار برابر است!
سرخط خبرها

فریب هوش مصنوعی گوگل توسط محققان MIT

  • کد خبر: ۱۷۳۳۵
  • ۲۰ بهمن ۱۳۹۸ - ۱۶:۳۲
فریب هوش مصنوعی گوگل توسط محققان MIT
تا به حال از شیوه‌های مختلفی برای فریب سیستم‌های هوش مصنوعی استفاده شده و در تازه‌ترین رویداد از این دست، محققان دانشگاه ام آی تی سیستم هوش مصنوعی گوگل را فریب داده اند.
به گزارش شهرآرانیوز؛ پژوهشگران این دانشگاه یک سیستم متنی موسوم به تکست فولر ابداع کرده‌اند که می‌تواند مدل‌های هوش مصنوعی که از سیستم پردازش زبان‌های طبیعی استفاده می‌کنند را گول بزند.

بسیاری از دستیار‌های صوتی مانند الکسای آمازون و سیری اپل از سیستم پردازش زبان‌های طبیعی برای درک دستورات کاربران استفاده می‌کنند و لذا فریب آن‌ها می‌تواند امنیت چنین سیستم‌هایی را به خطر بیاندازد. همچنین فریب سیستم مذکور موجب سوءاستفاده از آن‌ها برای ارسال هرزنامه یا متون غیرمؤدبانه می‌شود.

تکست فولر یک سیستم فریبنده است که با درک نقص‌ها و ضعف‌های سیستم پردازش زبان‌های طبیعی آن‌ها را فریب می‌دهد.

این سیستم جملاتی را با دستکاری چند کلمه آن‌ها به خورد سیستم پردازش زبان‌های طبیعی می‌دهد، بدون اینکه دستکاری یادشده موجب تغییر معنا یا ایجاد غلط‌های دستور زبانی شود.

بعد از این کار و بررسی واکنش سیستم پردازش زبان‌های طبیعی به این تغییر، به تدریج تغییرات جدی‌تر و عمیق‌تری در جملات ایجاد می‌شود تا در نهایت از حساسیت و دقت این سیستم کاسته شود و بتوان آن را فریب داد.

محققان دانشگاه ام آی تی می‌گویند با همین روش سه مدل متداول در سیستم پردازش زبان‌های طبیعی را دستکاری کرده و فریب داده‌اند.

یکی از این مدل‌ها که برت نام دارد، یک مدل زبانی متن باز ابداع شده توسط گوگل است که تنها تغییر ۱۰ درصد از بخش‌های هر جمله توسط تکست فولر به فریب آن منجر شد. بر همین اساس انتظار می‌رود شرکت‌های فناوری برای ارتقای سیستم پردازش زبان‌های طبیعی اقدام کنند تا از دستکاری آن جلوگیری کنند.
گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->