بسته اینترنت ۱۴۰۴ خبرنگاران چه زمانی فعال می‌شود؟ + فیلم ریتم مخفی مغز در کنترل استرس کشف شد استودیو تیم‌ نینجا: نسخه اصلی بازی Nioh ۳ بهبودها و تغییرات زیادی خواهد داشت گلکسی S25 FE چه زمانی رونمایی می‌شود؟ طرح «نظام‌بخشی فضای مجازی» در مجلس اعلام وصول شد | صیانت ۳ در راه است؟ ضعف آنتن‌دهی و دسترسی دشوار به اینترنت در مشهد در زمان قطعی برق | چرا با قطع شدن برق آنتن موبایل هم می‌رود؟ گوگل در تبلیغ جدید پیکسل ۱۰، هوش مصنوعی اپل را به مسخره کرده است چرا مردم از اینترنت فیبر نوری استقبال نمی‌کنند؟ ویوو X۳۰۰ به دوربین جدید و قدرتمند ساخت سامسونگ مجهز خواهد بود ۸ ترفند جدید و غیرمعمول و کاربردی برای سؤال‌پرسیدن از چت‌جی‌پی‌تی آیا بازی‌های ویدیویی باعث افزایش ضریب هوشی کودکان می‌شود؟ اطلاعیه گروه انتخاب: اختلال ۹۰ درصد تلویزیون‌های اسنوا و دوو حل شده است بعد از نابودی بشریت، احتمالاً اختاپوس‌ها وارث تمدن انسان‌ها خواهند بود! برای اجرای بازی Battlefield ۶ چه مشخصات سیستمی نیاز است؟ چطور بفهمیم چت‌هایمان با ChatGPT در گوگل منتشر شده است یا نه؟ + راهنمای حذف ماجرای عجیب انتشار چت‌های کاربران ChatGPT در گوگل جزئیاتی جدید از زمان و شیوه رفع مشکل تلویزیون‌های هوشمند اسنووا و دوو (۱۱ مرداد ۱۴۰۴) حمله سایبری هکرها به بیش از ۹۰ نهاد آمریکا گوشی گلکسی S۲۵ FE سامسونگ به زودی عرضه می‌شود حساب گوگل کاربران زیر ۱۸ سال با هوش مصنوعی محدود می‌شود نوزادی که رویانش ۳۰ سال پیش فریز شده بود، سالم متولد شد
سرخط خبرها

فریب هوش مصنوعی گوگل توسط محققان MIT

  • کد خبر: ۱۷۳۳۵
  • ۲۰ بهمن ۱۳۹۸ - ۱۶:۳۲
فریب هوش مصنوعی گوگل توسط محققان MIT
تا به حال از شیوه‌های مختلفی برای فریب سیستم‌های هوش مصنوعی استفاده شده و در تازه‌ترین رویداد از این دست، محققان دانشگاه ام آی تی سیستم هوش مصنوعی گوگل را فریب داده اند.
به گزارش شهرآرانیوز؛ پژوهشگران این دانشگاه یک سیستم متنی موسوم به تکست فولر ابداع کرده‌اند که می‌تواند مدل‌های هوش مصنوعی که از سیستم پردازش زبان‌های طبیعی استفاده می‌کنند را گول بزند.

بسیاری از دستیار‌های صوتی مانند الکسای آمازون و سیری اپل از سیستم پردازش زبان‌های طبیعی برای درک دستورات کاربران استفاده می‌کنند و لذا فریب آن‌ها می‌تواند امنیت چنین سیستم‌هایی را به خطر بیاندازد. همچنین فریب سیستم مذکور موجب سوءاستفاده از آن‌ها برای ارسال هرزنامه یا متون غیرمؤدبانه می‌شود.

تکست فولر یک سیستم فریبنده است که با درک نقص‌ها و ضعف‌های سیستم پردازش زبان‌های طبیعی آن‌ها را فریب می‌دهد.

این سیستم جملاتی را با دستکاری چند کلمه آن‌ها به خورد سیستم پردازش زبان‌های طبیعی می‌دهد، بدون اینکه دستکاری یادشده موجب تغییر معنا یا ایجاد غلط‌های دستور زبانی شود.

بعد از این کار و بررسی واکنش سیستم پردازش زبان‌های طبیعی به این تغییر، به تدریج تغییرات جدی‌تر و عمیق‌تری در جملات ایجاد می‌شود تا در نهایت از حساسیت و دقت این سیستم کاسته شود و بتوان آن را فریب داد.

محققان دانشگاه ام آی تی می‌گویند با همین روش سه مدل متداول در سیستم پردازش زبان‌های طبیعی را دستکاری کرده و فریب داده‌اند.

یکی از این مدل‌ها که برت نام دارد، یک مدل زبانی متن باز ابداع شده توسط گوگل است که تنها تغییر ۱۰ درصد از بخش‌های هر جمله توسط تکست فولر به فریب آن منجر شد. بر همین اساس انتظار می‌رود شرکت‌های فناوری برای ارتقای سیستم پردازش زبان‌های طبیعی اقدام کنند تا از دستکاری آن جلوگیری کنند.
گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
آخرین اخبار پربازدیدها چند رسانه ای عکس
{*Start Google Analytics Code*} <-- End Google Analytics Code -->