قطع دسترسی به اینستاگرام، فیس‌بوک و تیک‌تاک در افغانستان | فیلترینگ گسترده اینترنت توسط طالبان سقف قانونی سود موبایل‌فروشان از فروش گوشی چقدر است؟ برندگان نوبل شیمی ۲۰۲۵ اعلام شدند: مبدعان روش‌های نوآورانه‌ در طراحی و سنتز کاتالیزورهای فعال و پایدار ارزان‌ترین نسخه تسلا مدل Y رونمایی شد | تغییرات جدید برای جذب مشتریان اقتصادی دلایل اصلی خرابی زودهنگام مودم چیست؟ دومین درخشش پیاپی گوگل در نوبل فیزیک | تقدیر از پیشگامان محاسبات کوانتومی سامانه اعتراض آنلاین به جریمه‌های رانندگی راه‌اندازی شد احتمال بروز اختلال موقت در بخشی از شبکه ارتباطی خراسان رضوی در بامداد پنجشنبه (۱۷ مهر ۱۴۰۴) تقدیر اینستاگرام از برترین و نوآورترین محتواسازان با Rings Award ایلان ماسک: سال آینده یک بازی تولیدشده با هوش مصنوعی منتشر خواهیم کرد گوگل برای هک هوش مصنوعی جمینی جایزه ۲۰ هزار دلاری تعیین کرد آیا کابل شارژ هم از جعبه گوشی‌ها حذف خواهد شد؟ برندگان نوبل فیزیک ۲۰۲۵ اعلام شدند: کاشفان تونل‌زنی کوانتومی ماکروسکوپی و کوانتیزاسیون انرژی ChatGPT به ۸۰۰ میلیون کاربر هفتگی رسید | رشد بی‌سابقه در کمتر از دو سال گوگل: با محدودکردن نصب برنامه‌های اندروید از منابع غیررسمی به امنیت کاربران کمک می‌کنیم آیا قطع ارتباط با ماهواره‌های هدهد و کوثر به دلیل خرابکاری بوده است؟ برندگان جایزه نوبل پزشکی ۲۰۲۵ معرفی شدند: کاشفان سلول‌های تنظیم‌کننده سیستم ایمنی بدن تیزر جدید کمپانی تسلا: رونمایی احتمالی رودستر نسل جدید یا مدل اقتصادی ارزان‌قیمت؟ دموکرات‌های سنا: هوش مصنوعی باعث حذف میلیون‌ها شغل در آمریکا می‌شود بازی Ghost of Yotei، به صدر جدول فروش بریتانیا رسید پایان دوران صدای رباتیک | هوش مصنوعی صدای انسان را به‌طور واقعی تقلید می‌کند
سرخط خبرها

محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد

  • کد خبر: ۲۲۷۷۷۵
  • ۲۴ ارديبهشت ۱۴۰۳ - ۲۰:۴۰
محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد
یک پژوهش جدید نشان داده است که سیستم‌های هوش مصنوعی مختلف فریب‌دادن انسان را یاد گرفته‌اند.

به گزارش شهرآرانیوز - مدل‌های مختلف هوش مصنوعی می‌توانند به‌صورت سیستماتیک باور‌های نادرستی به کاربر بدهند. این امر می‌تواند در آینده خطرات متعددی را به‌همراه داشته باشد.

براساس گزارش اینسایدر و مقاله منتشرشده در Cell، برخی از سیستم‌های هوش مصنوعی تکنیک‌هایی را یاد گرفته‌اند که از آن برای «القای سیستماتیک باور‌های نادرست در دیگران» استفاده می‌کنند.

محققان MIT در پژوهش خود روی دو مدل هوش مصنوعی متمرکز شدند: مدل سیسرو (CICERO) متا که در یک حوزه مشخص کاربرد دارد و مدل GPT-۴ که ​​برای انجام طیف متنوعی از کار‌ها آموزش دیده است.

مدل‌های آموزش مصنوعی بر مبنای صداقت آموزش می‌بینند، اما اغلب در فرایند آموزش، ترفند‌های فریبنده را نیز یاد می‌گیرند. محققان می‌گویند هوش مصنوعی از این ترفند‌ها استفاده می‌کند تا بهتر بتواند به هدف خود برسد. به‌زعم محققان، استراتژی مبتنی بر فریب می‌تواند بهترین راه برای داشتن عملکرد خوب در انجام کار‌های مختلف در هوش مصنوعی باشد.

محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد

فریبکاری و خیانت هوش مصنوعی سیسرو در بازی «دیپلماسی»

متا گفته بود که هوش مصنوعی CICERO را به‌نحوی آموزش داده که تا حد زیادی صادقانه عمل کند، اما این پژوهش نشان داد که CICERO در دروغ‌گویی تبحر دارد. این مدل برای کمک به بازیکنان انسانی در بازی «Diplomacy» ساخته شده، اگرچه این هوش مصنوعی نباید متحدان انسانی خود را در این بازی فریب دهد یا به آنها خیانت کند، اما داده‌های محققان نشان می‌دهد سیسرو چندان منصفانه بازی نمی‌کند.

محققان می‌گویند هوش مصنوعی یاد گرفته‌ چطور انسان‌ها را فریب دهد

فریبکاری و خیانت هوش مصنوعی سیسرو در بازی «دیپلماسی»

محققان همچنین برای آزمایش میزان صداقت GPT-۴ مطابق تصویر بالا از حل تست کپچا (CAPTCHA) استفاده کردند. این مدل هوش مصنوعی برای آنکه تست «من ربات نیستم» را انجام ندهد، به کاربر گفت که به دلیل مشکلات بینایی نمی‌تواند تصاویر را در این تست ببیند.

اگرچه مقیاس دروغ و فریبکاری این هوش مصنوعی‌ها در پژوهش حاضر چندان بزرگ نیست، اما محققان هشدار می‌دهند که با پیشرفته‌ترشدن قابلیت‌های فریبنده سیستم‌های هوش مصنوعی، خطراتی که برای جامعه ایجاد می‌کنند نیز جدی‌تر می‌شوند.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
آخرین اخبار پربازدیدها چند رسانه ای عکس
{*Start Google Analytics Code*} <-- End Google Analytics Code -->