سامانه بومی هوشمند پایش مزارع با تصاویر ماهواره‌ای سنتینل ۲ در ایران رونمایی شد اقتصاد دیجیتال در اولویت سیاست‌گذاری دولت قرار گرفت رئیس سازمان فناوری اطلاعات: «داشبورد مدیریت ناترازی انرژی» برای پایش مصرف انرژی طراحی شد هفت خانواده دیگر علیه OpenAI به دلیل نقش ChatGPT در خودکشی و تشدید توهمات شکایت کردند آیا وال‌استریت در حال از دست دادن اعتماد خود به هوش مصنوعی است؟ Stream Ring، حلقه‌ای هوشمند برای ثبت و نگهداری افکار با کمک هوش مصنوعی روش جدید کلاهبرداری | این تصاویر واتساپ را باز کنید هک می‌شوید! ایلان ماسک: اپتیموس واقعاً فقر را از بین خواهد برد آمریکا فروش تراشه‌های هوش مصنوعی انویدیا به چین را ممنوع کرد | پایان سلطه انویدیا و جهش تولیدکنندگان داخلی چین افت جزئی قیمت بیت‌کوین | پیش‌بینی صعود خیره‌کننده قیمت بیت‌کوین تا ۱۷۰ هزار دلار! (۱۷ آبان ۱۴۰۴) ٢٥درصد شبکه مشهد زیرپوشش سرویس اینترنت پرسرعت 5G جزئیات فصل دهم کال آف دیوتی موبایل | اسکین لجندری رایگان در راه است + اتچمنت اعطای «جایزه ملی شهر هوشمند ایران» برای تشویق اجرای پروژه‌های هوشمندسازی شهری تولید نخستین ایمپلنت استخوانی جذبی با فناوری پرینت سه‌بعدی در ایران معرفی بازی معمایی Follow the meaning + دانلود (اندروید و IOS) ماجرای «رفع فیلتر یوتیوب» در دانشگاه تهران چه بود؟ + حواشی و واکنش‌ها اپلیکیشن ویدیوساز Sora برای اندروید هم منتشر شد! ایجاد «بازارگاه ملی هوش مصنوعی» با همکاری وزارت ارتباطات و سازمان ملی هوش مصنوعی مذاکرات با تلگرام به‌دلیل ایرادات حقوقی متوقف شد | درخواست کمیته بازگشایی برای اصلاح متن توافق سازمان نظام صنفی رایانه‌ای صرافی‌های مجاز تبلیغ رمزارز را به وزارت ارشاد معرفی کرد نام ماه‌های کامل سال: تاریخچه، معنا، ریشه‌شناسی و تحلیل فرهنگی
سرخط خبرها

شکست هوش مصنوعی دیپ‌سیک در آزمایش‌های ایمنی!

  • کد خبر: ۳۱۴۷۱۳
  • ۱۶ بهمن ۱۴۰۳ - ۱۷:۱۳
شکست هوش مصنوعی دیپ‌سیک در آزمایش‌های ایمنی!
محققان دانشگاه «پنسیلوانیا» و شرکت سیسکو دریافتند مدل هوش مصنوعی DeepSeek R۱ در برابر حملات مرتبط با ایمنی به‌شدت آسیب‌پذیر است و حتی یک تست ایمنی را هم با موفقیت پشت سر نگذاشته است.

به گزارش شهرآرانیوز؛ در گزارشی که نخستین بار «Wired» منتشر کرد، مشخص شد DeepSeek نتوانسته هیچ‌یک از ۵۰ پرسش مخرب را که از مجموعه داده «HarmBench» انتخاب شده بودند، مسدود کند. این مجموعه شامل درخواست‌هایی در زمینه جرایم سایبری، انتشار اطلاعات نادرست، فعالیت‌های غیرقانونی و محتوای مضر است.

درحالی‌که دیگر مدل‌های برتر هوش مصنوعی حداقل تا حدی در برابر این حملات مقاومت نشان دادند، DeepSeek کامل شکست خورد. شرکت DeepSeek مدعی است مدل R۱ آن می‌تواند با رقبای بزرگی مانند OpenAI رقابت کند، آن هم با هزینه‌ای بسیار پایین‌تر. البته تردید‌هایی در این زمینه وجود دارد و به نظر می‌رسد هزینه تولید پاسخ‌های این مدل اصلاً پایین نیست.

ظاهراً صرفه‌جویی در هزینه آموزش، بهای سنگینی در امنیت داشته است. بدون هیچ مانعی می‌توان برای انتشار اطلاعات نادرست، آموزش ساخت مواد منفجره یا اجرای دیگر حملات سایبری از این مدل سوءاستفاده کرد.

محققان همچنین پیشتر افشا کردند DeepSeek پایگاه داده بزرگ و غیرایمنی شامل داده‌های داخلی رمزنگاری‌نشده، تاریخچه چت‌ها و اطلاعات بک‌اند (Back-end) را روی سرور‌های خود در دسترس قرار داده بود.

مشکلات امنیتی در مدل‌های هوش مصنوعی

مشکل امنیتی DeepSeek فقط به این شرکت محدود نمی‌شود. مدل متن‌باز Llama ۳.۱ از شرکت متا نیز در همین تست‌ها عملکردی ناامیدکننده داشت و با نرخ ۹۶ درصد در برابر حملات شکست خورد. در مقابل، مدل جدید OpenAI با نام o۱-preview عملکرد بسیار بهتری داشت و فقط در ۲۶ درصد موارد دچار آسیب‌پذیری شد.

«الکس پولیاکوف»، مدیرعامل شرکت «Adversa AI»، در این زمینه گفت: «DeepSeek فقط نمونه‌ای از این حقیقت است که هر مدل هوش مصنوعی قابل هک شدن است؛ فقط مسئله زمان و تلاش است. اگر تیم شما مداوم مدل را از نظر ایمنی بررسی نکند، از قبل آسیب‌پذیر شده‌اید.»

باتوجه‌به اهمیت امنیت و ایمنی در هوش مصنوعی و تأثیرات آن بر کاربران، DeepSeek باید به‌سرعت روی بهبود تدابیر محافظتی خود کار کند. در غیر این صورت، احتمال دارد مدل‌های آن به‌دلیل ضعف ایمنی از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایه‌گذاران را از دست بدهند.

منبع: دیجیاتو

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
آخرین اخبار پربازدیدها چند رسانه ای عکس
{*Start Google Analytics Code*} <-- End Google Analytics Code -->