آیا رمز‌های تولیدی توسط چت‌بات‌ها واقعاً امن هستند؟

  • کد خبر: ۳۹۳۸۳۳
  • ۳۰ بهمن ۱۴۰۴ - ۱۲:۳۷
آیا رمز‌های تولیدی توسط چت‌بات‌ها واقعاً امن هستند؟
تحقیقی تازه نشان می‌دهد پسورد‌های ساخته‌شده توسط چت‌بات‌ها مانند ChatGPT Google Gemini و Anthropic Cloud برخلاف ادعای خودشان، اغلب قابل‌پیش‌بینی و آسیب‌پذیر هستند.

به گزارش شهرآرانیوز، هوش مصنوعی این روز‌ها قادر است برحسب درخواست کاربران پسورد بسازد، اما تحقیقات جدید نشان می‌دهد این رمز‌ها اغلب قدرتمند نیستند. پژوهشی از سوی شرکت امنیت سایبری Irregular نشان داد سه مدل بزرگ چت بات، شامل ChatGPT، Google Gemini و Anthropic Cloud، پسورد‌هایی قابل پیش‌بینی تولید می‌کنند.

دن لاهاو، یکی از بنیانگذاران این شرکت، می‌گوید: «استفاده از هوش مصنوعی برای ساخت پسورد ایده خوبی نیست و اگر چنین کاری انجام داده‌اید، باید رمزتان را فوراً تغییر دهید.»

مشکل اصلی به ماهیت مدل‌های زبانی بزرگ بازمی‌گردد؛ این مدل‌ها رمز‌های تصادفی واقعی نمی‌سازند و بیشتر بر اساس الگو‌های موجود در داده‌های آموزشی خود عمل می‌کنند. نتیجه این است که پسورد‌ها گاهی قوی به نظر می‌رسند، اما در واقع بسیار قابل پیش‌بینی هستند و می‌توانند توسط ابزار‌های خودکار هکر‌ها تخمین زده شوند.

تحقیق شرکت Irregular نشان داد از ۵۰ پسورد ساخته‌شده توسط Anthropic Cloud، ۲۳ مورد خاص بودند و یک پسورد ده بار تکرار شد. مدل‌های ChatGPT و Gemini نیز با وجود تولید پسورد‌های کمتر تکراری، همچنان الگو‌های قابل پیش‌بینی داشتند.

کارشناسان امنیت سایبری تأکید می‌کنند که حتی پسورد‌هایی که ظاهراً پیچیده‌اند، ممکن است به دلیل الگو‌های منظم و قاعده‌مندشان به راحتی قابل شناسایی باشند. هشدار آنها روشن است: از هوش مصنوعی برای تولید پسورد استفاده نکنید و همواره رمز‌های خود را با روش‌های تصادفی و مطمئن بسازید.

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.