صفحه نخست

سیاست

اقتصاد

جامعه

فرهنگ‌وهنر

ورزش

شهرآرامحله

علم و فناوری

دین و فرهنگ رضوی

مشهد

چندرسانه‌ای

شهربانو

توانشهر

افغانستان

عکس

کودک

صفحات داخلی

اف‌بی‌آی هشدار داده است که هکر‌ها با ابزار‌های هوش مصنوعی مانند ChatGPT، کد‌های مخرب ایجاد می‌کنند و مرتکب جرایم سایبری‌ای می‌شوند که در گذشته برای آن‌ها باید تلاش بیشتری می‌کردند.

شهرآرانیوز - اف‌‌بی‌آی گفته است که ربات‌های هوش مصنوعی به انواع فعالیت‌های غیرقانونی دامن زده‌اند، از کلاهبرداری تا مشورت درباره نحوه انجام حملات تروریستی و شیمیایی.

به گفته یکی از مقامات ارشد اف‌بی‌آی، انتظار می‌رود در طول زمان و با ادامه همه‌گیرشدن مدل‌های هوش مصنوعی، این اقدامات افزایش یابد. مجرمان از هوش مصنوعی برای تکمیل فعالیت‌های مجرمانه خود استفاده می‌کنند، از جمله تولید صدا با هوش مصنوعی برای جعل هویت افراد تا از افراد مورداطمینان آن‌ها کلاهبرداری کنند.

این اولین‌بار نیست که می‌بینیم هکر‌ها از ابزار‌هایی مانند ChatGPT برای ایجاد بدافزار خطرناک استفاده می‌کنند. در فوریه ۲۰۲۳، محققان شرکت امنیتی Checkpoint کشف کردند که عوامل مخرب قادر به تغییر API یک چت‌بات هستند تا بتوانند کد بدافزار تولید کنند.

اف‌بی‌آی که موضع بسیار متفاوتی با برخی از کارشناسان سایبری دارد، می‌گوید تهدید ربات‌های هوش مصنوعی تا حد زیادی نادیده گرفته شده است، و اکثر هکر‌ها از آن‌ها سوءاستفاده می‌کنند.

در طرف دیگر، کارشناسان می‌گویند که اکثر بدافزار‌های قدیمی به احتمال زیاد مهارت‌های لازم را برای دور زدن دیوارهای امنیتی ضدبدافزار چت‌بات‌ها ندارند. علاوه بر این برخی دیگر می‌گویند کیفیت کد بدافزارهایی که ربات‌های هوش مصنوعی تولید می‌کنند پایین است. 

این صحبت‌ها نقطه مقابل ادعا‌های FBI است و معلوم نیست کدام طرف درست می‌گویند. اما با توجه به اینکه سازنده ChatGPT OpenAI ابزار تشخیص سرقت ادبی ایجادشده توسط chatbot را متوقف کرده است، چندان اخبار دلگرم کننده‌ای پیرامون چت بات‌ها وجود ندارد. اگر اف‌بی‌آی حق داشته باشد، ممکن است دوران سختی در نبرد با هکر‌ها و تلاش‌ آن‌ها برای ایجاد بدافزار‌های چت‌بات در پیش داشته باشیم.

ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.