به گزارش شهرآرانیوز، در سال ۲۰۲۵، کیفیت و حجم جعلهای عمیق به طرز چشمگیری افزایش یافته است. چهرهها، صداها و حتی اجراهای تمامقد تولیدشده با هوش مصنوعی به حدی واقعی شدهاند که افراد غیرمتخصص و حتی برخی نهادها نمیتوانند آنها را تشخیص دهند. شرکت امنیت سایبری دیپاسترایک تخمین میزند تعداد جعلهای عمیق آنلاین از ۵۰۰ هزار مورد در ۲۰۲۳ به حدود ۸ میلیون مورد در ۲۰۲۵ رسیده است.
نسل جدید مدلهای تولید ویدئو قادر است حرکتها و هویت افراد را به صورت طبیعی و منسجم شبیهسازی کند. تولید صدای مصنوعی نیز از «آستانه غیرقابل تشخیص» عبور کرده و حتی تن، ریتم، مکث و نفس کشیدن را تقلید میکند. این تواناییها به کلاهبرداریهای صوتی و تصویری گسترده دامن زدهاند.
ابزارهای مصرفی و پیشرفت هوشهای مصنوعی مانند OpenAI Sora ۲ و Google Veo ۳ اجازه میدهند تقریباً هر کسی بتواند محتواهای صوتی و تصویری مصنوعی تولید کند. عاملهای هوش مصنوعی حتی میتوانند کل فرایند تولید محتوا را خودکار کنند.
با بلوغ جعلهای عمیق و تولید در لحظه، تمایز میان محتوای واقعی و مصنوعی دشوارتر خواهد شد. خط دفاعی بر قضاوت انسانی کافی نیست و نیاز به ابزارهای زیرساختی مانند امضای دیجیتال و منابع امن محتوا ضروری است.
منبع: ایسنا
{$sepehr_key_176945}