صفحه نخست

سیاست

اقتصاد

جامعه

فرهنگ‌وهنر

ورزش

علم و فناوری

دین و فرهنگ رضوی

مشهد

چندرسانه‌ای

شهربانو

افغانستان

عکس

کودک

صفحات داخلی

پایان دوران صدای رباتیک | هوش مصنوعی صدای انسان را به‌طور واقعی تقلید می‌کند

  • کد خبر: ۳۶۳۶۶۷
  • ۱۴ مهر ۱۴۰۴ - ۱۹:۳۰
محققان دانشگاه کوئین مری لندن هشدار می‌دهند که این فناوری ساده و ارزان‌قیمت می‌تواند به ابزاری برای کلاهبرداری‌های صوتی تبدیل شود.

به گزارش شهرآرانیوز، مطالعه‌ای جدید نشان می‌دهد که صدای کلون شده با هوش مصنوعی (دیپ‌فیک)، آنقدر طبیعی و واقعی شده که شنوندگان عادی دیگر نمی‌توانند آن را از صدای انسان واقعی تشخیص دهند.

در این تحقیق، نمونه‌هایی از ۸۰ صدا (۴۰ صدای ساخته‌شده توسط هوش مصنوعی و ۴۰ صدای واقعی انسان) به شرکت‌کنندگان گوش داده شد و از آنها خواسته شد تا مشخص کنند کدام صدا‌ها واقعی و کدام‌ها ساختگی هستند.

نتایج جالب بود: صدای هوش مصنوعی که از صفر و به طور کلی ساخته شده بود، تنها در ۴۱ درصد موارد به اشتباه به عنوان صدای انسان تشخیص داده شد که نشان می‌دهد هنوز تا حدی قابل تمایز است.

اما کلون‌های صوتی که با تقلید از صدای واقعی افراد ساخته شده بودند، در ۵۸ درصد موارد به عنوان صدای واقعی انسان شناخته شدند. حتی صدای واقعی انسان هم تنها در ۶۲ درصد موارد به درستی شناسایی شد.

این یعنی تفاوت آماری معنی‌داری بین توانایی ما در تشخیص صدای واقعی و صدای کلون شده وجود ندارد.

این یافته‌ها پیامد‌های مهمی برای مسائل اخلاقی، حقوقی و امنیتی دارد. همان‌طور که نادین لاوان، محقق ارشد دانشگاه کوئین مری لندن می‌گوید، اگر مجرمان بتوانند صدای شما را با هوش مصنوعی کلون کنند، به راحتی می‌توانند سیستم‌های احراز هویت صوتی در بانک‌ها را دور زده یا با تقلید صدای شما، عزیزانتان را فریب دهند و از آنها کلاهبرداری کنند.

بسیاری از ما صدای هوش مصنوعی را از طریق دستیار‌های صوتی مانند سیری یا الکسا شنیده‌ایم؛ صدا‌هایی که تا همین اواخر بسیار رباتیک و مصنوعی به نظر می‌رسیدند و به راحتی قابل تمایز از صدای انسان بودند. اما اکنون فناوری هوش مصنوعی به مرحله‌ای رسیده که صدا‌های تولید شده کاملاً طبیعی و شبیه صدای واقعی انسان هستند.

این مطالعه که در تاریخ ۲۴ سپتامبر در مجله PLoS One منتشر شده است، نشان می‌دهد که ما در تشخیص صدای واقعی از صدای مصنوعی با چالشی بزرگ رو‌به‌رو هستیم و این مسئله باید در زمینه امنیت و حفاظت از حریم خصوصی به طور جدی مورد توجه قرار گیرد.

ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.