به گزارش شهرآرانیوز - بیانیهای ۲۲ کلمهای که آن را مدیرعامل گوگل دیپمایند و OpenAI امضا کردهاند، از احتمال انقراض انسان بهدست هوش مصنوعی خبر میدهد. دلیل کوتاهبودن بیانیه این است که تاحدممکن تعداد بیشتری از افراد آن را امضا کنند.
در متن بیانیه میخوانیم: «کاهش خطر انقراض ناشی از هوش مصنوعی باید درکنار سایر خطرهای اجتماعی نظیر همهگیری و جنگ هستهای، اولویتی جهانی باشد.»
بیانیه مذکور را یکی از سازمانهای غیرانتفاعی آمریکایی به نام مرکز ایمنی هوش مصنوعی منتشر کرده است و افراد سرشناسی نظیر مدیرعامل گوگل دیپمایند و مدیرعامل OpenAI (شرکت خالق ChatGPT) آن را امضا کردهاند.
همچنین، دو نفر از سه پژوهشگر هوش مصنوعی برندهی جایزهی تورینگ در سال ۲۰۱۸ بیانیهی یادشده را امضا کردهاند. از جایزهی تورینگ بهعنوان جایزهی نوبل حوزهی کامپیوتر یاد میشود. یان لیکان، سومین پژوهشگر برندهی جایزهی تورینگ و دانشمند ارشد هوش مصنوعی شرکت متا، فعلاً بیانیه را امضا نکرده است.
بیانیه ۲۲ کلمهای جدیدترین نمونه از مجادله بر سر ایمنی هوش مصنوعی است. مدتی قبل نامهای سرگشاده که به امضای افراد سرشناسی نظیر ایلان ماسک رسید، خواستار توقف ۶ ماههی توسعهی هوش مصنوعی پیشرفته شد. شماری از متخصصان گفتند آن نامه برخی از خطرهای هوش مصنوعی را بیشازحد بزرگ جلوه داده است. عدهای دیگر با کلیات موضوع موافق بودند؛ اما با راهکار ارائهشده موافقت نکردند.
کوتاهبودن بیانیهی ۲۲ کلمهای جدید باعث میشود که تعداد بیشتری از متخصصان با آن همراه شوند. در این بیانیه، راهکار مشخصی برای مقابله با هوش مصنوعی ارائه نشده است. مدیر مرکز ایمنی هوش مصنوعی میگوید افرادی که نگران خطرهای این فناوری هستند، میتوانند ازطریق بیانیهی جدید دیدگاه خود را آشکار کنند.
مخالفان هوش مصنوعی میگویند سیستمهای مبتنیبر این فناوری ممکن است بهیکباره شروع به سرپیچی از دستورهای انسان کنند و برای نابودی ما قدم بردارند. عدهای دیگر میگویند چنین آیندهای غیرمحتمل است؛ چون هوش مصنوعی درحالحاضر نمیتواند حتی کارهای سادهای نظیر راندن خودرو را انجام دهد و هنوز فاصلهی زیادی تا دوران خودروهای کاملاً خودران داریم.
منبع: زومجی به نقل از ورج