صفحه نخست

سیاست

اقتصاد

جامعه

فرهنگ‌وهنر

ورزش

شهرآرامحله

علم و فناوری

دین و فرهنگ رضوی

مشهد

چندرسانه‌ای

شهربانو

توانشهر

افغانستان

عکس

کودک

صفحات داخلی

فیزیکدان نظری، استیون هاوکینگ (استیون هاوکینگ) مدت‌ها قبل از اینکه ایلان ماسک و استیو وزنیاک، بنیانگذار اپل، نامه‌ای را امضا کنند و در آن هشدار دهند که هوش مصنوعی «خطرات عمیقی» برای بشریت دارد، ، زنگ خطر را درباره این فناوری در حال تکامل به صدا درآورده بود.

شهرآرانیوز - هاوکینگ سال ۲۰۱۴ در مصاحبه‌ای با بی‌بی‌سی گفته بود: «توسعه هوش مصنوعی می‌تواند پایان نسل بشر باشد.» او که بیش از ۵۵ سال از بیماری «اسکلروز جانبی آمیوتروفیک» (ALS) رنج می‌برد، در سال ۲۰۱۸ در سن ۷۶ سالگی درگذشت. اگرچه او اظهارات انتقادی زیادی درباره هوش مصنوعی داشت، اما به دلیل بیماری‌اش، که عضلات را ضعیف می‌کند، از شکل بسیار ابتدایی این فناوری برای برقراری ارتباط استفاده می‌کرد. 

هاوکینگ در سال ۱۹۸۵ قدرت صحبت‌کردن را از دست داد؛ به‌همین دلیل به روش‌های مختلفی با دیگران ارتباط برقرار می‌کرد، از جمله با دستگاه تولیدکننده گفتار که اینتل ساخته بود و به او اجازه می‌داد از حرکات صورت برای انتخاب کلمات یا حروفی که با گفتار ترکیب می‌شدند استفاده کند.
 

نظر هاوکینگ درباره اینکه هوش مصنوعی می‌تواند «پایان نسل بشر» باشد، در پاسخ به سؤالی درباره اصلاح فناوری صوتی‌ای بود که او برای ارتباط به آن متکی بود. او به بی‌بی‌سی گفت که ایجاد سیستم‌هایی که با هوش انسانی رقابت می‌کنند یا از آن پیشی می‌گیرند می‌تواند برای نسل بشر فاجعه‌بار باشد: «هوش مصنوعی ناگهان سربرمی‌آورد و با سرعت فزاینده‌ای خودش را دوباره طراحی می‌کند.»

هاوکینگ در ادامه گفته بود: «انسان‌هایی که به تکامل بیولوژیکی آهسته محدود شده‌اند، نمی‌توانند با هوش مصنوعی رقابت کنند و در این رقابت حذف خواهند شد.

چند ماه پس از مرگ هاوکینگ، آخرین کتاب او وارد بازار شد. کتاب «پاسخ‌های کوتاه به پرسش‌های بزرگ»، جواب سوال‌هایی است که خوانندگان از او می‌پرسیدند. این کتاب علمی استدلال هاوکینگ درباره چگونگی زندگی انسان‌ها در فضا و ترس او از مهندسی ژنتیک و گرم‌شدن کره زمین را به تصویر کشیده است.

هوش مصنوعی در فهرست «سوالات بزرگ» او جایگاه اول را به خود اختصاص داده است، با این استدلال که رایانه‌ها «احتمالاً در عرض ۱۰۰ سال از انسان‌ها در هوش پیشی خواهند گرفت».

او در کتابش نوشته است: «ما انسان‌ها ممکن است با یک انفجار اطلاعاتی مواجه شویم که در نهایت منجر به ماشین‌هایی می‌شود که هوش آن‌ها بیش از هوش ماست.»

او استدلال می‌کند که کامپیوتر‌ها باید برای هماهنگی با اهداف انسانی آموزش ببینند. جدی نگرفتن خطرات مرتبط با هوش مصنوعی می‌تواند به طور بالقوه بدترین اشتباه ما باشد.

نادیده‌گرفتن ماشین‌های بسیار هوشمند بیشتر شبیه یک داستان علمی تخیلی است، اما درواقع این یک اشتباه است – و احتمالاً بدترین اشتباه ما تاکنون.

اظهارات هاوکینگ، بازتاب نگرانی‌های ایلان ماسک و استیو وزنیاک، بنیانگذار اپل، است که در نامه‌ای در ماه مارس منتشر کردند. این دو همراه با هزاران متخصص دیگر، نامه‌ای را امضا کردند که در آن خواستار توقف حداقل شش‌ماهه ساخت سیستم‌های هوش مصنوعی قدرتمندتر از ربات چت جی پی تی OpenAI شدند.

در این نامه که توسط شرکت غیرانتفاعی Future of Life منتشر شده، آمده است: «همانطور که تحقیقات گسترده نشان داده و توسط آزمایشگاه‌های برتر هوش مصنوعی تأیید شده است، سیستم‌های هوش مصنوعی ... می‌توانند خطرات عمیقی را برای جامعه و بشریت ایجاد کنند».

ChatGPT با ۱۰۰ میلیون کاربر فعال ماهانه در ژانویه به سریع‌ترین پایگاه در حال رشد تبدیل شده است، زیرا مردم در سراسر جهان برای استفاده از آن هجوم برده‌اند. آخرین نسخه چت‌جی‌پی‌تی، GPT-۴، در ماه مارس منتشر شد.

گوگل در تلاش است موتور جستجوی خود را بازنگری کند و حتی موتور جستجوی جدیدی ایجاد کند که بر هوش مصنوعی متکی باشد. مایکروسافت موتور جستجوی «بینگ جدید» را به عنوان «دستیار مبتنی بر هوش مصنوعی» راه‌اندازی کرده است. ماسک گفته یک سیستم هوش مصنوعی جدید راه اندازی خواهد کرد که او آن را «حداکثر جستجوی حقیقت» توصیف کرده است.

هاوکینگ در سال قبل از مرگش توصیه کرد که جهان باید «یاد بگیرد که چگونه برای خطرات احتمالی مرتبط با هوش مصنوعی آماده شود ...». او استدلال کرده است که این سیستم‌ها می‌توانند بدترین رویداد در تاریخ تمدن ما باشند. علاوه‌بر‌این‌ها هاوکینگ خاطرنشان کرده که آینده هنوز مشخص نیست و اگر هوش مصنوعی به درستی آموزش داده شود، می‌تواند برای بشریت مفید باشد.

موفقیت در ساخت هوش مصنوعی درجهت اهداف مختلف می‌تواند بزرگترین و بهترین رویداد تاریخ تمدن ما باشد یا بدترین؟ واقعا نمی‌دانیم. 

ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.