صفحه نخست

سیاست

اقتصاد

جامعه

فرهنگ‌وهنر

ورزش

شهرآرامحله

علم و فناوری

دین و فرهنگ رضوی

مشهد

چندرسانه‌ای

شهربانو

افغانستان

عکس

کودک

صفحات داخلی

هشدار کارشناسان بین‌المللی؛ هوش مصنوعی را قبل از اینکه خیلی دیر شود متوقف کنید

  • کد خبر: ۲۱۵۶۶۶
  • ۱۶ اسفند ۱۴۰۲ - ۰۷:۳۶
کارشناسان جهانی هشدار می‌دهند، باید هوش مصنوعی را قبل از اینکه خیلی دیر شود متوقف کرد.

به گزارش شهرآرانیوز، در جهانی که به طور فزاینده تحت سلطه هوش مصنوعی (AI) قرار می‌گیرد، گروهی از کارشناسان خواستار تغییر به سمت فناوری‌های انسان‌محور هستند.

به نقل از اس‌اف، این گروه بین‌المللی مخالف ایجاد فناوری‌های جدید هوش مصنوعی صرفا برای ساخت رایانه‌های جدید و پیشرفته‌تر است. در عوض، آن‌ها توسعه‌دهندگان را ترغیب می‌کنند که بر روی فناوری‌هایی تمرکز کنند که واقعا نیاز‌های انسان را برآورده می‌کند و تجربه انسانی را افزایش می‌دهد.

کتاب جدید آن‌ها، با نام «هوش مصنوعی انسان‌محور» که شامل مشارکت ۵۰ متخصص از ۱۲ کشور در رشته‌های مختلف از جمله علوم رایانه، حقوق و جامعه‌شناسی است، به مفهوم تغییر هوش مصنوعی از پیشرفت‌های مبتنی بر فناوری به پیشرفت‌های متمرکز بر بشر می‌پردازد. این تضمین می‌کند که فناوری‌ها به جای جایگزینی یا بی‌ارزش کردن کارگران انسانی، با رفاه مردم همسو شوند.

شانون والور (Shannon Vallor)، یک کارشناس برجسته از دانشگاه ادینبرو، تاکید می‌کند که هدف هوش مصنوعی انسان‌محور حمایت و توانمندسازی انسان‌هاست و در تضاد شدید با فناوری توسعه‌یافته صرفا برای نمایش قدرت است. او رشد هوش مصنوعی مولد را خاطرنشان و از توسعه آن انتقاد می‌کند که منجر به فناوری‌هایی می‌شود که مردم باید با آن سازگار شوند و با آن رقابت کنند، نه اینکه این فناوری طراحی‌شده زندگی افراد را آسان‌تر کند.

او می‌گوید: آنچه به دست می‌آوریم چیزی است که باید با آن کنار بیاییم، این برخلاف چیزی است که طراحی کرده‌ایم تا برای ما سودمند باشد.

والور در یک بیانیه رسانه‌ای توضیح می‌دهد که این فناوری چیزی نیست که ما به آن نیاز داریم و به جای تطبیق فناوری‌ها با نیازهایمان، خودمان را با نیاز‌های فناوری تطبیق می‌دهیم.

این کتاب نگرانی‌هایی را در مورد مسیر فعلی توسعه هوش مصنوعی، از جمله تعصبات سیستمی و نگرانی‌های حفظ حریم خصوصی، مطرح می‌کند. مالوینا آنا ووجسیک (Malwina Anna Wójcik) می‌گوید که جوامع به حاشیه رانده شده اغلب از فرآیند طراحی هوش مصنوعی حذف می‌شوند و در نتیجه فناوری‌هایی ایجاد می‌شود که ساختار‌های قدرت موجود و تبعیض را تقویت می‌کند. مت مالون (Matt Malone) در مورد اینکه چگونه هوش مصنوعی حریم خصوصی را به چالش می‌کشد، می‌گوید: در حالی که بسیاری از روش‌های جمع‌آوری و استفاده از داده‌ها توسط هوش مصنوعی بی‌اطلاع هستند، اما ادغام شدن فناوری در زندگی ما، فردیت‌مان را تهدید می‌کنند.

مالون توضیح می‌دهد: حریم خصوصی تعیین می‌کند که ما تا چه حد اجازه می‌دهیم فناوری به حوزه‌های زندگی و آگاهی انسان ورود کند. اما با محو شدن این موارد، حریم خصوصی به سرعت بازتعریف می‌شود و در حالی که هوش مصنوعی زمان، توجه و اعتماد بیشتری را به خود اختصاص می‌دهد، حریم خصوصی همچنان نقش تعیین‌کننده‌ای در ترسیم مرز‌های بین انسان و فناوری ایفا می‌کند.این گروه بین‌المللی همچنین تاثیرات رفتاری هوش مصنوعی را بررسی کردند و نویسندگان نشان دادند که چگونه پلتفرم‌هایی مانند گوگل می‌توانند جنبه‌های اصلی

انسانی مانند عقلانیت و حافظه را تغییر دهند و کنترل شخصی بر زندگی ما را کاهش دهند. آن‌ها استفاده از هوش مصنوعی در رسانه‌های اجتماعی را برای محدود کردن بالقوه منافع کاربران و سوق دادن آن‌ها به سمت افراط گرایی از طریق توصیه محتوای مغرضانه مورد بررسی قرار دادند.

کارشناسان راه‌حل‌های عملی را برای ادغام رویکرد انسان محور به هوش مصنوعی، از جمله تنوع در تحقیقات، همکاری‌های بین رشته‌ای و شیوه‌های جمع‌آوری داده شفاف پیشنهاد می‌کنند. آن‌ها همچنین بر اهمیت اعمال قوانین موجود برای هوش مصنوعی به جای بررسی مقررات کاملا جدید، تاکید می‌کنند و سیاست‌گذاران را تشویق می‌کنند تا با اطمینان هوش مصنوعی را کنترل کنند تا از نوآوری‌های غیرمسئولانه جلوگیری شود.

مالون می‌گوید: هیچ کس عصای جادویی ندارد. بنابراین، من به سیاستگذاران می‌گویم موضوع را جدی بگیرید. بهترین کاری را که می‌توانید انجام دهید. در حالی که سعی می‌کنید مکانیسم‌های حاکمیتی درست را ارائه دهید، طیف وسیعی از دیدگاه‌ها از جمله جوامع به حاشیه رانده شده و کاربران نهایی را به میز دعوت کنید. اما اجازه ندهید چند صدا که وانمود می‌کنند دولت‌ها نمی‌توانند هوش مصنوعی را بدون از بین بردن نوآوری کنترل کنند، شما را متوقف کند.

منبع: ایسنا

ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.