ترسناک‌ترین و انکارناپذیرترین واقعیت مدل‌های هوش مصنوعی چیست؟ احتمالا باتری سری گلکسی S۲۶ پیشرفت چندانی نخواهد داشت شاهکار دیگری از تلسکوپ جیمزوب: ثبت بزرگ‌ترین تصویر پانوراما از عالم اولیه + عکس تأثیر کافئین بر مغز حتی در زمان خواب هم باقی می‌ماند همه‌چیز درباره ماه کامل توت فرنگی (خرداد ۱۴۰۴) + زمان و راهنمای رصد و عکاسی با مزایای ترند جدید شبکه‌های اجتماعی یعنی «پیاده‌روی ژاپنی» آشنا شوید جنگ قدرت‌‌ها: نگاهی به اختلافات اخیر ایلان ماسک و دونالد ترامپ ویدئو | تست نینتندو سوییچ ۲ دربرابر آسیب‌پذیری و خط‌وخش شرکت متا می‌خواهد برای مصرف برق مراکز داده و هوش‌ مصنوعی‌اش انرژی هسته‌ای بخرد ادوبی اپلیکیشن اندروید فتوشاپ را به‌صورت آزمایشی منتشر کرد بسته‌های ویژه همراه اول ویژه عرفه تا اربعین ۱۴۰۴ + روش فعالسازی بخش زیادی از ثروت ۲۰۰ میلیارد دلاری بیل گیتس برای توسعه آفریقا صرف می‌شود به‌کارگیری پهپادها و هوش مصنوعی برای رصد حریم تهران خبرهایی از دردست‌ساخت‌بودن نسخه چندنفره بازی مرد عنکبوتی چین اولین ربات انسان‌نمای نظافت‌گر هتل را رونمایی کرد + فیلم آیا XChat همان‌قدر که ایلان ماسک ادعا می‌کند امنیت دارد؟ نامه وزارت اقتصاد به رئیس‌جمهور درباره ممنوعیت همکاری داروخانه‌ها با پلتفرم‌های توزیع دارو مایکروسافت قوانین ویندوز ۱۱ برای پورت‌های USB-C را تغییر داد بهرام عکاشه، نخستین استاد زلزله‌شناسی ایران درگذشت NotebookLM: ده نکته طلایی برای استادشدن در ابزار قدرتمند گوگل + راهنما به‌زودی امکان پرداخت با ریال دیجیتال در فروشگاه‌های اینترنتی فراهم می‌شود
سرخط خبرها

ترسناک‌ترین و انکارناپذیرترین واقعیت مدل‌های هوش مصنوعی چیست؟

  • کد خبر: ۳۳۷۵۸۳
  • ۱۹ خرداد ۱۴۰۴ - ۱۹:۰۴
ترسناک‌ترین و انکارناپذیرترین واقعیت مدل‌های هوش مصنوعی چیست؟
وحشیانه‌ترین، ترسناک‌ترین و انکارناپذیرترین حقیقت درباره مدل‌های زبان بزرگ (LLM) هوش مصنوعی این است که شرکت‌های سازنده آن‌ها دقیقاً نمی‌دانند که این مدل‌ها چرا و چگونه کار می‌کنند.

شهرآرانیوز؛ لحظه‌ای به این موضوع فکر کنید: قدرتمندترین شرکت‌های هوش فراانسانی، که خودشان به راحتی اعتراف می‌کنند گاهی سرکش شده و چیز‌هایی از خود می‌سازد یا حتی کاربرانشان را تهدید می‌کند، نمی‌دانند چرا ماشین‌هایشان بعضی کارها را انجام می‌دهند.

چرا این موضوع اهمیت دارد: چون شرکت‌های بزرگ صد‌ها میلیارد دلار برای به وجود آوردن هوش فراانسانی هزینه می‌کنند و جهان هیچ کاری برای کُند کردن یا نظارت بر آن‌ها انجام نمی‌دهد.

هیچ‌یک از شرکت‌های هوش مصنوعی این موضوع را انکار نمی‌کنند. آن‌ها از این راز شگفت‌زده شده‌اند و به طور علنی در مورد آن صحبت می‌کنند. آن‌ها دیوانه‌وار در تلاشند آن را بهتر درک کنند و استدلال می‌کنند که برای مهار یا اعتماد به یک فناوری، نیازی به درک کامل آن نیست.

دو سال پیش، اسکات روزنبرگ، دبیر تحریریه فناوری اکسیوس (Axios)، در مقاله‌ای با عنوان «ترسناک‌ترین راز هوش مصنوعی» نوشت که این یک واقعیت است که تولیدکنندگان همیشه نمی‌توانند رفتار سیستم‌های خود را توضیح دهند یا پیش‌بینی کنند؛ و این موضوع امروز بیش از هر زمان دیگری صادق است.

با این حال، هیچ نشانه‌ای وجود ندارد که دولت، شرکت‌ها یا عموم مردم خواستار درک عمیق‌تر — یا بررسی دقیق‌تر — ساخت فناوری‌ای با قابلیت‌های فراتر از درک انسانی باشند. آن‌ها متقاعد شده‌اند که رقابت برای پیشی‌گرفتن از چین در پیشرفته‌ترین مدل‌های زبان بزرگ، ارزش ریسک این «ناشناخته بزرگ» را دارد.

مجلس نمایندگان آمریکا، با وجود اطلاعات بسیار کم درباره هوش مصنوعی، متنی را در لایحه ترامپ گنجانده است که ایالت‌ها و مقامات محلی را به مدت ۱۰ سال از وضع هرگونه مقرراتی برای هوش مصنوعی منع می‌کند. سنا در حال بررسی محدودیت‌هایی برای این ماده است.

نه شرکت‌های هوش مصنوعی و نه کنگره آمریکا، قدرت هوش مصنوعی را در یک سال آینده درک نمی‌کنند، چه رسد به یک دهه آینده.

آیا سازندگان مدل‌های هوش مصنوعی واقعا از سازوکار مخلوقاتشان آگاه هستند؟

 هدف ما هشداردادن یا «تقدیرگرایی منفی» نیست، بلکه توضیح این است که چرا کارکرد‌های درونی مدل‌های هوش فراانسانی، حتی برای خالقان این فناوری، یک جعبه سیاه است. ما همچنین، با استفاده از کلمات خودشان، نشان خواهیم داد که چگونه مدیران و بنیان‌گذاران بزرگترین شرکت‌های هوش مصنوعی همگی موافقند که این یک جعبه سیاه است.

بیایید با یک مرور کلی بر نحوه کار مدل‌های زبان بزرگ شروع کنیم تا این «ناشناخته بزرگ» را بهتر توضیح دهیم:

مدل‌های زبان بزرگ — از جمله ChatGPT از OpenAI، Claude از Anthropic و Gemini از Google — سیستم‌های نرم‌افزاری سنتی _ مانند مایکروسافت ورد (Microsoft Word) _  نیستند که از دستورالعمل‌های واضح و نوشته‌شده توسط انسان پیروی کنند. در مورد ورد، این نرم‌افزار دقیقاً همان کاری را انجام می‌دهد که برای آن مهندسی شده است.

در عوض، مدل‌های زبان بزرگ شبکه‌های عصبی عظیمی — مانند یک مغز — هستند که مقادیر انبوهی از اطلاعات (بخش بزرگی از اینترنت) را دریافت می‌کنند تا یاد بگیرند چگونه پاسخ تولید کنند. مهندسان می‌دانند چه چیزی را به حرکت در می‌آورند و از چه منابع داده‌ای استفاده می‌کنند. اما اندازه مدل زبان بزرگ به این معناست که حتی متخصصان هم نمی‌توانند دقیقاً توضیح دهند که چرا هوش مصنوعی تصمیم می‌گیرد فلان چیز را بگوید.

ما از ChatGPT خواستیم این موضوع را توضیح دهد (و یک انسان در OpenAI صحت آن را تأیید کرد): «ما می‌توانیم خروجی یک مدل زبان بزرگ را مشاهده کنیم، اما فرآیندی که طی آن در مورد یک پاسخ تصمیم‌گیری می‌کند تا حد زیادی مبهم است. همانطور که محققان OpenAI به صراحت بیان کرده‌اند، "ما هنوز توضیحات قابل‌فهمی درباره اینکه چرا هوش مصنوعی خروجی‌های خاصی تولید می‌کند، نداریم."»

ChatGPT ادامه داد: «درواقع، OpenAI اعتراف کرد که وقتی معماری مدل خود را در GPT-۴ تغییر دادند، "تحقیقات بیشتری لازم است" تا بفهمند چرا برخی نسخه‌ها بیشتر از نسخه‌های قبلی شروع به توهم‌زایی (hallucinating) کردند — یک رفتار غافلگیرکننده و ناخواسته که حتی خالقان آن نیز نتوانستند به طور کامل آن را تشخیص دهند.»

شرکت Anthropic — که به تازگی Claude ۴، آخرین مدل از LLM خود را با هیاهوی فراوان منتشر کرده است — اعتراف کرد که مطمئن نیست چرا Claude، هنگامی که در طول آزمایش‌های ایمنی به ایمیل‌های ساختگی دسترسی پیدا کرد، یک مهندس را به خاطر یک رابطه خارج از ازدواج فرضی، به باج‌گیری تهدید کرد. این بخشی از آزمایش ایمنی مسئولانه بود، اما Anthropic نمی‌تواند به طور کامل این اقدام غیرمسئولانه را توضیح دهد.

دوباره، لحظه‌ای به این موضوع فکر کنید: این شرکت نمی‌داند چرا ماشینش سرکش و مخرب شده است؛ و در حقیقت، خالقان واقعاً نمی‌دانند که این مدل‌ها چقدر می‌توانند هوشمند یا مستقل شوند. Anthropic حتی گفت که Claude ۴ به قدری قدرتمند است که خطر بیشتری برای استفاده در توسعه سلاح‌های هسته‌ای یا شیمیایی ایجاد می‌کند.

سم آلتمن از OpenAI و دیگران از کلمه ملایم «تفسیرپذیری» (interpretability) برای توصیف این چالش استفاده می‌کنند. آلتمن سال گذشته در اجلاسی در ژنو گفت: «ما قطعاً مشکل تفسیرپذیری را حل نکرده‌ایم.» منظور آلتمن و دیگران این است که آن‌ها نمی‌توانند «چرا» را تفسیر کنند: چرا مدل‌های زبان بزرگ این کارها را انجام می‌دهند؟

داریو آمودی، مدیرعامل Anthropic، در مقاله‌ای در ماه آوریل با عنوان «فوریت تفسیرپذیری» هشدار داد: «افراد خارج از این حوزه اغلب با شنیدن اینکه ما نمی‌فهمیم ساخته‌های هوش مصنوعی خودمان چگونه کار می‌کنند، شگفت‌زده و نگران می‌شوند. آن‌ها حق دارند نگران باشند: این عدم درک اساساً در تاریخ فناوری بی‌سابقه است.» آمودی این را یک خطر جدی برای بشریت خوانده است. با این حال شرکت او همچنان به مدل‌های قدرتمندتری که به قابلیت‌های فراانسانی نزدیک می‌شوند، می‌بالد.

Anthropic سال‌هاست که موضوع تفسیرپذیری را مطالعه می‌کند و آمودی به صراحت در مورد اهمیت حل آن هشدار داده است. Anthropic در بیانیه‌ای گفته است: «درک نحوه کار هوش مصنوعی یک مسئله فوری برای حل کردن است. این موضوع برای استقرار مدل‌های هوش مصنوعی ایمن و آزادسازی پتانسیل کامل [هوش مصنوعی] در تسریع اکتشافات علمی و توسعه فناوری، امری محوری است. ما یک تیم تحقیقاتی متمرکز بر حل این مسئله داریم و آن‌ها گام‌های مهمی در پیشبرد درک صنعت از کارکرد‌های درونی هوش مصنوعی برداشته‌اند. بسیار حیاتی است که قبل از اینکه هوش مصنوعی اقتصاد جهانی و زندگی روزمره ما را به طور ریشه‌ای متحول کند، نحوه کار آن را درک کنیم.»

ایلان ماسک سال‌هاست هشدار می‌دهد که هوش مصنوعی یک خطر تمدنی است. به عبارت دیگر، او به معنای واقعی کلمه فکر می‌کند که این فناوری می‌تواند بشریت را نابود کند و این را به صراحت گفته است. با این حال، ماسک میلیارد‌ها دلار صرف مدل زبان بزرگ خود (Grok) می‌کند.

ماسک پاییز گذشته در ریاض عربستان گفت: «من فکر می‌کنم هوش مصنوعی یک تهدید وجودی قابل توجه است و ۱۰ تا ۲۰ درصد احتمال دارد که اوضاع خراب شود.»

آیا می‌توان مانع سرکشی هوش مصنوعی شد؟  

اپل هفته گذشته مقاله‌ای با عنوان «توهم تفکر» منتشر کرد و نتیجه گرفت که حتی پیشرفته‌ترین مدل‌های استدلال هوش مصنوعی نیز واقعاً «فکر» نمی‌کنند و هنگامی که تحت آزمون‌های استرس قرار می‌گیرند، می‌توانند شکست بخورند.

اما گزارش جدیدی از محققان هوش مصنوعی، از جمله کارمندان سابق OpenAI، با عنوان «هوش مصنوعی ۲۰۲۷»، توضیح می‌دهد که چگونه این «ناشناخته بزرگ» می‌تواند در تئوری، در کمتر از دو سال فاجعه‌بار شود. این گزارش طولانی و اغلب برای خوانندگان عادی بیش از حد فنی است. این گزارش کاملاً نظری است و براساس داده‌های فعلی در مورد سرعت بهبود مدل‌ها ساخته شده است. 

این گزارش این باور — یا ترس — را به تصویر می‌کشد که مدل‌های زبان بزرگ ممکن است روزی برای خودشان فکر کنند و شروع به عمل مستقل کنند. هدف ما هشدار دادن یا ایجاد وحشت نیست. بلکه، شما باید بدانید که افرادی که این مدل‌ها را می‌سازند، بی‌وقفه در مورد چه چیزی صحبت می‌کنند.

محققان در تمام این شرکت‌ها نگرانند که مدل‌های زبان بزرگ، چون ما آن‌ها را به طور کامل درک نمی‌کنیم، می‌توانند از خالقان انسانی خود پیشی بگیرند و سرکش شوند. در گزارش «هوش مصنوعی ۲۰۲۷»، نویسندگان هشدار می‌دهند که رقابت با چین، مدل‌های زبان بزرگ را به طور بالقوه فراتر از کنترل انسان سوق خواهد داد، زیرا هیچ‌کس نمی‌خواهد پیشرفت را کُند کند، حتی اگر نشانه‌هایی از خطر حاد ببیند.

نظریه فرود ایمن: سوندار پیچای از گوگل — و در واقع تمام مدیران شرکت‌های بزرگ هوش مصنوعی — استدلال می‌کنند که انسان‌ها یاد خواهند گرفت که چگونگی کار این ماشین‌ها را بهتر درک کنند و راه‌های هوشمندانه، هرچند هنوز ناشناخته، برای کنترل آن‌ها و «بهبود زندگی» بیابند. همه این شرکت‌ها تیم‌های بزرگ تحقیق و ایمنی برای مهار این فناوری‌ها دارند.

به هر حال، هیچ‌کس به ماشینی که چیز‌هایی از خود می‌سازد یا آن‌ها را تهدید می‌کند، اعتماد نخواهد کرد. اما، تا امروز، آن‌ها هر دو کار را انجام می‌دهند — و هیچ‌کس نمی‌داند چرا.

گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->