شهرآرانیوز؛ لحظهای به این موضوع فکر کنید: قدرتمندترین شرکتهای هوش فراانسانی، که خودشان به راحتی اعتراف میکنند گاهی سرکش شده و چیزهایی از خود میسازد یا حتی کاربرانشان را تهدید میکند، نمیدانند چرا ماشینهایشان بعضی کارها را انجام میدهند.
چرا این موضوع اهمیت دارد: چون شرکتهای بزرگ صدها میلیارد دلار برای به وجود آوردن هوش فراانسانی هزینه میکنند و جهان هیچ کاری برای کُند کردن یا نظارت بر آنها انجام نمیدهد.
هیچیک از شرکتهای هوش مصنوعی این موضوع را انکار نمیکنند. آنها از این راز شگفتزده شدهاند و به طور علنی در مورد آن صحبت میکنند. آنها دیوانهوار در تلاشند آن را بهتر درک کنند و استدلال میکنند که برای مهار یا اعتماد به یک فناوری، نیازی به درک کامل آن نیست.
دو سال پیش، اسکات روزنبرگ، دبیر تحریریه فناوری اکسیوس (Axios)، در مقالهای با عنوان «ترسناکترین راز هوش مصنوعی» نوشت که این یک واقعیت است که تولیدکنندگان همیشه نمیتوانند رفتار سیستمهای خود را توضیح دهند یا پیشبینی کنند؛ و این موضوع امروز بیش از هر زمان دیگری صادق است.
با این حال، هیچ نشانهای وجود ندارد که دولت، شرکتها یا عموم مردم خواستار درک عمیقتر — یا بررسی دقیقتر — ساخت فناوریای با قابلیتهای فراتر از درک انسانی باشند. آنها متقاعد شدهاند که رقابت برای پیشیگرفتن از چین در پیشرفتهترین مدلهای زبان بزرگ، ارزش ریسک این «ناشناخته بزرگ» را دارد.
مجلس نمایندگان آمریکا، با وجود اطلاعات بسیار کم درباره هوش مصنوعی، متنی را در لایحه ترامپ گنجانده است که ایالتها و مقامات محلی را به مدت ۱۰ سال از وضع هرگونه مقرراتی برای هوش مصنوعی منع میکند. سنا در حال بررسی محدودیتهایی برای این ماده است.
نه شرکتهای هوش مصنوعی و نه کنگره آمریکا، قدرت هوش مصنوعی را در یک سال آینده درک نمیکنند، چه رسد به یک دهه آینده.
هدف ما هشداردادن یا «تقدیرگرایی منفی» نیست، بلکه توضیح این است که چرا کارکردهای درونی مدلهای هوش فراانسانی، حتی برای خالقان این فناوری، یک جعبه سیاه است. ما همچنین، با استفاده از کلمات خودشان، نشان خواهیم داد که چگونه مدیران و بنیانگذاران بزرگترین شرکتهای هوش مصنوعی همگی موافقند که این یک جعبه سیاه است.
بیایید با یک مرور کلی بر نحوه کار مدلهای زبان بزرگ شروع کنیم تا این «ناشناخته بزرگ» را بهتر توضیح دهیم:
مدلهای زبان بزرگ — از جمله ChatGPT از OpenAI، Claude از Anthropic و Gemini از Google — سیستمهای نرمافزاری سنتی _ مانند مایکروسافت ورد (Microsoft Word) _ نیستند که از دستورالعملهای واضح و نوشتهشده توسط انسان پیروی کنند. در مورد ورد، این نرمافزار دقیقاً همان کاری را انجام میدهد که برای آن مهندسی شده است.
در عوض، مدلهای زبان بزرگ شبکههای عصبی عظیمی — مانند یک مغز — هستند که مقادیر انبوهی از اطلاعات (بخش بزرگی از اینترنت) را دریافت میکنند تا یاد بگیرند چگونه پاسخ تولید کنند. مهندسان میدانند چه چیزی را به حرکت در میآورند و از چه منابع دادهای استفاده میکنند. اما اندازه مدل زبان بزرگ به این معناست که حتی متخصصان هم نمیتوانند دقیقاً توضیح دهند که چرا هوش مصنوعی تصمیم میگیرد فلان چیز را بگوید.
ما از ChatGPT خواستیم این موضوع را توضیح دهد (و یک انسان در OpenAI صحت آن را تأیید کرد): «ما میتوانیم خروجی یک مدل زبان بزرگ را مشاهده کنیم، اما فرآیندی که طی آن در مورد یک پاسخ تصمیمگیری میکند تا حد زیادی مبهم است. همانطور که محققان OpenAI به صراحت بیان کردهاند، "ما هنوز توضیحات قابلفهمی درباره اینکه چرا هوش مصنوعی خروجیهای خاصی تولید میکند، نداریم."»
ChatGPT ادامه داد: «درواقع، OpenAI اعتراف کرد که وقتی معماری مدل خود را در GPT-۴ تغییر دادند، "تحقیقات بیشتری لازم است" تا بفهمند چرا برخی نسخهها بیشتر از نسخههای قبلی شروع به توهمزایی (hallucinating) کردند — یک رفتار غافلگیرکننده و ناخواسته که حتی خالقان آن نیز نتوانستند به طور کامل آن را تشخیص دهند.»
شرکت Anthropic — که به تازگی Claude ۴، آخرین مدل از LLM خود را با هیاهوی فراوان منتشر کرده است — اعتراف کرد که مطمئن نیست چرا Claude، هنگامی که در طول آزمایشهای ایمنی به ایمیلهای ساختگی دسترسی پیدا کرد، یک مهندس را به خاطر یک رابطه خارج از ازدواج فرضی، به باجگیری تهدید کرد. این بخشی از آزمایش ایمنی مسئولانه بود، اما Anthropic نمیتواند به طور کامل این اقدام غیرمسئولانه را توضیح دهد.
دوباره، لحظهای به این موضوع فکر کنید: این شرکت نمیداند چرا ماشینش سرکش و مخرب شده است؛ و در حقیقت، خالقان واقعاً نمیدانند که این مدلها چقدر میتوانند هوشمند یا مستقل شوند. Anthropic حتی گفت که Claude ۴ به قدری قدرتمند است که خطر بیشتری برای استفاده در توسعه سلاحهای هستهای یا شیمیایی ایجاد میکند.
سم آلتمن از OpenAI و دیگران از کلمه ملایم «تفسیرپذیری» (interpretability) برای توصیف این چالش استفاده میکنند. آلتمن سال گذشته در اجلاسی در ژنو گفت: «ما قطعاً مشکل تفسیرپذیری را حل نکردهایم.» منظور آلتمن و دیگران این است که آنها نمیتوانند «چرا» را تفسیر کنند: چرا مدلهای زبان بزرگ این کارها را انجام میدهند؟
داریو آمودی، مدیرعامل Anthropic، در مقالهای در ماه آوریل با عنوان «فوریت تفسیرپذیری» هشدار داد: «افراد خارج از این حوزه اغلب با شنیدن اینکه ما نمیفهمیم ساختههای هوش مصنوعی خودمان چگونه کار میکنند، شگفتزده و نگران میشوند. آنها حق دارند نگران باشند: این عدم درک اساساً در تاریخ فناوری بیسابقه است.» آمودی این را یک خطر جدی برای بشریت خوانده است. با این حال شرکت او همچنان به مدلهای قدرتمندتری که به قابلیتهای فراانسانی نزدیک میشوند، میبالد.
Anthropic سالهاست که موضوع تفسیرپذیری را مطالعه میکند و آمودی به صراحت در مورد اهمیت حل آن هشدار داده است. Anthropic در بیانیهای گفته است: «درک نحوه کار هوش مصنوعی یک مسئله فوری برای حل کردن است. این موضوع برای استقرار مدلهای هوش مصنوعی ایمن و آزادسازی پتانسیل کامل [هوش مصنوعی] در تسریع اکتشافات علمی و توسعه فناوری، امری محوری است. ما یک تیم تحقیقاتی متمرکز بر حل این مسئله داریم و آنها گامهای مهمی در پیشبرد درک صنعت از کارکردهای درونی هوش مصنوعی برداشتهاند. بسیار حیاتی است که قبل از اینکه هوش مصنوعی اقتصاد جهانی و زندگی روزمره ما را به طور ریشهای متحول کند، نحوه کار آن را درک کنیم.»
ایلان ماسک سالهاست هشدار میدهد که هوش مصنوعی یک خطر تمدنی است. به عبارت دیگر، او به معنای واقعی کلمه فکر میکند که این فناوری میتواند بشریت را نابود کند و این را به صراحت گفته است. با این حال، ماسک میلیاردها دلار صرف مدل زبان بزرگ خود (Grok) میکند.
ماسک پاییز گذشته در ریاض عربستان گفت: «من فکر میکنم هوش مصنوعی یک تهدید وجودی قابل توجه است و ۱۰ تا ۲۰ درصد احتمال دارد که اوضاع خراب شود.»
اپل هفته گذشته مقالهای با عنوان «توهم تفکر» منتشر کرد و نتیجه گرفت که حتی پیشرفتهترین مدلهای استدلال هوش مصنوعی نیز واقعاً «فکر» نمیکنند و هنگامی که تحت آزمونهای استرس قرار میگیرند، میتوانند شکست بخورند.
اما گزارش جدیدی از محققان هوش مصنوعی، از جمله کارمندان سابق OpenAI، با عنوان «هوش مصنوعی ۲۰۲۷»، توضیح میدهد که چگونه این «ناشناخته بزرگ» میتواند در تئوری، در کمتر از دو سال فاجعهبار شود. این گزارش طولانی و اغلب برای خوانندگان عادی بیش از حد فنی است. این گزارش کاملاً نظری است و براساس دادههای فعلی در مورد سرعت بهبود مدلها ساخته شده است.
این گزارش این باور — یا ترس — را به تصویر میکشد که مدلهای زبان بزرگ ممکن است روزی برای خودشان فکر کنند و شروع به عمل مستقل کنند. هدف ما هشدار دادن یا ایجاد وحشت نیست. بلکه، شما باید بدانید که افرادی که این مدلها را میسازند، بیوقفه در مورد چه چیزی صحبت میکنند.
محققان در تمام این شرکتها نگرانند که مدلهای زبان بزرگ، چون ما آنها را به طور کامل درک نمیکنیم، میتوانند از خالقان انسانی خود پیشی بگیرند و سرکش شوند. در گزارش «هوش مصنوعی ۲۰۲۷»، نویسندگان هشدار میدهند که رقابت با چین، مدلهای زبان بزرگ را به طور بالقوه فراتر از کنترل انسان سوق خواهد داد، زیرا هیچکس نمیخواهد پیشرفت را کُند کند، حتی اگر نشانههایی از خطر حاد ببیند.
نظریه فرود ایمن: سوندار پیچای از گوگل — و در واقع تمام مدیران شرکتهای بزرگ هوش مصنوعی — استدلال میکنند که انسانها یاد خواهند گرفت که چگونگی کار این ماشینها را بهتر درک کنند و راههای هوشمندانه، هرچند هنوز ناشناخته، برای کنترل آنها و «بهبود زندگی» بیابند. همه این شرکتها تیمهای بزرگ تحقیق و ایمنی برای مهار این فناوریها دارند.
به هر حال، هیچکس به ماشینی که چیزهایی از خود میسازد یا آنها را تهدید میکند، اعتماد نخواهد کرد. اما، تا امروز، آنها هر دو کار را انجام میدهند — و هیچکس نمیداند چرا.