• هوش مصنوعی عرصه زورآزمایی نیست!

      هوش مصنوعی عرصه زورآزمایی نیست!

      هوش مصنوعی عرصه زورآزمایی نیست!

      دایره اموری که هوش مصنوعی از پسِ آن‌ها برنمی‌آید، روز به روز در حال کوچک­تر شدن است. ماشین‌ها اکنون می‌توانند متون زیبا و کدهای مفید بنویسند، آزمون‌ها را به بهترین شکل پشت سر بگذارند، هنرهای والا خلق کنند، و ساختارهای پروتئینی را پیش‌بینی کنند.

      کارشناسان وحشت زده شده اند. تابستان گذشته با بیش از 550 محقق هوش مصنوعی مصاحبه کردم، که تقریباً نیمی از آن‌ها بر این باور بودند که هوش ماشینی سطح بالا – اگر ساخته شود – به نتایجی منجر می‌شود که که دست‌کم به احتمالِ 10 درصد «بسیار بد» خواهند بود (یعنی چیزی در حد انقراض انسان). در 30 می (2023)، صدها دانشمند هوش مصنوعی، همراه با مدیران عامل آزمایشگاه‌های برتر هوش مصنوعی مانند اوپن­اِی­آی[1]، دیپ­مایند[2] و آنثروفیک[3] بیانیه‌ای را امضا کرده و خواستار احتیاط در مورد هوش مصنوعی شدند: «کاهش خطر انقراض [انسان] در اثر هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات کلان مقیاس که جامعه بشری را تهدید می‌کنند – مانند همه‌گیری و جنگ هسته‌ای – باشد».

      چرا چنین فکر کنیم؟ ساده‌ترین استدلال این است که پیشرفت در هوش مصنوعی می‌تواند منجر به ایجاد «افراد مصنوعیِ»[4] هوشمند و فرا‌–انسانی شود که اهداف­شان با منافع بشریت – و توانایی پیگیری مستقل آنها – در تضاد است. بعبارت دیگر، موجود [تازه‌ای] را در نظر بگیرید که برای انسان خردمند[5] همان جایگاهی را دارد که انسان خردمند برای شامپانزه‌ها داشته است.
      با این حال، در حالی که بسیاری از این نگرانند که هوش مصنوعی می­تواند به معنای پایان بشریت باشد، برخی نگران هستند که اگر «ما» – که معمولاً به معنای محققان در غرب یا حتی محققان در یک آزمایشگاه یا شرکت خاص استفاده می­شود – به جلو حرکت نکنیم، کسی که مسئولیت کمتری دارد این کار را انجام خواهد داد. اگر یک آزمایشگاه ایمن‌تر متوقف شود، آینده ما ممکن است در دست یک آزمایشگاه بی‌احتیاط‌تر باشد – برای مثال، آزمایشگاهی در چین که اهتمامی به اجتناب از خطرات جدی ندارد.
      این استدلال وضعیت هوش مصنوعی را به یک زورآزماییِ نظامیِ کلاسیک شبیه می‌کند. فرض کنید من می‌خواهم شما را در جنگ شکست دهم. ما هر دو پول خرج می‌کنیم تا سلاح های بیشتری بسازیم، اما بدون اینکه کسی مزیت نسبی به دست آورد. در نهایت، ما پول زیادی خرج کردیم و به جایی نرسیدیم. ممکن است احمقانه به نظر برسد، اما اگر یکی از ما مسابقه ندهد، شکست می‌خوریم. [و به این ترتیب] ما گرفتار شده ایم.
      اما وضعیت هوش مصنوعی از جنبه­های مهمی متفاوت است. نکته قابل توجه، در مسابقه تسلیحاتی کلاسیک این است که، یک طرف همیشه می تواند از نظر تئوری پیشروی کرده و برنده شود. اما در حوزه هوش مصنوعی، برنده ممکن است خود هوش مصنوعی پیشرفته باشد. این [رقابت] ممکن است نتیجه‌ای جز تسریعِ شکستِ خویشتن نداشته باشد.
      سایر عوامل تغییردهنده بازی در هوش مصنوعی عبارتند از اینکه: چه میزان ایمنی با سرعت کمتر [در حرکت به سوی هوش مصنوعی] به دست می‌آید؟ سرمایه‌گذاری‌های ایمنی یک طرف چقدر خطر را برای همه طرف­ها کاهش می‌دهد؟ آیا دوم شدن به معنای ضرری کوچک یا فاجعه­ای بزرگ است؟ اگر طرف­های دیگر سرعت خود را افزایش دهند، چقدر خطر افزایش می­یابد؟ و اینکه پاسخ دیگران چگونه خواهد بود؟
      صحنه واقعی پیچیده‌تر از آن چیزی است که مدل­های ساده پیشنهاد می­کنند. به ویژه، اگر انگیزه‌های فردی و ناهماهنگ منجر به وضعیت نامناسبی شود که با «زورآزمایی» توصیف شده است: «حرکت برنده، در صورت امکان، ترک بازی است». و در دنیای واقعی، ما می توانیم راه خود را برای خروج از چنین تله­هایی هماهنگ کنیم: می­توانیم با یکدیگر صحبت کنیم. ما می­توانیم تعهداتی را داده و پایبندی به آنها را بررسی کنیم. ما می‌توانیم با دولت‌ها برای تنظیم مقررات و توافق‌نامه‌ها لابی کنیم.
      در جهان هوش مصنوعی، بازده برای یک بازیکن معین می‌تواند متفاوت از بازده برای کل جامعه باشد. برای بسیاری از ما، شاید مهم نباشد که متا، مایکروسافت را شکست دهد. اما محققان و سرمایه‌گذارانی که به دنبال شهرت و ثروت هستند ممکن است بسیار بیشتر اهمیت دهند. صحبت در مورد هوش مصنوعی به عنوان یک مسابقه تسلیحاتی این روایت را تقویت می‌کند که آن‌ها نیاز دارند که به دنبال منافع خود باشند. بقیه ما باید مراقب باشیم که آنها کسانی باشند که تصمیم گیرنده‌اند.
      مثال بهتری برای مقایسه هوش مصنوعی با مسابقه زورآزمایی را می‌توان در جمعیتی یافت که روی قطعه‌یخِ نازکی ایستاده‌اند، و ثروت فراوانی در ساحلی دوردست قرار دارد. اگر آنها با دقت قدم بردارند، همگی می‌توانند به آن ثروت دست یابند، اما یک نفر فکر می‌کند: «اگر من به سرعت بدوم، ممکن است یخ بشکند و همه ما غرق شویم، اما شرط می‌بندم که می‌توانم با دقت بیشتری نسبت به بغل‌دستی‌ام بدوَم، و از طرفی او هم ممکن است سریع بدود».

      در عرصه هوش مصنوعی، ما می‌توانیم دقیقاً برعکس یک مسابقه عمل کنیم. بهترین اقدام فردی می­تواند حرکت آهسته و محتاطانه باشد. و در مجموع، ما نباید به مردم اجازه دهیم که دنیا را در یک رقابت ناسالم به ورطه نابودی بکشانند – به‌خصوص در شرایطی که تا کنون اقدام خاصی برای طراحی نقشه فرار و راهِ خروج‌مان انجام نداده‌ایم.

      نویسنده: کاتیا گریس[6] | 31 می 2023
      مترجم: نعمت الله نوری
      گروه مطالعات فرهنگی و اجتماعی پژوهشگاه فضای مجازی


      [1] OpenAI
      [2] DeepMind
      [3] Anthropic
      [4] artificial people
      [5] homo sapiens
      [6] Katja Grace: گریس محقق اصلی پروژه «تاثیرات هوش مصنوعی» است؛ پروژه‌ای مرتبط با ایمنی هوش مصنوعی در موسسه تحقیقاتی غیرانتفاعی هوش ماشینی.
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir