دایره اموری که هوش مصنوعی از پسِ آنها برنمیآید، روز به روز در حال کوچکتر شدن است. ماشینها اکنون میتوانند متون زیبا و کدهای مفید بنویسند، آزمونها را به بهترین شکل پشت سر بگذارند، هنرهای والا خلق کنند، و ساختارهای پروتئینی را پیشبینی کنند.
کارشناسان وحشت زده شده اند. تابستان گذشته با بیش از 550 محقق هوش مصنوعی مصاحبه کردم، که تقریباً نیمی از آنها بر این باور بودند که هوش ماشینی سطح بالا – اگر ساخته شود – به نتایجی منجر میشود که که دستکم به احتمالِ 10 درصد «بسیار بد» خواهند بود (یعنی چیزی در حد انقراض انسان). در 30 می (2023)، صدها دانشمند هوش مصنوعی، همراه با مدیران عامل آزمایشگاههای برتر هوش مصنوعی مانند اوپناِیآی[1]، دیپمایند[2] و آنثروفیک[3] بیانیهای را امضا کرده و خواستار احتیاط در مورد هوش مصنوعی شدند: «کاهش خطر انقراض [انسان] در اثر هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات کلان مقیاس که جامعه بشری را تهدید میکنند – مانند همهگیری و جنگ هستهای – باشد».
چرا چنین فکر کنیم؟ سادهترین استدلال این است که پیشرفت در هوش مصنوعی میتواند منجر به ایجاد «افراد مصنوعیِ»
[4] هوشمند و فرا–انسانی شود که اهدافشان با منافع بشریت – و توانایی پیگیری مستقل آنها – در تضاد است. بعبارت دیگر، موجود [تازهای] را در نظر بگیرید که برای انسان خردمند
[5] همان جایگاهی را دارد که انسان خردمند برای شامپانزهها داشته است.
با این حال، در حالی که بسیاری از این نگرانند که هوش مصنوعی میتواند به معنای پایان بشریت باشد، برخی نگران هستند که اگر «ما» – که معمولاً به معنای محققان در غرب یا حتی محققان در یک آزمایشگاه یا شرکت خاص استفاده میشود – به جلو حرکت نکنیم، کسی که مسئولیت کمتری دارد این کار را انجام خواهد داد. اگر یک آزمایشگاه ایمنتر متوقف شود، آینده ما ممکن است در دست یک آزمایشگاه بیاحتیاطتر باشد – برای مثال، آزمایشگاهی در چین که اهتمامی به اجتناب از خطرات جدی ندارد.
این استدلال وضعیت هوش مصنوعی را به یک زورآزماییِ نظامیِ کلاسیک شبیه میکند. فرض کنید من میخواهم شما را در جنگ شکست دهم. ما هر دو پول خرج میکنیم تا سلاح های بیشتری بسازیم، اما بدون اینکه کسی مزیت نسبی به دست آورد. در نهایت، ما پول زیادی خرج کردیم و به جایی نرسیدیم. ممکن است احمقانه به نظر برسد، اما اگر یکی از ما مسابقه ندهد، شکست میخوریم. [و به این ترتیب] ما گرفتار شده ایم.
اما وضعیت هوش مصنوعی از جنبههای مهمی متفاوت است. نکته قابل توجه، در مسابقه تسلیحاتی کلاسیک این است که، یک طرف همیشه می تواند از نظر تئوری پیشروی کرده و برنده شود. اما در حوزه هوش مصنوعی، برنده ممکن است خود هوش مصنوعی پیشرفته باشد. این [رقابت] ممکن است نتیجهای جز تسریعِ شکستِ خویشتن نداشته باشد.
سایر عوامل تغییردهنده بازی در هوش مصنوعی عبارتند از اینکه: چه میزان ایمنی با سرعت کمتر [در حرکت به سوی هوش مصنوعی] به دست میآید؟ سرمایهگذاریهای ایمنی یک طرف چقدر خطر را برای همه طرفها کاهش میدهد؟ آیا دوم شدن به معنای ضرری کوچک یا فاجعهای بزرگ است؟ اگر طرفهای دیگر سرعت خود را افزایش دهند، چقدر خطر افزایش مییابد؟ و اینکه پاسخ دیگران چگونه خواهد بود؟
صحنه واقعی پیچیدهتر از آن چیزی است که مدلهای ساده پیشنهاد میکنند. به ویژه، اگر انگیزههای فردی و ناهماهنگ منجر به وضعیت نامناسبی شود که با «زورآزمایی» توصیف شده است: «حرکت برنده، در صورت امکان، ترک بازی است». و در دنیای واقعی، ما می توانیم راه خود را برای خروج از چنین تلههایی هماهنگ کنیم: میتوانیم با یکدیگر صحبت کنیم. ما میتوانیم تعهداتی را داده و پایبندی به آنها را بررسی کنیم. ما میتوانیم با دولتها برای تنظیم مقررات و توافقنامهها لابی کنیم
.
در جهان هوش مصنوعی، بازده برای یک بازیکن معین میتواند متفاوت از بازده برای کل جامعه باشد. برای بسیاری از ما، شاید مهم نباشد که متا، مایکروسافت را شکست دهد. اما محققان و سرمایهگذارانی که به دنبال شهرت و ثروت هستند ممکن است بسیار بیشتر اهمیت دهند. صحبت در مورد هوش مصنوعی به عنوان یک مسابقه تسلیحاتی این روایت را تقویت میکند که آنها نیاز دارند که به دنبال منافع خود باشند. بقیه ما باید مراقب باشیم که آنها کسانی باشند که تصمیم گیرندهاند.
مثال بهتری برای مقایسه هوش مصنوعی با مسابقه زورآزمایی را میتوان در جمعیتی یافت که روی قطعهیخِ نازکی ایستادهاند، و ثروت فراوانی در ساحلی دوردست قرار دارد. اگر آنها با دقت قدم بردارند، همگی میتوانند به آن ثروت دست یابند، اما یک نفر فکر میکند: «اگر من به سرعت بدوم، ممکن است یخ بشکند و همه ما غرق شویم، اما شرط میبندم که میتوانم با دقت بیشتری نسبت به بغلدستیام بدوَم، و از طرفی او هم ممکن است سریع بدود».
در عرصه هوش مصنوعی، ما میتوانیم دقیقاً برعکس یک مسابقه عمل کنیم. بهترین اقدام فردی میتواند حرکت آهسته و محتاطانه باشد. و در مجموع، ما نباید به مردم اجازه دهیم که دنیا را در یک رقابت ناسالم به ورطه نابودی بکشانند – بهخصوص در شرایطی که تا کنون اقدام خاصی برای طراحی نقشه فرار و راهِ خروجمان انجام ندادهایم.
نویسنده: کاتیا گریس[6] | 31 می 2023
مترجم: نعمت الله نوری
گروه مطالعات فرهنگی و اجتماعی پژوهشگاه فضای مجازی
[6] Katja Grace: گریس محقق اصلی پروژه «تاثیرات هوش مصنوعی» است؛ پروژهای مرتبط با ایمنی هوش مصنوعی در موسسه تحقیقاتی غیرانتفاعی هوش ماشینی.