• سیاست‌گذاری هوش مصنوعی عمومی

      سیاست‌گذاری هوش مصنوعی عمومی

      سیاست‌گذاری هوش مصنوعی عمومی

      به‌طور کلی سیاست هوش مصنوعی عمومی را می‌توان تلاش برای تأثیر بر روی تحقیق و توسعه‌ی این هدف دانست که می‌تواند شامل سیاست‌های رسمی دولت‌ها و نهادها و همچنین سیاست‌های غیررسمی افراد علاقه‌مند یا نگران، از جمله خود محققان باشد.

      هوش مصنوعی عمومی چیست؟

      از زمان پیدایش هوش مصنوعی محققان در تلاش‌اند تا به هدف و رویای اولیه‌ی هوش مصنوعی یعنی یک هوش گسترده و متناسب با هوش عمومی انسان دست پیدا کنند که به‌عنوان هوش مصنوعی عمومی (AGI[1]) شناخته می‌شود[2].

      در ابتدا (اواخر قرن بیستم) رویکردهای هوش مصنوعی مبتنی بر قاعده بودند. تمرکز این رویکردها بر روی همه‌ی راه‌حل‌های ممکن برای یک مسئله‌ی خاص بود. برخی بازی‌های رومیزی مانند شطرنج و انواع مختلف ربات‌های مورد استفاده در خطوط کارخانه، نمونه‌هایی از این نوع هوش مصنوعی مبتنی بر قاعده هستند. با گذشت زمان، دستگاه‌های تصمیم‌گیری شروع به پیشبرد این نوع رویکردها کردند. این سیستم‌ها در نهایت دریافتند که مسائل زندگی واقعی به ندرت دارای چنین ویژگی‌های خاص و مبتنی بر قاعده هستند. حتی بازی‌های رومیزی باید با بازیکنانی که تصمیمات غیرقابل پیش‌بینی می‌گیرند درگیر شوند. اگرچه سیستم تصمیم‌گیری ممکن است از برخی الگوهای مشابه سیستم‌های پیش‌بینی مبتنی بر قاعده پیروی کند، اما با محاسبه‌ی عدم قطعیت مرزهای این قوانین را گسترش داد.

      به‌طور کلی هوش مصنوعی را می‌توان به دو دسته‌ی هوش مصنوعی عمومی یا قوی، و هوش مصنوعی محدود یا ضعیف تقسیم کرد. بنابر اظهار برخی محققان، دستیابی به هوش مصنوعی عمومی ممکن است تا ده‌ها سال آینده طول بکشد. ظهور هوش مصنوعی عمومی انفجار اطلاعاتی را به همراه خواهد آورد که "منجر به تغییرات عمیق در تمدن بشری" خواهد شد. هوش مصنوعی عمومی در حال حاضر فراتر از آنچه بسیاری تصور می‌کردند، تکامل یافته‌ است و این امکان را دارد که تجربه‌ی نسل‌های آینده را به طریقی که ما هنوز نمی‌توانیم پیش‌بینی کنیم تغییر دهد.[3]

      سیستم‌های هوش مصنوعی عمومی می‌توانند دقیقاً مانند انسان برای حل مسائل در یک موقعیت خاص از هوش خود استفاده کنند و فکر، درک و یادگیری داشته باشند. قابلیت‌های انسان‌شناختی که هوش مصنوعی را به هوش مصنوعی عمومی تبدیل می‌کنند عبارت‌اند از:

      • ادراک حسی
      • مهارت‌های حرکتی دقیق
      • پردازش و درک زبان طبیعی
      • جهت‌یابی
      • حل مسئله
      • تعامل اجتماعی و عاطفی
      • خلاقیت

      به عبارت ساده‌تر، اگر هوش مصنوعی عمومی حاصل شود، ماشین‌ها قادر به درک جهان با همان ظرفیت انسانی هستند. و بر این اساس، آن‌ها می‌توانند راه‌حل‌های ممکن برای حل یک مسئله را کشف کنند[4].

      نقاط برجسته در تحقیقات هوش عمومی مصنوعی

      در این بخش به سه‌ نقطه‌ی عطف هوش مصنوعی اشاره خواهیم کرد که مورد توجه عموم قرار گرفته و نوید‌بخش تحقق هوش مصنوعی عمومی شدند.

      مورد اول رایانه IBM در بازی شطرنج Deep Blue است که در سال 1997 قهرمان جهانی شطرنج، گاری کاسپاروف را شکست داد. Deep Blue برای یک هدف خاص ساخته شده بود. اگرچه در فعالیتی که انسان برای انجام آن به هوش نیاز دارد بسیار خوب عمل کرد، اما هیچ‌کس ادعا نمی‌کند که Deep Blue به هوش عمومی دست یافته است.
      دوم رایانه IBM’s Watson است. این برنامه با هدف شرکت در مسابقه Jeopardy ساخته شد. مسابقه‌ای که در آن پاسخ‌ها به شرکت‌کنندگان داده می‌شود و قرار است آن‌ها سؤالات مناسب را پیدا کنند. این مسابقه به دانش و مهارت بسیار بیشتری از شطرنج احتیاج دارد. وظیفه‌ای که این رایانه برای انجام آن طراحی شده است حوزه‌های مختلفی مانند علوم، تاریخ، فرهنگ، جغرافیا و ورزش را در بر می‌گیرد و ممکن است حاوی مشابهت‌هایی باشد. این رقابت به دانش و سرعت نیاز دارد. واتسون با استفاده از زبان طبیعی ارتباط برقرار می‌کند. وقتی در Jeopardy شرکت کرد به اینترنت متصل نبود، اما به 200 میلیون صفحه اطلاعات دسترسی داشت. این رایانه در سال 2011 دو تن از بهترین شرکت‌کنندگان در این رقابت را شکست داد.

      سومین مورد Alphabet's AlphaGo است. Go یک بازی رومیزی است که بیش از 2000 سال پیش در چین اختراع شده است. پیچیدگی بازی حتی بیشتر از شطرنج در نظر گرفته می‌شود و میلیون‌ها نفر به‌ویژه در شرق آسیا آن را بازی می‌کنند. در سال 2016، AlphaGo قهرمان جهان Le Le Sedol را در پنج مسابقه در سئول، کره جنوبی شکست داد.AlphaGo به‌عنوان یک نقطه عطف در تحقیقات هوش مصنوعی در نظر گرفته می‌شود زیرا نمونه‌ای از کاربرد استراتژی‌ای به نام یادگیری تقویتی عمیق بود[5].

      چالش‌هایی بر سر راه هوش مصنوعی عمومی

      فراهم کردن پروتکلی برای کمک به برقراری ارتباط بین سیستم‌های هوش مصنوعی عمومی

      فقدان پروتکل ارتباطی بین سیستم‌های هوش مصنوعی عمومی باعث می‌شود هر کدام از سیستم‌ها ناگزیر به‌عنوان مدل‌های مستقل در یک محیط بسته کار کنند و چنین شیوه‌ی عملکردی کاملاً مغایر با تجربه‌ی پیچیده‌ی اجتماعی انسان است.

      شناسایی چارچوب ارزیابی تأثیر برای هوش مصنوعی عمومی

      ایجاد یک رویکرد مناسب برای ارزیابی تأثیر کلی هوش مصنوعی عمومی بر بازیگران جامعه (محققان، شهروندان، سیاست‌گذاران، تجارت، سازمان‌ها و غیره) که در کلِ فرایند تحقیق و نوآوری همکاری می‌کنند تا فرایند و نتایج آن را با ارزش‌ها، نیازها و انتظارات جامعه هماهنگ کنند.

      شبیه‌سازی استدلال انسانی

      داده‌هایی که انسان با آن‌ها استدلال می‌کند بزرگ، توزیع شده، جریانی، وابسته به مکان، زمان، فرهنگ و همچنین سرعت است. استدلال کارآمد با چنین داده‌هایی مستلزم استدلال پیشرفته و مکانیسم‌های پردازش داده است.

      آموزش بیان احساس به هوش مصنوعی

      ماشین می‌تواند آموزش ببیند که احساسات را تقلید کند اما آن را حس نکند. ماشین‌ها می‌بایست یاد بگیرند چه چیزی موجب می‌شود یک اثر در چشم انسان زیبا جلوه کند. محققان هوش مصنوعی عمومی باید مجموعه داده‌های آموزشی را در مورد آنچه انسان زیبا و خلاق می‌داند ارائه دهند.

      ایجاد رویکردهای نظارتی جهت جلوگیری از اهداف خصمانه و یا خطرات احتمالی

      هوش عمومی مصنوعی همچنان که می‌تواند عقل انسان را کامل‌تر کرده و به حل مشکلاتش کمک کند، ممکن است توسط کسانی که آن را در کنترل خود دارند با اهداف شرورانه مورد استفاده قرار بگیرد یا اینکه بشر قادر به کنترل آن نبوده و در نهایت فاجعه‌ای احتمالی در پی داشته باشد. در نظر گرفتن رویکردهای نظارتی در هنگام تحقیق و توسعه می‌تواند اهداف خصمانه را محدود کرده و یا تدابیر کنترلی را برای پیشگیری از خطر در نظر بگیرد[6] [7].

      پروژه‌های موجود هوش مصنوعی عمومی

      فیتژرالد[8] و همکاران به شناسایی پروژه‌های تحقیق و توسعه هوش مصنوعی عمومی و سپس توصیف آن‌ها در چند محور پرداخته‌اند. این شناسایی و توصیف بر اساس اطلاعاتی بوده است که به‌طور آشکار در نشریات علمی، وب‌سایت‌های پروژه، مقالات رسانه‌های مشهور و سایر وب‌سایت‌ها و انتشارات معتبر یافت شده است. در این پژوهش 72 پروژه‌ی هوش مصنوعی عمومی شناسایی شده‌اند. این پروژه‌ها از ابعاد مختلفی مورد بررسی قرار گرفته‌اند:
      • موسسه یا نهاد متولی پروژه
      از میان پروژه‌های مورد شناسایی 39 پروژه حداقل بخشی از آن در شرکت‌های خصوصی، 15 مورد بخشی از آن در مؤسسات دانشگاهی، 6 مورد در شرکت‌های دولتی، 6 مورد در سازمان‌های غیر انتفاعی، 4 مورد بخشی از آن در دولت و برای 7 مورد متولی خاصی شناسایی نشده است. 4 پروژه نیز بین دو نهاد مشترک هستند.

      پروژه‌های نسبتاً کمی وجود دارد که به صراحت در نهادهای دولتی مستقر شده‌اند. Project Brain Project و RCBII تنها پروژه‌هایی هستند که با پشتیبانی کامل دولت و هر دو در دولت چین هستند. تعداد زیادی از پروژه‌های دیگر بودجه دولتی دریافت می‌کنند که هدف آن پیشرفت پزشکی (به‌عنوان‌ مثال Blue Brain، HBP)​​، توسعه اقتصادی (به‌عنوان مثال Baidu) و فناوری نظامی (به‌عنوان مثالCyc ، Soar) بوده است.
      • متن‌باز بودن پروژه
      33 پروژه دارای کد منبع آنلاین و به‌صورت آزاد در دسترس عموم هستند. 5 پروژه در صورت درخواست کد را در دسترس قرار می‌دهند. البته برای این 38 پروژه کد موجود لزوماً کد مربوط به کل مجموعه پروژه نیست. برای 34 پروژه کد به‌صورت آنلاین یافت نمی‌شود.
      • ارتباط نظامی
      9 پروژه دارای ارتباطات نظامی قابل شناسایی شامل یک پروژه مستقر در یک موسسه دفاعی نظامی و هشت پروژه که بودجه نظامی دریافت می‌کنند هستند. حداقل بخشی از این 8 پروژه در مؤسسات دانشگاهی ایالات متحده مستقر هستند. فقط برای چهار پروژه مشخص شد که هیچ‌گونه ارتباط نظامی وجود ندارد. دو مورد از آن‌ها (Aera ، HBP) ​​صریحاً ارتباطات نظامی را رد کرده‌اند. دو مورد دیگر (Alice in Wonderland, Animats) به‌اندازه‌ی کافی کوچک بودند که بتوان آن‌ها را بدون وجود ارتباطات نظامی ارزیابی کرد. پروژه‌های دیگر تحت عنوان نامشخص کدگذاری شدند.
      • ملیت
      پروژه‌های تحقیق و توسعه هوش مصنوعی عمومی در 23 کشور مستقر هستند و 37 کشور جهان در آن‌ها نقش دارند. 32 پروژه مستقر در ایالات متحده، 5 پروژه در چین، 4 مورد در انگلستان، 3 مورد در استرالیا، کانادا، روسیه و سوئیس، 2 مورد در هند و 1 مورد در اتریش، بلژیک، برزیل، جمهوری چک، فنلاند، فرانسه ایسلند، ایران، ایرلند، ژاپن، هلند، پاکستان، سوئد، ترکیه و اوکراین. 2 پروژه وجود دارد که مکان مشخصی ندارند. کشورهای شریک در پروژه‌ها به ترتیبِ بیشترین مشارکت، شامل ایالات متحده (شریک 9 پروژه)، چین و انگلیس (4 پروژه)، استرالیا، کانادا، فرانسه، آلمان و اسرائیل (3 پروژه)، اتریش، هند، ایتالیا، نروژ، روسیه و کره جنوبی (2 پروژه) و بلژیک، برزیل، دانمارک، اتیوپی، فنلاند، یونان، مجارستان، ژاپن، هلند، پرتغال، سنگاپور، اسلوونی، اسپانیا، سوئد، سوئیس، تایوان و ترکیه (1 پروژه) هستند.
      • اهداف
      از میان پروژه‌های مورد بررسی، 38 مورد اهداف بشردوستانه، 26 مورد توسعه‌ی علم، 5 مورد دگرگونی بشریت (آزمایشگاه AGI ، Brain2Bot ، NDEYSS ، Sigma، SingularityNET)، 3 مورد سود (AGi3, Curious AI, Xephor Solutions)، 3 مورد اهداف بوم‌محور (FTAGIS, SingularityNET, Susaro) و 3 مورد اهداف رفاه حیوانات (پروژه مغز انسان؛ پیشنهاد شبیه‌سازی مغز برای جلوگیری از آزمایش حیوانات) عنوان شده است. 18 پروژه با اهداف نامشخص وجود دارد. برخی از پروژه‌ها چندین هدف را بیان کردند.[9]

      برخی جنبه‌های هوش مصنوعی عمومی

      هوش مصنوعی در سطح انسان به احتمال زیاد پیامدهای تحول‌آفرینی برای جهان در پی دارد. برخی از جنبه‌های اثرگذار هوش مصنوعی عمومی در ادامه آمده است:

      اصول اخلاقی

      فیتژرالد[10] و همکاران اهداف پروژه‌ها را در دو دسته‌ی بشردوستانه و توسعه‌ی علم قرار می‌دهند، مورد اول بیشتر از پروژه‌های شرکتی و دومی از پروژه‌های دانشگاهی ناشی می‌شود. اما با این وجود ممکن است اهداف سودآور دیگری نیز وجود داشته باشد که شرکت‌ها برای پنهان‌سازی آن‌ها اظهارات متفاوتی در مورد هدف پروژه‌های خود داشته باشند. پروژه‌هایی با هدف توسعه‌ی علم نشان می‌دهد که اخلاق و مقررات تحقیق دانشگاهی بر روی روش انجام تحقیق تمرکز دارد و نه عواقبی که تحقیقات می‌توانند برای جهان داشته باشد. با وجود این که دانشگاه دارای سابقه طولانی در تنظیم گری پژوهش‌های پرخطر است، این امر عمدتاً برای تحقیقات پزشکی و علوم اجتماعی بوده است که می‌تواند برای انسان یا حیوان مورد تحقیق خطر ایجاد کند و نه برای تحقیق در علوم کامپیوتر و زمینه‌های مرتبط. تلاش برای تنظیم R&D مخاطره آمیز در دانشگاه‌ها برای غلبه بر این گرایش گسترده‌تر لازم است.

      ایمنی هوش مصنوعی عمومی

      در مورد خطرات هوش مصنوعی عمومی نگرانی‌های جدی وجود دارد زیرا بشر به‌تدریج از حلقه‌ی کنترل بسیاری از سیستم‌های خودمختار از تصمیمات عملیاتی گرفته تا استراتژیک حذف می‌شود. دیدگاه‌های مختلف بسیاری در مورد ایمنی هوش مصنوعی عمومی وجود دارد. مثلاً متخصصان ایمنی نگران هستند زیرا ممکن است مبانی فنی و فرضیاتی که اصول مهندسی ایمنی سنتی بر اساس آن‌ها بنا شده است برای سیستم‌هایی که رفتار خود را در حین کار یاد می‌گیرند و اصلاح می‌کنند ناکافی باشد. از طرف دیگر، محققان هوش مصنوعی بیشتر درگیر ساخت سیستم‌هایی هستند که توانایی های شناختی انسان را نشان دهد اما بسیاری از آنان مسئله‌ی ایمن بودن را که می‌بایست به‌عنوان یک جزء پیش‌فرض در سیستم در نظر گرفته شود را در نظر نمی‌گیرند. بعلاوه بسیاری از موضوعات و پدیده‌های احتمالی جدید مانند Deep fake دارای مؤلفه‌های اخلاقی بسیاری هستند که ممکن است دانشمندان علوم اجتماعی و اخلاق‌گرایان دیدگاه‌های متفاوتی در مورد آن‌ها داشته باشند.

      هوش مصنوعی با سیستم‌هایی سر و کار دارد که رفتارهای شناختی را به نمایش می‌گذارند و این منجر به ایجاد سناریوهای خصمانه یا با سلطه‌جویی تدریجی می‌شود. همچنین سیستم‌ها ممکن است بیش از حد هوشمند شوند یا ممکن است در فهم و مواجهه با مسائلی که از دید انسان بدیهی است و توسط طراحان هوش مصنوعی و طراحان در مورد آن اشتباه کرده‌اند بسیار کسل‌کننده باشد. متخصصان حوزه‌های مختلف در مورد موضوعات اصلی ایمن بودن هوش مصنوعی و راه‌های رسیدن به آن دیدگاه‌های متفاوتی دارند. اگرچه این تنوع می‌تواند مفید باشد اما فقدان دانش مشترک، به پل ارتباطی جوامع و درک کلی‌تر از ایمنی هوش مصنوعی کمکی نمی‌کند.

      سیاست‌گذاری هوش مصنوعی عمومی

      به‌طور کلی سیاست هوش مصنوعی عمومی را می‌توان تلاش برای تأثیر بر روی تحقیق و توسعه‌ی این هدف دانست که می‌تواند شامل سیاست‌های رسمی دولت‌ها و نهادها و همچنین سیاست‌های غیررسمی افراد علاقه‌مند یا نگران، از جمله خود محققان باشد. سیاست هوش مصنوعی عمومی می‌تواند شامل تأمین بودجه، حمایت از تحقیق و توسعه، تشویق دیدگاه‌های اخلاقی خاص برای ایجاد آن و یا کاهش خطر باشد. مسئله‌ی سیاست هوش مصنوعی عمومی به‌عنوان محل بحثی بین توسعه‌دهندگانی که می‌خواهند با عدم رعایت اصول ایمنی و اخلاقی این پروژه‌ها را انجام دهند و جامعه‌ای که نگران هوش مصنوعی عمومی ناامن و غیراخلاقی بوده و به دنبال راه‌هایی برای تغییر تحقیق و توسعه‌ی این هدف در جهاتی ایمن‌تر و اخلاقی‌تر است مطرح می‌شود. برخی محققان معتقدند که خطر تحقق هوش مصنوعی عمومی بیش‌ازحد زیاد است و خواهان کنار گذاشتن تحقیق و توسعه‌ی آن هستند. در عوض گروهی دیگر از محققان خواستار رویکردهای نظارتی هستند تا بدون کنار گذاشتن کامل این فناوری، از هوش مصنوعی عمومی خطرناک جلوگیری کنند. آن‌ها حضور هیئت‌های بررسی در مؤسسات تحقیقاتی را پیشنهاد می‌دهند تا تحقیقات خطرناک در این زمینه را محدود کنند[11] [12].

      بر محققان و سیاست‌گذاران عرصه هوش مصنوعی در کشور ما نیز لازم است ضمن پژوهش در خصوص آینده هوش مصنوعی، با در نظر گرفتن ملاحظات بومیِ دینی، اخلاقی، فلسفی، اجتماعی و ... در خصوص سیاست‌هایی که می‌بایست در حوزه توسعه هوش مصنوعی عمومی لحاظ گردد به بحث و گفتگو بپردازند تا پیرو سیاست‌هایی که دیگران با ملاحظات خاص خود تدوین می‌کنند واقع نشوند.

      نگارنده: حمیده قراخانی بنی(کارشناسی ارشد نرم افزار دانشگاه اصفهان)
      تهیه شده در گروه مطالعات بنیادین پژوهشگاه فضای مجازی



      [1] Artificial general intelligence

      [2] Review of progress in Artificial General Intelligence and Human Brain inspired Cognitive Architecture

      [3] Pathways to Artificial General Intelligence: A Brief Overview of Developments and Ethical Issues via Artificial Intelligence, Machine Learning, Deep Learning, and Data Science
      [4] https://www.forbes.com/sites/forbestechcouncil/2021/07/16/the-future-of-artificial-general-intelligence/?sh=41c7333a3ba9
      [5] https://www.nature.com/articles/s41599-020-0494-4
      [6] Kotis, K. "Artificial general intelligence and creative economy." Academia Letters (2021)
      [7] Fitzgerald, McKenna, Aaron Boddy, and Seth D. Baum. "2020 Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy."
      [8] Fitzgerald
      [9] Fitzgerald, McKenna, Aaron Boddy, and Seth D. Baum. "2020 Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy."
      [10] Fitzgerald
      [11] Fitzgerald, McKenna, Aaron Boddy, and Seth D. Baum. "2020 Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy."
      [12] Hernández-Orallo, José. "AI Safety Landscape From short-term specific system engineering to long-term artificial general intelligence." 2020 50th Annual IEEE/IFIP International Conference on Dependable Systems and Networks Workshops (DSN-W). IEEE, 2020.
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir