• بیم‌ها و امیدهای هوش مصنوعیِ موّلد (قسمت اول)

      بیم‌ها و امیدهای هوش مصنوعیِ موّلد (قسمت اول)

      بیم‌ها و امیدهای هوش مصنوعیِ موّلد (قسمت اول)

      در دسامبر گذشته [2022] دو زیست‌شناس محاسباتی به نام‌های کیسی گرین و میلتون پیویدوری دست به آزمایشی غیرمعمول زدند: آن‌ها از یک دستیار که مثل خودشان محقق نبود خواستند تا به ایشان در اصلاح سه مقاله پژوهشی کمک کند.

      محققان در مورد اینکه ابزارهایی مانند چت‌جی‌پی‌تی[1] چگونه میتوانند علم و جامعه را متحول کنند، هیجانزده و در عین حال نگران هستند.

      در دسامبر گذشته [2022] دو زیست‌شناس محاسباتی به نام‌های کیسی گرین[4] و میلتون پیویدوری[5]دست به آزمایشی غیرمعمول زدند: آن‌ها از یک دستیار که مثل خودشان محقق نبود خواستند تا به ایشان در اصلاح سه مقاله پژوهشی کمک کند. دستیار سخت‌کوش آن‌ها بازنگری‌هایی در بخش‌هایی از اسناد را تنها در طی چند ثانیه پیشنهاد کرد. بررسی هر مقاله حدود پنج دقیقه طول کشید. در یکی از مقالات زیست‌شناختی، دستیار آنها حتی اشتباهی را در ارجاع به یک معادله تشخیص داد. آزمایش همیشه به راحتی اتفاق نمی‌افتاد، اما خواندن مقالات نهایی راحت‌تر – و هزینه‌ها نسبتاً کم، و در حدود کمتر از نیم دلار برای هر سند – بود.
      این دستیار، همانطور که گرین و پیویدوری در یک نسخه پیش از انتشار در 23 ژانویه گزارش کردند، یک شخص نیست، بلکه یک الگوریتم هوش مصنوعی[6] به نام جی‌پی‌تی–3 است که برای اولین بار در سال 2020 در اختیار همگان قرار گرفت. این یکی از هیجان‌انگیزترین ابزارهای دسته چت‌بات‌های هوش مصنوعی است که می‌توانند متن روان متقاعدکننده‌ای تولید کنند، از نثر و شعر و کدنویسی کامپیوتر گرفته – مثل مورد دو دانشمند ذکر شده – تا ویرایش مقالات پژوهشی.
      معروف‌ترینِ این ابزارها – که مدل‌های کلان زبانی[7] یا «LLM» نیز خوانده می‌شود – چت‌جی‌پی‌تی می‌باشد، نسخه‌ای از جی‌پی‌تی–3 که پس از انتشار در نوامبر سال گذشته شهرت زیادی پیدا کرد؛ چرا که رایگان و به‌راحتی قابل‌دسترسی بود. سایر هوش مصنوعی‌های مولد می‌توانند تصویر یا صدا تولید کنند. پیویدوری که در دانشگاه پنسیلوانیا واقع در فیلادلفیا کار می‌کند، می‌گوید: «من واقعاً تحت تأثیر قرار گرفته‌ام... این ابزار به ما کمک می‌کند تا به عنوان پژوهشگر بهره‌وری بیشتری داشته باشیم.» پژوهشگران دیگر می‌گویند که اکنون نه تنها برای ویرایش مقالات، بلکه برای کمک به کدنویسی یا بررسی آن و همچنین طوفان ذهنی ایده‌ها مرتباً از «مدل‌های کلان زبانی» استفاده می‌کنند. هافشتاین آینارسون[8]، پژوهشگر کامپیوتر در دانشگاه ایسلند در ریکیاویک می‌گوید: «من اکنون همه روزه از مدل‌های کلان زبانی استفاده می‌کنم.» او با جی‌پی‌تی–3 شروع کرد، اما سپس به استفاده ازچت‌جی‌پی‌تی روی آورد، که در آماده سازی اسلایدها، امتحانات دانشجویی و مشکلات درسی کلاس‌ها و تبدیل پایان نامه‌های دانشجویی به مقالات به او کمک می‌کند. او می‌گوید: «بسیاری از مردم در حال استفاده از آن به عنوان منشی دیجیتال یا دستیار هستند».
      مدل‌های کلان زبانی تشکیل‌دهنده بخشی از موتورهای جستجو، دستیاران کدنویسی و حتی یک چت‌بات هستند که با چت‌بات‌های شرکت‌های دیگر مذاکره می‌کنند تا به قیمت‌های بهتری برای محصولات دست یابند. خالق چت‌جی‌پی‌تی، شرکت OpenAI در سانفرانسیسکو کالیفرنیا، خدمات اشتراک را با قیمت 20 دلار در ماه اعلام کرده است که زمان پاسخگویی کوتاه‌تر و دسترسی بااولویت به ویژگی‌های جدید را نوید می‌دهد (هرچند نسخه آزمایشی آن رایگان است). غول فناوری – مایکروسافت – که قبلاً در این شرکت سرمایه‌گذاری کرده بود، سرمایه‌گذاری بیشتری را در ژانویه اعلام کرد که حدود 10 میلیارد دلار گزارش شده است. مدل‌های کلان زبانی قرار است در نرم افزارهای عمومی واژهپرداز و پردازش داده ادغام شوند. آن چه قطعی به نظر می‌رسد آینده فراگیر هوش مصنوعی مولد در جامعه است، به ویژه از آنجا که ابزارهای امروزین نشانگر این تکنولوژی در مراحل اولیه خود هستند.
      اما مدل‌های کلان زبانی نگرانی‌های گسترده‌ای را نیز برانگیخته‌اند – از تمایل آن‌ها به بازگرداندن مطالب نادرست، تا نگرانی‌ها در مورد افرادی که متن تولید شده توسط هوش مصنوعی را به عنوان متن خود جا می‌زنند. وقتی مجله نیچر[9] از محققان نظرشان را در مورد کاربردهای بالقوه چت‌بات‌ها مانند چت‌جی‌پی‌تی به طور خاص در عرصه علوم جویا شد، هیجان آن‌ها با دلهره درآمیخت. دکتر گرین از دانشکده پزشکی دانشگاه کلرادو در آرورا می‌گوید: «اگر باور دارید که این فناوری پتانسیل تحول‌آفرینی را دارد، پس فکر می‌کنم باید در مورد آن نگران باشید. پژوهشگران بر این باور هستند که این مسئله عمیقاً به چگونگی دستورالعمل‌ها و مقررات محدودکننده احتمالی چت‌بات‌های هوش مصنوعی بستگی دارد.

      روان اما غیر واقعی

      برخی از محققان بر این باورند که مدل‌های کلان زبانی برای سرعت بخشیدن به کارهایی مانند نوشتن مقالات یا درخواست‌های کمک مالی، تحت نظارت انسانی مناسب می‌باشند. آلمیرا عثمانوویچ تونستروم[10]، زیست‌شناس اعصاب در بیمارستان دانشگاه سالگرنسکا شهر گوتنبرگ سوئد، که با همکاری جی‌پی‌تی–3 مقاله‌ای را تألیف کرده است، می‌گوید: «دانشمندان دیگر تمایلی به نوشتن مقدمه‌های طولانی برای درخواست‌های کمک مالی ندارند. آن‌ها یک راست از سیستم‌ها می‌خواهند این کار را انجام دهند».
      تام تومیل[11]، مهندس پژوهشگر در شرکت اینستادیپ[12] – یک شرکت مشاوره نرم افزاری مستقر در لندن – می‌گوید که همه روزه از مدل‌های کلان زبانی به عنوان دستیار در کدنویسی کمک می‌گیرد. او با اشاره به وبسایت اِستَک اُوِرفلو[13] که وب‌سایت انجمن محبوب کدنویس‌هاست و در آن به سؤالات یکدیگر پاسخ می‌دهند، می‌گوید: «مدل‌های کلان زبانی تقریباً مانند یک اِستَک اُوِرفلو با قابلیت‌های برتر هستند».
      اما محققان تأکید می‌کنند که مدل‌های کلان زبانی اساساً در پاسخ به سؤالات غیرقابل اعتماد بوده و گاهی اوقات پاسخ‌های نادرست ارائه می‌دهند. عثمانوویچ تونستروم می‌گوید: «زمانی که از این سیستم‌ها برای تولید دانش استفاده می‌کنیم، باید محتاط باشیم».
      این غیرقابل اعتماد بودن ریشه در نحوه ساخت مدل‌های کلان زبانی دارد. چت‌جی‌پی‌تی و رقبای آن از طریق یادگیری الگوهای آماری زبانی در پایگاه‌های بزرگ داده‌های متنی آنلاین کار می‌کنند – که شامل هرگونه دروغ، تعصب یا اطلاعات منسوخ می‌باشد. هنگامی که به مدل‌های کلان زبانی دستوری داده می‌شود (مانند درخواست‌های گرین و پیویدوری با ساختار دقیق برای بازنویسی بخش‌هایی از نسخه‌های خطی)، آن‌ها هر راهی را برای ادامه گفتگو که از نظر «سبک» قابل قبول به نظر می‌رسد، کلمه به کلمه ارائه می‌کنند.
      نتیجه این که مدل‌های کلان زبانی به راحتی باعث ایجاد خطا و اطلاعات گمراه کننده می‌شوند؛ به‌ویژه برای موضوعات فنی که ممکن است اطلاعات کمی برای آموزش در مورد آنها داشته باشند. مدل‌های کلان زبانی همچنین نمی‌توانند منشأ اطلاعات خود را نمایش دهند. اگر از آنها خواسته شود یک مقاله دانشگاهی بنویسند، ارجاعات ساختگی ارائه می‌دهند. سرمقاله ماه ژانویه مجله هوش ماشینی نیچر[14] اشاره کرد: «این ابزار برای دریافت درست حقایق یا ارائه ارجاعات معتبر قابل اعتماد نیست.»
      با آگاهی از این مسئله، چت‌جی‌پی‌تی و سایرمدل‌های کلان زبانی برای آن دسته از محققان که تخصص کافی تشخیص مستقیم مشکلات را داشته یا به سادگی صحت و سقم پاسخ‌ها – مثل توانایی درک اینکه آیا توضیح یا پیشنهاد کد رایانه‌ای درست است یا خیر – را مشخص می‌کنند، دستیارانی مفید هستند.
      اما این ابزار ممکن است کاربران ساده را گمراه کند. به عنوان مثال، در ماه دسامبر، وبسایت اِستَک اُوِرفلو به طور موقت استفاده از چت‌جی‌پی‌تی را ممنوع کرد، زیرا مدیران سایت خود را در مقابل سیلی از پاسخ‌های نادرست اما به ظاهر متقاعدکننده مدل‌های کلان زبانی یافتند که توسط کاربران مشتاق ارسال می‌شد. این مسئله می‌تواند یک کابوس برای موتورهای جستجو باشد.

      آیا می‌توان کاستی‌ها را برطرف کرد؟

      برخی از ابزارهای موتور جستجو، مانند موتورپژوهشگر–محور اِلیسیت[15]، مشکلات مرتبط با مدل‌های کلان زبانی را برطرف کرده‌اند. آن‌ها با استفاده از قابلیت‌هایشان ابتدا برای هدایت پرسش‌های مربوط به ادبیات مرتبط، و سپس برای خلاصه سازی هر یک از وب‌سایت‌ها یا اسنادی که موتورهای جستجو پیدا می‌کنند این مشکل را حل کرده و در نتیجه خروجی با محتوای به‌ظاهر ارجاع‌داده‌شده ارائه می‌کنند (هرچند مدل‌های کلان زبانی باز هم ممکن است هر سند جداگانه را به اشتباه خلاصه کند).
      شرکت‌های سازنده مدل‌های کلان زبانی نیز به خوبی از این مشکلات آگاه هستند. در سپتامبر سال گذشته، دیپ‌مایند[16] [آزمایشگاه هوش مصنوعی] که زیرمجموعه گوگل است مقاله‌ای را در مورد یک «پیشکار گفتگو» به نام اسپارو[17] منتشر کرد. بعدها دمیس حاسابیس[18] – مدیر اجرایی و یکی از بنیان‌گذاران شرکت – به مجله تایم[19] خبر انتشار آن در سال جاری در قالب نسخه خصوصی بتا را داد. این مجله گزارش داد که گوگل قصد دارد روی ویژگی‌هایی از جمله توانایی ذکر منابع کار کند. سایر رقبا، مانند آنثروپیک[20]، ادعا می‌کنند که برخی از مشکلات چت‌جی‌پی‌تی را حل کرده‌اند (آنثروپیک، اوپن‌اِی‌آی و دیپ‌مایند درخواست مصاحبه در ارتباط با این مقاله را نپذیرفتند).
      برخی از دانشمندان بر این باورند که در حال حاضر، چت‌جی‌پی‌تی به اندازه کافی در مورد محتوای تخصصی آموزش داده نشده که بتواند در موضوعات فنی مفید باشد. کریم کار[21]، دانشجوی دکترای آمار زیستی در دانشگاه هاروارد در کمبریج، ماساچوست، در هنگام آزمایش آن برای انجام کار، به هیچ وجه تحت تأثیر قرار نگرفت. او می‌گوید: «فکر می‌کنم رسیدن چت‌جی‌بی‌تی به سطحی از ویژگی که من نیاز دارم سخت باشد. (با این حال، کار می‌گوید که وقتی از چت‌جی‌پی‌تی 20 راه برای حل یک سؤال تحقیقاتی پرسید، به حرف‌هایی نامفهوم و یک ایده مفید اشاره کرد – اصطلاحی آماری که تا آن زمان درباره آن چیزی نشنیده بود و او را به حوزه جدیدی از ادبیات دانشگاهی راهنمایی می‌کرد).
      برخی از شرکت‌های فناوری در حال آموزش چت‌بات‌ها برای ادبیات علمی تخصصی می‌باشند هرچند با مشکلات خاص خود مواجه شده‌اند. در نوامبر سال گذشته، متا – غول فناوری مالک فیس‌بوک – یک مدل کلان زبانی به نام گالاکتیکا[22] که بر اساس چکیده‌های علمی آموزش داده شده بود را با قصد ارتقا دادن آن در تولید محتوای آکادمیک و پاسخ به سؤالات پژوهشی منتشر کرد. این نسخه آزمایشی پس از اینکه کاربران آن را در حال تولید محتوای نادرست و نژادپرستانه یافتند، از دسترسی عمومی خارج شد (اگرچه کد آن همچنان در دسترس است). دانشمند ارشد هوش مصنوعی متا، یان لیکان[23]، در پاسخ به منتقدان توییت کرد: «دیگر امکان سرگرمی با استفاده نادرست از آن وجود ندارد. حالا خوشحالی؟»،. (متا به درخواستی که از طریق دفتر مطبوعاتی آنها جهت گفتگو با لیکان ارائه شده بود، پاسخ نداد).

      ادامه دارد...

      کریس واکر[2] و ریچارد فون‌نوردن[3]
      مجله Nature، شماره 614، فوریه 2023
      مترجم: نعمت‌الله نوری
      گروه مطالعات فرهنگی و اجتماعی پژوهشگاه فضای مجازی​




      [1] ChatGPT
      [2] Chris Stokel-Walker
      [3] Richard Van Noorden
      [4] Casey Greene
      [5] Milton Pividori
      [6] AI
      [7] Large Language Models (LLMs)
      [8] Hafsteinn Einarsson
      [9] Nature
      [10] Almira Osmanovic Thunström
      [11] Tom Tumiel
      [12] InstaDeep
      [13] Stack Overflow
      [14] Nature Machine Intelligence
      [15] Elicit
      [16] DeepMind
      [17] Sparrow
      [18] Demis Hassabis
      [19] TIME
      [20] Anthropic
      [21] Kareem Carr
      [22] Galactica
      [23] Yann LeCun
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir