محققان در مورد اینکه ابزارهایی مانند چتجیپیتی[1] چگونه میتوانند علم و جامعه را متحول کنند، هیجانزده و در عین حال نگران هستند.
در دسامبر گذشته [2022] دو زیستشناس محاسباتی به نامهای کیسی گرین
[4] و میلتون پیویدوری
[5]دست به آزمایشی غیرمعمول زدند: آنها از یک دستیار که مثل خودشان محقق نبود خواستند تا به ایشان در اصلاح سه مقاله پژوهشی کمک کند. دستیار سختکوش آنها بازنگریهایی در بخشهایی از اسناد را تنها در طی چند ثانیه پیشنهاد کرد. بررسی هر مقاله حدود پنج دقیقه طول کشید. در یکی از مقالات زیستشناختی، دستیار آنها حتی اشتباهی را در ارجاع به یک معادله تشخیص داد. آزمایش همیشه به راحتی اتفاق نمیافتاد، اما خواندن مقالات نهایی راحتتر – و هزینهها نسبتاً کم، و در حدود کمتر از نیم دلار برای هر سند – بود.
این دستیار، همانطور که گرین و پیویدوری در یک نسخه پیش از انتشار در 23 ژانویه گزارش کردند، یک شخص نیست، بلکه یک الگوریتم هوش مصنوعی
[6] به نام جیپیتی–3 است که برای اولین بار در سال 2020 در اختیار همگان قرار گرفت. این یکی از هیجانانگیزترین ابزارهای دسته چتباتهای هوش مصنوعی است که میتوانند متن روان متقاعدکنندهای تولید کنند، از نثر و شعر و کدنویسی کامپیوتر گرفته – مثل مورد دو دانشمند ذکر شده – تا ویرایش مقالات پژوهشی.
معروفترینِ این ابزارها – که مدلهای کلان زبانی
[7] یا «
LLM» نیز خوانده میشود – چتجیپیتی میباشد، نسخهای از جیپیتی–3 که پس از انتشار در نوامبر سال گذشته شهرت زیادی پیدا کرد؛ چرا که رایگان و بهراحتی قابلدسترسی بود. سایر هوش مصنوعیهای مولد میتوانند تصویر یا صدا تولید کنند. پیویدوری که در دانشگاه پنسیلوانیا واقع در فیلادلفیا کار میکند، میگوید: «من واقعاً تحت تأثیر قرار گرفتهام... این ابزار به ما کمک میکند تا به عنوان پژوهشگر بهرهوری بیشتری داشته باشیم.» پژوهشگران دیگر میگویند که اکنون نه تنها برای ویرایش مقالات، بلکه برای کمک به کدنویسی یا بررسی آن و همچنین طوفان ذهنی ایدهها مرتباً از «مدلهای کلان زبانی» استفاده میکنند. هافشتاین آینارسون
[8]، پژوهشگر کامپیوتر در دانشگاه ایسلند در ریکیاویک میگوید: «من اکنون همه روزه از مدلهای کلان زبانی استفاده میکنم.» او با جیپیتی–3 شروع کرد، اما سپس به استفاده ازچتجیپیتی روی آورد، که در آماده سازی اسلایدها، امتحانات دانشجویی و مشکلات درسی کلاسها و تبدیل پایان نامههای دانشجویی به مقالات به او کمک میکند. او میگوید: «بسیاری از مردم در حال استفاده از آن به عنوان منشی دیجیتال یا دستیار هستند».
مدلهای کلان زبانی تشکیلدهنده بخشی از موتورهای جستجو، دستیاران کدنویسی و حتی یک چتبات هستند که با چتباتهای شرکتهای دیگر مذاکره میکنند تا به قیمتهای بهتری برای محصولات دست یابند. خالق چتجیپیتی، شرکت
OpenAI در سانفرانسیسکو کالیفرنیا، خدمات اشتراک را با قیمت 20 دلار در ماه اعلام کرده است که زمان پاسخگویی کوتاهتر و دسترسی بااولویت به ویژگیهای جدید را نوید میدهد (هرچند نسخه آزمایشی آن رایگان است). غول فناوری – مایکروسافت – که قبلاً در این شرکت سرمایهگذاری کرده بود، سرمایهگذاری بیشتری را در ژانویه اعلام کرد که حدود 10 میلیارد دلار گزارش شده است. مدلهای کلان زبانی قرار است در نرم افزارهای عمومی واژه
پرداز و پردازش داده ادغام شوند. آن چه قطعی به نظر میرسد آینده فراگیر هوش مصنوعی مولد در جامعه است، به ویژه از آنجا که ابزارهای امروزین نشانگر این تکنولوژی در مراحل اولیه خود هستند.
اما مدلهای کلان زبانی نگرانیهای گستردهای را نیز برانگیختهاند – از تمایل آنها به بازگرداندن مطالب نادرست، تا نگرانیها در مورد افرادی که متن تولید شده توسط هوش مصنوعی را به عنوان متن خود جا میزنند. وقتی مجله نیچر
[9] از محققان نظرشان را در مورد کاربردهای بالقوه چتباتها مانند چتجیپیتی به طور خاص در عرصه علوم جویا شد، هیجان آنها با دلهره درآمیخت. دکتر گرین از دانشکده پزشکی دانشگاه کلرادو در آرورا میگوید: «اگر باور دارید که این فناوری پتانسیل تحولآفرینی را دارد، پس فکر میکنم باید در مورد آن نگران باشید. پژوهشگران بر این باور هستند که این مسئله عمیقاً به چگونگی دستورالعملها و مقررات محدودکننده احتمالی چتباتهای هوش مصنوعی بستگی دارد.
روان اما غیر واقعی
برخی از محققان بر این باورند که مدلهای کلان زبانی برای سرعت بخشیدن به کارهایی مانند نوشتن مقالات یا درخواستهای کمک مالی، تحت نظارت انسانی مناسب میباشند. آلمیرا عثمانوویچ تونستروم
[10]، زیستشناس اعصاب در بیمارستان دانشگاه سالگرنسکا شهر گوتنبرگ سوئد، که با همکاری جیپیتی–3 مقالهای را تألیف کرده است، میگوید: «دانشمندان دیگر تمایلی به نوشتن مقدمههای طولانی برای درخواستهای کمک مالی ندارند. آنها یک راست از سیستمها میخواهند این کار را انجام دهند».
تام تومیل
[11]، مهندس پژوهشگر در شرکت اینستادیپ
[12] – یک شرکت مشاوره نرم افزاری مستقر در لندن – میگوید که همه روزه از مدلهای کلان زبانی به عنوان دستیار در کدنویسی کمک میگیرد. او با اشاره به وبسایت
اِستَک اُوِرفلو[13] که وبسایت انجمن محبوب کدنویسهاست و در آن به سؤالات یکدیگر پاسخ میدهند، میگوید: «مدلهای کلان زبانی تقریباً مانند یک
اِستَک اُوِرفلو با قابلیتهای برتر هستند».
اما محققان تأکید میکنند که مدلهای کلان زبانی اساساً در پاسخ به سؤالات غیرقابل اعتماد بوده و گاهی اوقات پاسخهای نادرست ارائه میدهند. عثمانوویچ تونستروم میگوید: «زمانی که از این سیستمها برای تولید دانش استفاده میکنیم، باید محتاط باشیم».
این غیرقابل اعتماد بودن ریشه در نحوه ساخت مدلهای کلان زبانی دارد. چتجیپیتی و رقبای آن از طریق یادگیری الگوهای آماری زبانی در پایگاههای بزرگ دادههای متنی آنلاین کار میکنند – که شامل هرگونه دروغ، تعصب یا اطلاعات منسوخ میباشد. هنگامی که به مدلهای کلان زبانی دستوری داده میشود (مانند درخواستهای گرین و پیویدوری با ساختار دقیق برای بازنویسی بخشهایی از نسخههای خطی)، آنها هر راهی را برای ادامه گفتگو که از نظر «سبک» قابل قبول به نظر میرسد، کلمه به کلمه ارائه میکنند.
نتیجه این که مدلهای کلان زبانی به راحتی باعث ایجاد خطا و اطلاعات گمراه کننده میشوند؛ بهویژه برای موضوعات فنی که ممکن است اطلاعات کمی برای آموزش در مورد آنها داشته باشند. مدلهای کلان زبانی همچنین نمیتوانند منشأ اطلاعات خود را نمایش دهند. اگر از آنها خواسته شود یک مقاله دانشگاهی بنویسند، ارجاعات ساختگی ارائه میدهند. سرمقاله ماه ژانویه مجله هوش ماشینی نیچر
[14] اشاره کرد: «این ابزار برای دریافت درست حقایق یا ارائه ارجاعات معتبر قابل اعتماد نیست.»
با آگاهی از این مسئله، چتجیپیتی و سایرمدلهای کلان زبانی برای آن دسته از محققان که تخصص کافی تشخیص مستقیم مشکلات را داشته یا به سادگی صحت و سقم پاسخها – مثل توانایی درک اینکه آیا توضیح یا پیشنهاد کد رایانهای درست است یا خیر – را مشخص میکنند، دستیارانی مفید هستند.
اما این ابزار ممکن است کاربران ساده را گمراه کند. به عنوان مثال، در ماه دسامبر، وبسایت
اِستَک اُوِرفلو به طور موقت استفاده از چتجیپیتی را ممنوع کرد، زیرا مدیران سایت خود را در مقابل سیلی از پاسخهای نادرست اما به ظاهر متقاعدکننده مدلهای کلان زبانی یافتند که توسط کاربران مشتاق ارسال میشد. این مسئله میتواند یک کابوس برای موتورهای جستجو باشد.
آیا میتوان کاستیها را برطرف کرد؟
برخی از ابزارهای موتور جستجو، مانند موتورپژوهشگر–محور
اِلیسیت[15]، مشکلات مرتبط با مدلهای کلان زبانی را برطرف کردهاند. آنها با استفاده از قابلیتهایشان ابتدا برای هدایت پرسشهای مربوط به ادبیات مرتبط، و سپس برای خلاصه سازی هر یک از وبسایتها یا اسنادی که موتورهای جستجو پیدا میکنند این مشکل را حل کرده و در نتیجه خروجی با محتوای بهظاهر ارجاعدادهشده ارائه میکنند (هرچند مدلهای کلان زبانی باز هم ممکن است هر سند جداگانه را به اشتباه خلاصه کند).
شرکتهای سازنده مدلهای کلان زبانی نیز به خوبی از این مشکلات آگاه هستند. در سپتامبر سال گذشته،
دیپمایند[16] [آزمایشگاه هوش مصنوعی] که زیرمجموعه گوگل است مقالهای را در مورد یک «پیشکار گفتگو» به نام
اسپارو[17] منتشر کرد. بعدها دمیس حاسابیس
[18] – مدیر اجرایی و یکی از بنیانگذاران شرکت – به مجله تایم
[19] خبر انتشار آن در سال جاری در قالب نسخه خصوصی بتا را داد. این مجله گزارش داد که گوگل قصد دارد روی ویژگیهایی از جمله توانایی ذکر منابع کار کند. سایر رقبا، مانند
آنثروپیک[20]، ادعا میکنند که برخی از مشکلات چتجیپیتی را حل کردهاند (آنثروپیک، اوپناِیآی و دیپمایند درخواست مصاحبه در ارتباط با این مقاله را نپذیرفتند).
برخی از دانشمندان بر این باورند که در حال حاضر، چتجیپیتی به اندازه کافی در مورد محتوای تخصصی آموزش داده نشده که بتواند در موضوعات فنی مفید باشد. کریم کار
[21]، دانشجوی دکترای آمار زیستی در دانشگاه هاروارد در کمبریج، ماساچوست، در هنگام آزمایش آن برای انجام کار، به هیچ وجه تحت تأثیر قرار نگرفت. او میگوید: «فکر میکنم رسیدن چتجیبیتی به سطحی از ویژگی که من نیاز دارم سخت باشد. (با این حال، کار میگوید که وقتی از چتجیپیتی 20 راه برای حل یک سؤال تحقیقاتی پرسید، به حرفهایی نامفهوم و یک ایده مفید اشاره کرد – اصطلاحی آماری که تا آن زمان درباره آن چیزی نشنیده بود و او را به حوزه جدیدی از ادبیات دانشگاهی راهنمایی میکرد).
برخی از شرکتهای فناوری در حال آموزش چتباتها برای ادبیات علمی تخصصی میباشند هرچند با مشکلات خاص خود مواجه شدهاند. در نوامبر سال گذشته، متا – غول فناوری مالک فیسبوک – یک مدل کلان زبانی به نام
گالاکتیکا[22] که بر اساس چکیدههای علمی آموزش داده شده بود را با قصد ارتقا دادن آن در تولید محتوای آکادمیک و پاسخ به سؤالات پژوهشی منتشر کرد. این نسخه آزمایشی پس از اینکه کاربران آن را در حال تولید محتوای نادرست و نژادپرستانه یافتند، از دسترسی عمومی خارج شد (اگرچه کد آن همچنان در دسترس است). دانشمند ارشد هوش مصنوعی متا، یان لیکان
[23]، در پاسخ به منتقدان توییت کرد: «دیگر امکان سرگرمی با استفاده نادرست از آن وجود ندارد. حالا خوشحالی؟»،. (متا به درخواستی که از طریق دفتر مطبوعاتی آنها جهت گفتگو با لیکان ارائه شده بود، پاسخ نداد).
ادامه دارد...
کریس واکر[2] و ریچارد فوننوردن[3]
مجله Nature، شماره 614، فوریه 2023
مترجم: نعمتالله نوری
گروه مطالعات فرهنگی و اجتماعی پژوهشگاه فضای مجازی
[7] Large Language Models (LLMs)
[10] Almira Osmanovic Thunström
[14] Nature Machine Intelligence