محققان در مورد اینکه ابزارهایی مانند چتجیپیتی[1] چگونه میتوانند علم و جامعه را متحول کنند، هیجانزده و در عین حال نگران هستند.
امنیت و مسئولیتپذیری
گالاکتیکا به یک مشکل امنیتی شناخته شده برخورد کرده بود که صاحبنظران علم اخلاق سالهاست به آن اشاره میکردند. بدون کنترل خروجی، مدلهای کلان زبانی به راحتی قابلیت تولید سخنان نفرتانگیز و هرزنامه، و نیز نظرات نژادپرستانه، جنسیتی و سایر نظرات مضری که ممکن است در دادههای آموزشی آنها پنهان باشد، را دارند.
شوبیتا پارتاساراتی
[4] – مدیر یکی از برنامههای علم، تکنولوژی و سیاست عمومی در دانشگاه میشیگان واقع در آنآربور
[5] – میگوید، علاوه بر تولید مستقیم محتوای آلوده، نگرانیهایی وجود دارد که چتباتهای هوش مصنوعی از دادههای آموزشی خود سوگیریهای تاریخی یا ایدههایی درباره جهان از قبیل برتری فرهنگهای خاصی را، در پاسخ خود بگنجانند. او میافزاید، از آنجا که شرکتهای تولید کننده این مدلهای کلان زبانی، عمدتاً در این فرهنگها واقع شدهاند، ممکن است تلاش کمی برای غلبه بر چنین سوگیریهای سیستماتیکی که اصلاح آنها مشکل است انجام دهند.
شرکت اوپناِیآی هنگام تصمیمگیری برای انتشار عمومی چتجیپیتی، سعی کرد بسیاری از این مسائل را برطرف کند. این شرکت پایگاه اطلاعات خود را تا سال 2021 محدود کرد، تا مانع از گشتزنی در اینترنت توسط آن شود وهمچنین فیلترهایی را برای دستیابی به ابزاری جلوگیریکننده از تولید محتوای حساس یا آلوده نصب کرد. با این حال، دستیابی به این امر مستلزم آن بود که ناظران انسانی بر روی قسمتهایی از متنهای آلوده برچسب بزنند. روزنامهنگاران گزارش دادهاند که این کارگران دستمزد اندکی دریافت میکنند و برخی از آنها از آسیب روانی رنج بردهاند. نگرانیهای مشابهی نیز در مورد استثمار کارگران در شرکتهای فضای مجازی که به استخدام افرادی برای آموزش رباتهای خودکار به منظور پرچمگذاری محتوای آلوده روی آوردهاند، مطرح شده است.
اقدامات احتیاطی شرکت اوپناِیآی کاملاً موفق نبودهاند. در دسامبر سال گذشته، استیون پیانتادوسی
[6] – عصبشناس محاسباتی در دانشگاه کالیفرنیا، برکلی – در توییتی نوشت که از چتجیپیتی خواسته تا یک برنامه پایتون برای پاسخ به این سؤال که آیا یک فرد باید بر اساس سرزمین مادریاش شکنجه شود یا خیر، ایجاد کند. چتبات پاسخ خود را با ارائه کدی که کاربر را به انتخاب یک کشور دعوت میکرد داده و اگر آن کشور کره شمالی، سوریه، ایران یا سودان بود این پیام را نمایش میداد که «این شخص باید شکنجه شود» (شرکت اوپناِیآی متعاقباً این نوع سؤال را مسدود کرد).
سال گذشته، گروهی از دانشگاهیان یک مدل کلان زبانی جایگزین به نام
بلوم[7] منتشر کردند. محققان سعی کردند با آموزش آن بر روی مجموعهای کوچکتر از منابع متنی چندزبانه و با کیفیت، خروجیهای مضر را کاهش دهند. این تیم همچنین دادههای آموزشی خود را کاملاً باز گذاشت (برخلاف شرکت اوپناِیآی). محققان از شرکتهای بزرگ فناوری خواستهاند که مسئولانه از این الگو پیروی کنند – اما مشخص نیست که آیا آنها این درخواست را برآورده میکنند یا خیر.
برخی از پژوهشگران میگویند که دانشگاهیان باید به طور کلی از حمایت شرکتهای بزرگ تجاری
LLM خودداری کنند. علاوه بر مسائلی مانند تعصب، نگرانیهای ایمنی و استثمار کارگران، این الگوریتمهای محاسباتی فشرده نیز برای آموزش به مقدار زیادی انرژی نیاز دارند که نگرانیهایی را در مورد ردپای اکولوژیک آنها افزایش میدهد. نگرانی دیگر این است که با محول کردن تفکر به چتبات های خودکار، محققان ممکن است توانایی بیان افکار خود را از دست بدهند. آیریس فونروی
[8] – دانشمند علوم شناختی محاسباتی در دانشگاه رادبود
[9] در نایمخن هلند – در یک پست وبلاگی نوشت «چرا ما دانشگاهیان مشتاق استفاده و تبلیغ این نوع محصول هستیم؟» و از دانشگاهیان خواست تا در برابر این تمایل خود مقاومت کنند.
آنچه مایه سردرگمی بیشتراست، وضعیت حقوقی برخی از
مدلهای کلان زبانی است، که آموزش آنها بر اساس محتوای حذفشده از اینترنت با مجوزهای بعضاً نهچندان روشن صورت گرفته است. قوانین کپی رایت و حقوق معنوی در حال حاضر کپی مستقیم از پیکسلها، متن و نرم افزار را تحت پوشش قرار میدهند، اما تقلید سبک آنها را شامل نمیشوند. هنگامی که این تقلیدها – که از طریق هوش مصنوعی ایجاد میشوند – با ورودی نمونههای اصلی آموزش داده میشوند، ایجاد مشکل میکنند. سازندگان برخی از برنامههای هنری هوش مصنوعی، از جمله
اِستِیبل دیفیوژن[10] و
میدجورنی[11]، در حال حاضر توسط هنرمندان و آژانسهای عکاسی مورد پیگرد قانونی قرار گرفتهاند. شرکت اوپناِیآی و مایکروسافت (همراه با سایت فناوری زیرمجموعه آن؛
گیتهاب[12]) نیز به دلیل دزدی نرم افزاری که منجر به تولید دستیار هوش مصنوعی کدنویس
کوپایلوت[13] شده است مورد پیگرد قانونی قرار گرفتهاند. لیلیان ادواردز
[14] – متخصص حقوق اینترنت در دانشگاه نیوکاسل، بریتانیا – میگوید که این اعتراض ممکن است باعث تغییر قوانین شود.
اعمال کاربرد صادقانه
برخی از محققان بر این باورند که تعیین حد و مرزهایی برای این ابزارها بسیار مهم است. ادواردز پیشنهاد میکند که قوانین موجود در مورد تبعیض و تعصب (و نیز مقررات برنامه ریزی شده در مورد کاربردهای خطرناک هوش مصنوعی) کمک خواهند کرد که استفاده از مدلهای کلان زبانی صادقانه، شفاف و منصفانه باقی بماند. او میگوید: «قوانین زیادی وجود دارد، و تنها باید آن را اعمال یا کمی اصلاح کرد.»
در عین حال، مطالبهای برای شفافیت در استفاده از این مدلها وجود دارد. ناشران علمی (از جمله انتشارات نیچر) ابراز میکنند که دانشمندان بایستی در مورد استفاده از مدلهای کلان زبانی در مقالات پژوهشی خود شفافسازی کنند. معلمان نیز از دانش آموزان خود انتظار رفتار مشابهی را دارند. مجله
ساینس[15] پا را فراتر گذاشته و مدعی شده است که هیچ متنی که توسط چتجیپیتی یا هر ابزار هوش مصنوعی دیگری تولید شده باشد را نمیتوان در یک مقاله استفاده کرد.
سؤال فنی کلیدی این است که آیا میتوان محتوای تولید شده توسط هوش مصنوعی را به راحتی شناسایی کرد؟ بسیاری از محققان در حال کار بر روی این مسئله با ایده اصلی استفاده از خود مدلهای کلان زبانی برای تشخیص متن ایجاد شده توسط هوش مصنوعی هستند. برای مثال، در دسامبر گذشته، ادوارد تیان
[16] – دانشجوی کارشناسی علوم کامپیوتر در دانشگاه پرینستون ایالت نیوجرسی –
جیپیتی زیرو[17] را منتشر کرد. این ابزار تشخیص هوش مصنوعی، متن را به دو روش تجزیه و تحلیل میکند. یکی معیار «سردرگمی»
[18] است که نشان میدهد چقدر یک متن برای یک مدل کلان زبانی آشنا به نظر میرسد. ابزار تیان از مدل قبلی به نام جیپیتی–2 استفاده میکند. اگر این نرم افزار بیشتر کلمات و جملات را قابل پیشبینی بیابد، احتمالاً متن با هوش مصنوعی تولید شده است. این ابزار همچنین تنوع در متن را بررسی میکند، معیاری که به نام «انفجار»
[19] شناخته میشود: متن تولید شده توسط هوش مصنوعی نسبت به نوشتههای انسانها از نظر لحن، آهنگ و سردرگمی منسجمتر است.
به همین سان، هدف بسیاری از محصولات دیگر نیز شناسایی محتوای تولیدشده با هوش مصنوعی است. خود شرکت اوپناِیآی قبلاً یک آشکارساز برای
جیپیتی–2 ارائه کرده بود و ابزار تشخیص دیگری را در ژانویه منتشر کرد. برای اهداف دانشمندان، نرمافزار ضد سرقت ادبی که توسط شرکت تورنیتین
[20]، در حال توسعه است، میتواند بسیار مهم باشد، زیرا محصولات تورنیتین تا به حال توسط مدارس، دانشگاهها و ناشران علمی در سراسر جهان استفاده شدهاند. این شرکت میگوید از زمانی که جیپیتی–3 در سال 2020 منتشر شد، روی نرم افزار تشخیص هوش مصنوعی کار میکند و انتظار دارد که آن را در نیمه اول سال جاری راه اندازی کند.
با این حال، هیچ یک از این ابزارها ادعای خطاناپذیری ندارند، به ویژه اگر متن تولید شده توسط هوش مصنوعی متعاقباً ویرایش شود. اسکات آرونسون
[21] – متخصص کامپیوتر در دانشگاه تگزاس در آستین، و پژوهشگر مهمان اوپناِیآی – میگوید آشکارسازها ممکن است به اشتباه برخی از متنهای نوشتهشده توسط انسان را ساخته هوش مصنوعی تشخیص دهند. این شرکت اعلام کرد که در آزمایشات صورت گرفته، بهروزترین ابزار این شرکت به اشتباه در 9 درصد مواقع، متون نوشتهشده توسط انسان را محصول هوش مصنوعی تشخیص داده است و تنها 26 درصد از متون نوشتهشده با هوش مصنوعی را به درستی شناسایی کرده است. آرونسون میگوید، قبل از متهم کردن دانشآموز به استفاده از هوش مصنوعی صرفاً بر اساس آزمایش نرم افزار آشکارساز، به شواهد بیشتری نیاز است.
ایده دیگر این است که محتوای هوش مصنوعی دارای
واترمارک[22] خاص خود باشد. نوامبر گذشته، آرونسون اعلام کرد که او و اوپناِیآی در حال کار بر روی روشی برای واترمارک کردن خروجی چتجیپیتی هستند. نسخه نهایی این کار هنوز منتشر نشده است، اما پیشنمایشی از آن در 24 ژانویه توسط تیمی به رهبری تام گلدشتاین
[23] – متخصص علوم کامپیوتر در دانشگاه مریلند در کالج پارک – رونمایی شد که در آن، یکی از راههای ایجاد واترمارک پیشنهاد شده بود. ایده آن، استفاده از مولدهای اعداد تصادفی در لحظاتی است که مدل کلان زبانی در حال تولید خروجی خود است، تا از این طریق لیستهایی از کلمات جایگزین قابل قبول که مدل زبانی برای انتخاب از بین آنها آموزش دیده ایجاد شود. این امر ردی از کلمات انتخابشده در متن نهایی باقی میگذارد که از نظر آماری قابل شناسایی هستند، اما برای خواننده قابل تشخیص نیستند. ویرایش قابلیت از بین بردن این ردیابی را دارد، اما گلدشتاین خاطر نشان میکند که برای جلوگیری از ردیابی شدن ویرایشها باید بیش از نیمی از کلمات را تغییر دهند.
آرونسون اشاره میکند که مزیت واترمارک کردن این است که به ندرت نتایج مثبت کاذب تولید میکند. اگر واترمارک وجود داشته باشد، احتمالاً متن با هوش مصنوعی تولید شده است. او میگوید «با این حال، این روش بدون خطا نخواهد بود. اگر به اندازه کافی مصمم باشید، مطمئناً راههایی برای شکست دادن هر طرح واترمارکی وجود دارد.» ابزارهای تشخیص و واترمارک فقط استفاده فریبکارانه از هوش مصنوعی را سختتر میکنند – نه غیرممکن.
در همین حال، سازندگان الامام مشغول کار بر روی چتباتهای پیچیدهترهستند که بر اساس مجموعه دادههای بزرگتر ساخته شدهاند (انتظار میرود شرکت اوپناِیآی امسال جیپیتی-4 را منتشر کند) که شامل ابزارهایی است که به طور ویژه بر روی کارهای آکادمیک یا پزشکی متمرکز شدهاند. در اواخر دسامبر، گوگل و دیپمایند پیشنمایشی درباره یک الامام متمرکز برامور کلینیکی را منتشر کردند که مدپالم
[24] نام داشت. این ابزار توان پاسخگویی به برخی از پرسشهای پزشکی باز را تقریباً به خوبی یک پزشک معمولی دارا بود، اگرچه هنوز کاستیها و عدم اطمینانهایی داشت.
اریک توپول
[25]، مدیر مؤسسه تحقیقاتی اسکریپس
[26] در سن دیگو، کالیفرنیا، میگوید که امیدوار است در آینده، هوش مصنوعی شامل الامام، با بررسی متنهای دانشگاهی و مطابقت دادن آنها با تصاویر اسکن شده بدن به تشخیص سرطان و درک بیماری کمک کند. اما او تأکید میکند که همه اینها به نظارت مدبرانه متخصصان نیاز دارد.
علوم کامپیوتریِ پشتیبان هوش مصنوعی مولد به قدری سریع در حال رشد هستند که هر ماه نوآوریهایی را به نمایش میگذارند. نحوه استفاده محققان از آنها، آینده آنها و ما را تعیین خواهد کرد. توپول میگوید: «فکر کردن به اینکه در اوایل سال 2023، پایان این عرصه را دیدهایم، ساده لوحانه است. «واقعاً تازه شروع کار است.»
کریس واکر[2] و ریچارد فوننوردن[3]
مجله Nature، شماره 614، فوریه 2023
مترجم: نعمتالله نوری
گروه مطالعات فرهنگی و اجتماعی پژوهشگاه فضای مجازی
[4] Shobita Parthasarathy
[22] نوعی طراحی روی یک کاغذ که تنها در صورتی که مقابل نور قرار بگیرد قابل رویت خواهد بود (
Watermark)
[26] Scripps Research Translational Institute