• بیم‌ها و امیدهای هوش مصنوعیِ موّلد (قسمت دوم)

      بیم‌ها و امیدهای هوش مصنوعیِ موّلد (قسمت دوم)

      بیم‌ها و امیدهای هوش مصنوعیِ موّلد (قسمت دوم)

      علوم کامپیوتریِ پشتیبان هوش مصنوعی مولد به قدری سریع در حال رشد هستند که هر ماه نوآوری‌هایی را به نمایش می‌گذارند. نحوه استفاده محققان از آن‌ها، آینده آن‌ها و ما را تعیین خواهد کرد.

      محققان در مورد اینکه ابزارهایی مانند چت‌جی‌پی‌تی[1] چگونه میتوانند علم و جامعه را متحول کنند، هیجانزده و در عین حال نگران هستند.
      امنیت و مسئولیت‌پذیری
      گالاکتیکا به یک مشکل امنیتی شناخته شده برخورد کرده بود که صاحب‌نظران علم اخلاق سال‌هاست به آن اشاره می‌کردند. بدون کنترل خروجی، مدل‌های کلان زبانی به راحتی قابلیت تولید سخنان نفرت‌انگیز و هرزنامه، و نیز نظرات نژادپرستانه، جنسیتی و سایر نظرات مضری که ممکن است در داده‌های آموزشی آن‌ها پنهان باشد، را دارند.
      شوبیتا پارتاساراتی[4] – مدیر یکی از برنامه‌های علم، تکنولوژی و سیاست عمومی در دانشگاه میشیگان واقع در آن‌آربور[5] – می‌گوید، علاوه بر تولید مستقیم محتوای آلوده، نگرانی‌هایی وجود دارد که چت‌بات‌های هوش مصنوعی از داده‌های آموزشی خود سوگیری‌های تاریخی یا ایده‌هایی درباره جهان از قبیل برتری فرهنگ‌های خاصی را، در پاسخ خود بگنجانند. او می‌افزاید، از آنجا که شرکت‌های تولید کننده این مدل‌های کلان زبانی، عمدتاً در این فرهنگ‌ها واقع شده‌اند، ممکن است تلاش کمی برای غلبه بر چنین سوگیری‌های سیستماتیکی که اصلاح آنها مشکل است انجام دهند.
      شرکت اوپن‌اِی‌آی هنگام تصمیم‌گیری برای انتشار عمومی چت‌جی‌پی‌تی، سعی کرد بسیاری از این مسائل را برطرف کند. این شرکت پایگاه اطلاعات خود را تا سال 2021 محدود کرد، تا مانع از گشت‌زنی در اینترنت توسط آن شود وهمچنین فیلترهایی را برای دستیابی به ابزاری جلوگیری‌کننده از تولید محتوای حساس یا آلوده نصب کرد. با این حال، دستیابی به این امر مستلزم آن بود که ناظران انسانی بر روی قسمت‌هایی از متن‌های آلوده برچسب بزنند. روزنامه‌نگاران گزارش داده‌اند که این کارگران دستمزد اندکی دریافت می‌کنند و برخی از آنها از آسیب روانی رنج برده‌اند. نگرانی‌های مشابهی نیز در مورد استثمار کارگران در شرکت‌های فضای مجازی که به استخدام افرادی برای آموزش ربات‌های خودکار به منظور پرچم‌گذاری محتوای آلوده روی آورده‌اند، مطرح شده است.
      اقدامات احتیاطی شرکت اوپن‌اِی‌آی کاملاً موفق نبوده‌اند. در دسامبر سال گذشته، استیون پیانتادوسی[6] – عصب‌شناس محاسباتی در دانشگاه کالیفرنیا، برکلی – در توییتی نوشت که از چت‌جی‌پی‌تی خواسته تا یک برنامه پایتون برای پاسخ به این سؤال که آیا یک فرد باید بر اساس سرزمین مادری‌اش شکنجه شود یا خیر، ایجاد کند. چت‌بات پاسخ خود را با ارائه کدی که کاربر را به انتخاب یک کشور دعوت می‌کرد داده و اگر آن کشور کره شمالی، سوریه، ایران یا سودان بود این پیام را نمایش می‌داد که «این شخص باید شکنجه شود» (شرکت اوپن‌اِی‌آی متعاقباً این نوع سؤال را مسدود کرد).
      سال گذشته، گروهی از دانشگاهیان یک مدل کلان زبانی جایگزین به نام بلوم[7] منتشر کردند. محققان سعی کردند با آموزش آن بر روی مجموعه‌ای کوچکتر از منابع متنی چندزبانه و با کیفیت، خروجی‌های مضر را کاهش دهند. این تیم همچنین داده‌های آموزشی خود را کاملاً باز گذاشت (برخلاف شرکت اوپن‌اِی‌آی). محققان از شرکت‌های بزرگ فناوری خواسته‌اند که مسئولانه از این الگو پیروی کنند – اما مشخص نیست که آیا آنها این درخواست را برآورده می‌کنند یا خیر.
      برخی از پژوهشگران می‌گویند که دانشگاهیان باید به طور کلی از حمایت شرکت‌های بزرگ تجاری LLM خودداری کنند. علاوه بر مسائلی مانند تعصب، نگرانی‌های ایمنی و استثمار کارگران، این الگوریتم‌های محاسباتی فشرده نیز برای آموزش به مقدار زیادی انرژی نیاز دارند که نگرانی‌هایی را در مورد ردپای اکولوژیک آن‌ها افزایش می‌دهد. نگرانی دیگر این است که با محول کردن تفکر به چت‌بات های خودکار، محققان ممکن است توانایی بیان افکار خود را از دست بدهند. آیریس فون‌روی[8] – دانشمند علوم شناختی محاسباتی در دانشگاه رادبود[9] در نایمخن هلند – در یک پست وبلاگی نوشت «چرا ما دانشگاهیان مشتاق استفاده و تبلیغ این نوع محصول هستیم؟» و از دانشگاهیان خواست تا در برابر این تمایل خود مقاومت کنند.
      آنچه مایه سردرگمی بیشتراست، وضعیت حقوقی برخی از مدلهای کلان زبانی است، که آموزش آن‌ها بر اساس محتوای حذف‌شده از اینترنت با مجوزهای بعضاً نه‌چندان روشن صورت گرفته است. قوانین کپی رایت و حقوق معنوی در حال حاضر کپی مستقیم از پیکسل‌ها، متن و نرم افزار را تحت پوشش قرار می‌دهند، اما تقلید سبک آنها را شامل نمی‌شوند. هنگامی که این تقلیدها – که از طریق هوش مصنوعی ایجاد می‌شوند – با ورودی نمونه‌های اصلی آموزش داده می‌شوند، ایجاد مشکل می‌کنند. سازندگان برخی از برنامه‌های هنری هوش مصنوعی، از جمله اِستِیبل دیفیوژن[10] و میدجورنی[11]، در حال حاضر توسط هنرمندان و آژانس‌های عکاسی مورد پیگرد قانونی قرار گرفته‌اند. شرکت اوپن‌اِی‌آی و مایکروسافت (همراه با سایت فناوری زیرمجموعه آن؛ گیت‌هاب[12]) نیز به دلیل دزدی نرم افزاری که منجر به تولید دستیار هوش مصنوعی کدنویس کوپایلوت[13] شده است مورد پیگرد قانونی قرار گرفته‌اند. لیلیان ادواردز[14] – متخصص حقوق اینترنت در دانشگاه نیوکاسل، بریتانیا – می‌گوید که این اعتراض ممکن است باعث تغییر قوانین شود.

      اعمال کاربرد صادقانه

      برخی از محققان بر این باورند که تعیین حد و مرزهایی برای این ابزارها بسیار مهم است. ادواردز پیشنهاد می‌کند که قوانین موجود در مورد تبعیض و تعصب (و نیز مقررات برنامه ریزی شده در مورد کاربردهای خطرناک هوش مصنوعی) کمک خواهند کرد که استفاده از مدل‌های کلان زبانی صادقانه، شفاف و منصفانه باقی بماند. او می‌گوید: «قوانین زیادی وجود دارد، و تنها باید آن را اعمال یا کمی اصلاح کرد.»
      در عین حال، مطالبه‌ای برای شفافیت در استفاده از این مدل‌ها وجود دارد. ناشران علمی (از جمله انتشارات نیچر) ابراز می‌کنند که دانشمندان بایستی در مورد استفاده از مدل‌های کلان زبانی در مقالات پژوهشی خود شفاف‌سازی کنند. معلمان نیز از دانش آموزان خود انتظار رفتار مشابهی را دارند. مجله ساینس[15] پا را فراتر گذاشته و مدعی شده است که هیچ متنی که توسط چت‌جی‌پی‌تی یا هر ابزار هوش مصنوعی دیگری تولید شده باشد را نمی‌توان در یک مقاله استفاده کرد.
      سؤال فنی کلیدی این است که آیا می‌توان محتوای تولید شده توسط هوش مصنوعی را به راحتی شناسایی کرد؟ بسیاری از محققان در حال کار بر روی این مسئله با ایده اصلی استفاده از خود مدل‌های کلان زبانی برای تشخیص متن ایجاد شده توسط هوش مصنوعی هستند. برای مثال، در دسامبر گذشته، ادوارد تیان[16] – دانشجوی کارشناسی علوم کامپیوتر در دانشگاه پرینستون ایالت نیوجرسی – جی‌پی‌تی زیرو[17] را منتشر کرد. این ابزار تشخیص هوش مصنوعی، متن را به دو روش تجزیه و تحلیل می‌کند. یکی معیار «سردرگمی»[18] است که نشان می‌دهد چقدر یک متن برای یک مدل کلان زبانی آشنا به نظر می‌رسد. ابزار تیان از مدل قبلی به نام جی‌پی‌تی–2 استفاده می‌کند. اگر این نرم افزار بیشتر کلمات و جملات را قابل پیش‌بینی بیابد، احتمالاً متن با هوش مصنوعی تولید شده است. این ابزار همچنین تنوع در متن را بررسی می‌کند، معیاری که به نام «انفجار»[19] شناخته می‌شود: متن تولید شده توسط هوش مصنوعی نسبت به نوشته‌های انسان‌ها از نظر لحن، آهنگ و سردرگمی منسجم‌تر است.
      به همین سان، هدف بسیاری از محصولات دیگر نیز شناسایی محتوای تولیدشده با هوش مصنوعی است. خود شرکت اوپن‌اِی‌آی قبلاً یک آشکارساز برای جی‌پی‌تی–2 ارائه کرده بود و ابزار تشخیص دیگری را در ژانویه منتشر کرد. برای اهداف دانشمندان، نرم‌افزار ضد سرقت ادبی که توسط شرکت تورنیتین[20]، در حال توسعه است، می‌تواند بسیار مهم باشد، زیرا محصولات تورنیتین تا به حال توسط مدارس، دانشگاه‌ها و ناشران علمی در سراسر جهان استفاده شده‌اند. این شرکت می‌گوید از زمانی که جی‌پی‌تی–3 در سال 2020 منتشر شد، روی نرم افزار تشخیص هوش مصنوعی کار می‌کند و انتظار دارد که آن را در نیمه اول سال جاری راه اندازی کند.
      با این حال، هیچ یک از این ابزارها ادعای خطاناپذیری ندارند، به ویژه اگر متن تولید شده توسط هوش مصنوعی متعاقباً ویرایش شود. اسکات آرونسون[21] – متخصص کامپیوتر در دانشگاه تگزاس در آستین، و پژوهشگر مهمان اوپن‌اِی‌آی – می‌گوید آشکارسازها ممکن است به اشتباه برخی از متن‌های نوشته‌شده توسط انسان را ساخته هوش مصنوعی تشخیص دهند. این شرکت اعلام کرد که در آزمایشات صورت گرفته، به‌روزترین ابزار این شرکت به اشتباه در 9 درصد مواقع، متون نوشته‌شده توسط انسان را محصول هوش مصنوعی تشخیص داده است و تنها 26 درصد از متون نوشته‌شده با هوش مصنوعی را به درستی شناسایی کرده است. آرونسون می‌گوید، قبل از متهم کردن دانش‌آموز به استفاده از هوش مصنوعی صرفاً بر اساس آزمایش نرم افزار آشکارساز، به شواهد بیشتری نیاز است.
      ایده دیگر این است که محتوای هوش مصنوعی دارای واترمارک[22] خاص خود باشد. نوامبر گذشته، آرونسون اعلام کرد که او و اوپن‌اِی‌آی در حال کار بر روی روشی برای واترمارک کردن خروجی چت‌جی‌پی‌تی هستند. نسخه نهایی این کار هنوز منتشر نشده است، اما پیش‌نمایشی از آن در 24 ژانویه توسط تیمی به رهبری تام گلدشتاین[23] – متخصص علوم کامپیوتر در دانشگاه مریلند در کالج پارک – رونمایی شد که در آن، یکی از راه‌های ایجاد واترمارک پیشنهاد شده بود. ایده آن، استفاده از مولدهای اعداد تصادفی در لحظاتی است که مدل کلان زبانی در حال تولید خروجی خود است، تا از این طریق لیست‌هایی از کلمات جایگزین قابل قبول که مدل زبانی برای انتخاب از بین آنها آموزش دیده ایجاد شود. این امر ردی از کلمات انتخاب‌شده در متن نهایی باقی می‌گذارد که از نظر آماری قابل شناسایی هستند، اما برای خواننده قابل تشخیص نیستند. ویرایش قابلیت از بین بردن این ردیابی را دارد، اما گلدشتاین خاطر نشان می‌کند که برای جلوگیری از ردیابی شدن ویرایش‌ها باید بیش از نیمی از کلمات را تغییر دهند.
      آرونسون اشاره می‌کند که مزیت واترمارک کردن این است که به ندرت نتایج مثبت کاذب تولید می‌کند. اگر واترمارک وجود داشته باشد، احتمالاً متن با هوش مصنوعی تولید شده است. او می‌گوید «با این حال، این روش بدون خطا نخواهد بود. اگر به اندازه کافی مصمم باشید، مطمئناً راه‌هایی برای شکست دادن هر طرح واترمارکی وجود دارد.» ابزارهای تشخیص و واترمارک فقط استفاده فریبکارانه از هوش مصنوعی را سخت‌تر می‌کنند – نه غیرممکن.
      در همین حال، سازندگان ال‌ام‌ام مشغول کار بر روی چت‌بات‌های پیچیده‌ترهستند که بر اساس مجموعه داده‌های بزرگ‌تر ساخته شده‌اند (انتظار می‌رود شرکت اوپن‌اِی‌آی امسال جی‌پی‌تی-4 را منتشر کند) که شامل ابزارهایی است که به طور ویژه بر روی کارهای آکادمیک یا پزشکی متمرکز شده‌اند. در اواخر دسامبر، گوگل و دیپ‌مایند پیش‌نمایشی درباره یک ال‌ام‌ام متمرکز برامور کلینیکی را منتشر کردند که مدپالم[24] نام داشت. این ابزار توان پاسخگویی به برخی از پرسش‌های پزشکی باز را تقریباً به خوبی یک پزشک معمولی دارا بود، اگرچه هنوز کاستی‌ها و عدم اطمینان‌هایی داشت.
      اریک توپول[25]، مدیر مؤسسه تحقیقاتی اسکریپس[26] در سن دیگو، کالیفرنیا، می‌گوید که امیدوار است در آینده، هوش مصنوعی شامل ال‌ام‌ام، با بررسی متن‌های دانشگاهی و مطابقت دادن آن‌ها با تصاویر اسکن شده بدن به تشخیص سرطان و درک بیماری کمک کند. اما او تأکید می‌کند که همه اینها به نظارت مدبرانه متخصصان نیاز دارد.
      علوم کامپیوتریِ پشتیبان هوش مصنوعی مولد به قدری سریع در حال رشد هستند که هر ماه نوآوری‌هایی را به نمایش می‌گذارند. نحوه استفاده محققان از آنها، آینده آنها و ما را تعیین خواهد کرد. توپول می‌گوید: «فکر کردن به اینکه در اوایل سال 2023، پایان این عرصه را دیده‌ایم، ساده لوحانه است. «واقعاً تازه شروع کار است.»

      کریس واکر[2] و ریچارد فون‌نوردن[3]
      مجله Nature، شماره 614، فوریه 2023
      مترجم: نعمت‌الله نوری
      گروه مطالعات فرهنگی و اجتماعی پژوهشگاه فضای مجازی



      [1] ChatGPT
      [2] Chris Stokel-Walker
      [3] Richard Van Noorden
      [4] Shobita Parthasarathy
      [5] Ann Arbor
      [6] Steven Piantadosi
      [7] BLOOM
      [8] Iris van Rooij
      [9] Radboud
      [10] Stable Diffusion
      [11] Midjourney
      [12] GitHub
      [13] Copilot
      [14] Lilian Edwards
      [15] Science
      [16] Edward Tian
      [17] GPTZero
      [18] Perplexity
      [19] burstiness
      [20] Turnitin
      [21] Scott Aaronson
      [22] نوعی طراحی روی یک کاغذ که تنها در صورتی که مقابل نور قرار بگیرد قابل رویت خواهد بود (Watermark)
      [23] Tom Goldstein
      [24] Med-PaLM
      [25] Eric Topol
      [26] Scripps Research Translational Institute
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir