• آمادگی جهان برای نسل بعدی هوش مصنوعی

      آمادگی جهان برای نسل بعدی هوش مصنوعی

      آمادگی جهان برای نسل بعدی هوش مصنوعی

      نسل بعدی هوش مصنوعی به چه شکل خواهد بود؟ چه رویکردهای جدیدی در این حوزه به وجود می‌آید که امکانات غیرقابل‌تصوری را در بخش فناوری و کسب‌وکار به دست می‌دهد؟ این مقاله، به سه موضوع نوظهور در هوش مصنوعی می‌پردازد که در سال‌های آتی این حوزه و جامعه را متحول خواهند کرد.

      هوش مصنوعی با سرعت بالایی در حال پیشرفت است. با اینکه تنها 8 سال از شروع عصر جدید یادگیری عمیق در مسابقات ایمیج‌نت 2012 می‌گذرد، در طول این مدت پیشرفت‌های تاثیرگذار و قابل‌توجهی را در این حوزه شاهد بوده‌ایم.
      این سرعت پیشرفت در حال بیشتر شدن است و ظرف پنج سال آینده حوزه هوش مصنوعی تفاوت زیادی با وضعیت کنونی آن خواهد داشت. روش‌هایی که در حال حاضر جدید محسوب می‌شوند منسوخ شده و روش‌هایی که در بدو پیدایش هستند جایگزین آن‌ها می‌شوند.
      نسل بعدی هوش مصنوعی به چه شکل خواهد بود؟ چه رویکردهای جدیدی در این حوزه به وجود می‌آید که امکانات غیرقابل‌تصوری را در بخش فناوری و کسب‌وکار به دست می‌دهد؟ این مقاله، به سه موضوع نوظهور در هوش مصنوعی می‌پردازد که در سال‌های آتی این حوزه و جامعه را متحول خواهند کرد.

      1. یادگیری بدون نظارت

      یکی از موارد مهمی که دنیای هوش مصنوعی انتظار آن را دارد یادگیری بدون نظارت است. در یادگیری نظارت‌شده، مدل‌های هوش مصنوعی از مجموعه داده‌هایی که انسان‌ها گردآوری کرده و بر اساس دسته‌های از پیش تعریف شده برچسب‌گذاری کرده‌اند، برای یادگیری استفاده می‌کنند (عبارت «یادگیری نظارت‌شده» هم به این موضوع اشاره دارد که ناظران انسانی داده‌ها را از پیش آماده می‌کنند).
      با اینکه یادگیری نظارت‌شده طی دهه اخیر پیشرفت‌های قابل‌توجهی را (از اتومبیل‌های بدون راننده گرفته تا دستیارهای صوتی) در هوش مصنوعی رقم زده، هنوز با محدودیت‌های جدی مواجه است.
      فرایند برچسب‌گذاری دستی هزارها یا میلیون‌ها نقطه داده می‌تواند واقعاً هزینه‌بر و طاقت‌فرسا باشد. این موضوع که انسان باید داده‌ها را به صورت دستی برچسب‌گذاری کند تا ماشین بتواند از آن استفاده کند، محدودیت بزرگی در هوش مصنوعی به حساب می‌آید.
      اگر عمیق‌تر به موضوع نگاه کنیم، یادگیری نظارت‌شده نوعی یادگیری محدود است. الگوریتم‌های نظارت‌شده به جای بررسی و دریافت اطلاعات و رابطه‌های ضمنی و پنهان مجموعه داده‌ها، فقط به سمت مفاهیم و اقلامی هدایت می‌شوند که پژوهشگران از قبل شناسایی کرده‌اند.
      در مقابل، یادگیری بدون نظارت رویکردی است که در آن الگوریتم‌ها بدون استفاده از برچسب‌ها یا راهنمایی انسانی، عمل یادگیری را انجام می‌دهند.
      بسیاری از رهبران حوزه هوش مصنوعی، یادگیری بدون نظارت را مهم‌ترین ویژگی هوش مصنوعی آینده در نظر می‌گیرند. به گفته یان لیکان، متخصص هوش مصنوعی «انقلاب بعدی در حوزه هوش مصنوعی بدون نظارت صورت می‌گیرد». جیتندا مالک، استاد دانشگاه «UC» برکلی این موضوع را با رنگ و بوی دیگری بیان می‌کند: «برچسب‌گذاری برای پژوهشگران حوزه یادگیری ماشین، حکم تریاک را پیدا کرده است».
      یادگیری بدون نظارت چطور کار می‌کند؟ به طور خلاصه، سیستم با توجه به بخش‌هایی از جهان، با بخش‌های دیگری از آن آشنا می‌شود. برای مثال، سیستم با مشاهده رفتارها، الگوها و روابط بین واحدهای مختلف (مثلاً واژه‌های یک متن یا افراد حاضر در یک ویدیو) به صورت خودکار درکی از محیط خود پیدا می‌کند. بعضی از پژوهشگران، این موضوع را با این عبارت جمع‌بندی می‌کنند «پیش‌بینی هر چیزی با کمک چیزهای دیگر».
      یادگیری بدون نظارت به یادگیری انسان شباهت دارد که از طریق بررسی و نتیجه‌گیری نامحدود انجام می‌شود و نیازی به نظارت ندارد. یکی از مزایای اصلی این روش این است که در دنیای واقعی داده‌های بدون برچسب بسیار بیشتر از داده‌های برچسب‌گذاری‌شده هستند و پیدا کردن آن‌ها راحت‌تر است.
      لیکان از اصطلاح «یادگیری خودنظارتی» استفاده می‌کند و می‌گوید: «در یادگیری خودنظارتی، بخشی از ورودی‌ها نقش سیگنال نظارتی را بازی کرده و به پیش‌بینی بقیه ورودی‌ها کمک می‌کند... در یادگیری خودنظارتی، نسبت به روش‌های دیگر، می‌توان دانش بیشتری را از ساختار جهان یاد گرفت زیرا داده‌ها نامحدود بوده و میزان بازخوردی که از هر مثال دریافت می‌شود بسیار قابل‌توجه است».
      یادگیری بدون نظارت در پردازش زبان طبیعی (NLP) تاثیرات زیادی گذاشته است. به لطف ساختار یادگیری بدون نظارتی به نام ترانسفورمز که حدود سه سال پیش توسط گوگل طراحی شده، «NLP» پیشرفت چشمگیری را شاهد بوده است (برای اطلاعات بیشتر به شماره 3 در این مقاله مراجعه کنید).
      تلاش‌هایی که برای استفاده از یادگیری بدون نظارت در حوزه‌های دیگر هوش مصنوعی صورت گرفته هنوز در مراحل اولیه بوده اما به سرعت در حال پیشرفت است. برای مثال، استارتاپ «Helm.ai» به دنبال این است که از یادگیری بدون نظارت برای پیشرفت وسایل نقلیه خودران استفاده کند.
      بسیاری از پژوهشگران، یادگیری بدون نظارت را راهی برای ایجاد هوش مصنوعی در حد هوش انسان می‌دانند. به گفته لیکان، تسلط پیدا کردن بر یادگیری بدون نظارت «بزرگ‌ترین چالشی است که در سال‌های آتی در حوزه یادگیری ماشین و هوش مصنوعی با آن مواجه هستیم».

      1. یادگیری امن[1]

      محرمانگی داده‌ها یکی از چالش‌های مهم عصر دیجیتال است. از آنجا که در عصر جدید، داده‌ها نیروی حیاتی هوش مصنوعی محسوب می‌شوند، مسائل مربوط به محرمانگی داده‌ها نقش مهم (و اغلب محدودکننده‌ای) در مسیر حرکت هوش مصنوعی بازی می‌کند.
      بنابراین دستیابی به هوش مصنوعی حافظ محرمانگی (یعنی روش‌هایی که کمک می‌کنند هوش مصنوعی بدون به خطر افتادن محرمانگی داده‌ها فرایند یادگیری را انجام دهد) به امر مهمی تبدیل شده است. شاید بتوان گفت یادگیری امن نویدبخش‌ترین رویکردی است که می‌توان برای دستیابی به هوش مصنوعی حافظ محرمانگی در پیش گرفت.
      مفهوم یادگیری امن برای اولین بار در سال 2017 توسط پژوهشگران گوگل مطرح شد. طی یک سال گذشته یادگیری امن به شدت مورد توجه قرار گرفته و بیش از 1000 مقاله پژوهشی در شش ماهه اول سال 2020 منتشر شده در حالی که در کل سال 2018 فقط 180 مقاله در این مورد منتشر شده بود.
      امروزه رویکرد استانداردی که برای ساخت مدل‌های یادگیری ماشین مورد استفاده قرار می‌گیرد، جمع‌آوری داده‌ها در یک مکان (معمولاً در فضای ابری) و سپس آموزش دادن مدل بر اساس این داده‌ها را شامل می‌شود. اما این رویکرد برای داده‌های زیادی قابل استفاده نیست زیرا به دلایل امنیتی و محرمانه بودن داده‌ها، امکان انتقال آن‌ها به یک مرکز ذخیره‌سازی وجود ندارد. این موضوع باعث می‌شود تکنیک‌های هوش مصنوعی عادی نتوانند از آن‌ها استفاده کنند.
      یادگیری امن با تغییر دادن رویکرد مرسوم هوش مصنوعی این مشکل را حل می‌کند.
      در یادگیری امن، به جای استفاده از یک مجموعه داده واحد برای آموزش، داده‌ها سر جای خود (یعنی در دستگاه‌ها و سرورهای مختلف) باقی می‌مانند و نسخه‌های متعددی از مدل به دستگاه‌های حاوی داده‌ها ارسال می‌شود و بر اساس مجموعه داده‌های محلی آموزش می‌بیند. سپس پارامترهای مدل مورد نظر (بدون داده‌های آموزشی) دوباره به فضای ابری ارسال می‌شود. وقتی همه این «مینی‌مدل‌ها» در کنار هم قرار می‌گیرند به یک مدل کلی می‌رسیم که عملکرد آن به گونه‌ای است که انگار با استفاده از یک مجموعه داده واحد آموزش دیده است.
      هدف اصلی یادگیری امن این بود که از داده‌های شخصی موجود در میلیاردها تلفن همراه برای آموزش مدل‌های هوش مصنوعی استفاده کند. پژوهشگران عنوان می‌کنند: «امروزه تلفن‌های همراه به داده‌های زیادی دسترسی دارند که برای مدل‌های یادگیری ماشین مناسب است... اما این داده‌های غنی اغلب خصوصی هستند یا حجم زیادی دارند که مانع از ارسال آن‌ها به مراکز ذخیره‌سازی داده می‌شود... ما روش جایگزینی را پیشنهاد می‌کنیم که اجازه می‌دهد داده‌ها روی تلفن‌های همراه باقی بمانند و با جمع‌آوری محاسباتی که به صورت محلی انجام شده به یک مدل مشترک دست پیدا می‌کند».
      اخیراً حوزه سلامت به حوزه نویدبخشی برای استفاده از یادگیری امن تبدیل شده است.
      دلیل این موضوع مشخص است. از طرفی هوش مصنوعی کاربردهای ارزشمند و زیادی در حوزه سلامت دارد و از طرف دیگر داده‌های این حوزه (مخصوصاً اطلاعاتی که می‌تواند به شناخت بیمار منجر شود) از حساسیت بالایی برخوردار است و قوانین مختلفی از جمله «HIPAA» استفاده و انتقال این اطلاعات را ممنوع می‌کنند. یادگیری امن به پژوهشگران این امکان را می‌دهد که بدون جابه‌جا کردن سوابق پزشکی حساس یا قرار گرفتن آن‌ها در معرض شخص دیگر، با استفاده از هوش مصنوعی ابزاری را برای نجات جان بیماران ایجاد کنند.
      استارتاپ‌های زیادی به وجود آمده‌اند که یادگیری امن در حوزه سلامت را دنبال می‌کنند. معروف‌ترینِ این استارتاپ‌ها «Owkin» است که در پاریس مستقر است. استارتاپ‌های تازه‌کار دیگری که می‌توان به آن‌ها اشاره کرد عبارتند از «Lynx.MD»، «Ferrum Health» و «Secure AI Labs».
      علاوه بر حوزه سلامت، یادگیری امن می‌تواند در توسعه برنامه‌هایی که با داده‌های حساس در ارتباط هستند، از خدمات مالی و خودروهای بدون راننده گرفته تا کاربردهای دولتی و محصولات مختص مصرف‌کنندگان، نقش مهمی ایفا کند. یادگیری امن در کنار تکنیک‌های حافظ محرمانگی دیگری مانند محرمانگی ناهمسان (Differential Privacy) و رمزنگاری هم‌ریختی (Homomorphic Encryption) می‌تواند به شکوفایی استعداد گسترده هوش مصنوعی کمک کرده و در عین حال با چالش محرمانگی داده‌ها نیز مقابله کند.
      موج قوانینی که امروزه در سراسر جهان در رابطه با محرمانگی داده‌ها تصویب می‌شود (مانند GDPR، CCPA و قوانین دیگری که هنوز در راه هستند) نیاز به تکنیک‌های حافظ محرمانگی را بیشتر می‌کنند. در سال‌های آینده یادگیری امن به بخش مهمی از فناوری هوش مصنوعی تبدیل خواهد شد.

      1. ترانسفورمرها

      در حال حاضر در عصر طلایی پردازش زبان طبیعی قرار داریم.
      تابستان امسال، «OpenAI» با انتشار مدل «GPT-3» خود که قوی‌ترین مدل پردازش زبان در جهان است، توجه دنیای فناوری را به خود جلب کرد. این مدل استاندارد جدیدی را در «NLP» به وجود آورده است. این مدل می‌تواند شعر بگوید، کدنویسی کند، گزارش‌های تجاری درون‌سازمانی را بنویسد، در مورد خودش مقاله بنویسد و کارهای دیگری انجام دهد.
      «GPT-3» تنها یکی از مدل‌های پردازش زبان طبیعی است و در کنار مدل «BERT» از گوگل، «GPT-2» از «OpenAI»، «RoBERT» از فیس‌بوک و مدل‌های دیگری قرار می‌گیرد که در حوزه «NLP» تحولی ایجاد می‌کنند.
      ترانسفورمرها دلیل اصلی انقلاب در حوزه هوش مصنوعی زبان هستند.
      ترانسفورمرها در مقاله برجسته‌ای در سال 2017 معرفی شدند. پیش از این مدل‌های پیشرفته «NLP» بر شبکه‌های عصبی بازگشتی (مانند LSTMs) مبتنی بودند. اصولاً شبکه‌های عصبی بازگشتی داده‌ها را به صورت متوالی پردازش می‌کنند (یعنی پردازش به صورت کلمه به کلمه و به ترتیب ظاهر شدن واژه‌ها انجام می‌شود).
      نوآوری بزرگ ترانسفورمرها در این است که پردازش زبان را به صورت موازی انجام می‌دهند: همه توکن‌های موجود در متن به جای اینکه پشت سر هم پردازش شوند به صورت همزمان پردازش می‌شوند. ترانسفورمرها برای پشتیبانی از این موازی‌سازی، به «مکانیزم توجه» در هوش مصنوعی متکی هستند. مکانیزم توجه به مدل مورد نظر این امکان را می‌دهد که روابط بین واژه‌ها را بدون توجه به فاصله آن‌ها در نظر گرفته و تعیین کند کدام واژه‌ها و عبارات در متن به «توجه بیشتری» نیاز دارند.
      چرا موازی‌سازی به این اندازه اهمیت دارد؟ زیرا باعث می‌شود ترانسفورمرها نسبت به «RNNها» از نظر محاسباتی کارآمدتر عمل کنند، یعنی می‌توان برای آموزش آن‌ها از مجموعه داده‌های بسیار بزرگ‌تری استفاده کرد. برای آموزش «GPT-3» از حدود 500 میلیارد واژه استفاده شده است. این مدل 175 میلیارد پارامتر را شامل می‌شود که باعث می‌شود هر «RNN» موجودی بی‌اهمیت به نظر برسد.
      به خاطر موفقیت مدل‌هایی مانند GPT-3، تا به امروز ترانسفورمرها منحصراً در ارتباط با «NLP» شناخته شده‌اند. اما در همین ماه مقاله جدید و نوآورانه‌ای منتشر شد که از ترانسفورمرها به شکل موفقیت‌آمیزی در حوزه بینایی کامپیوتر (Computer Vision) استفاده می‌کند. بسیاری از پژوهشگران هوش مصنوعی باور دارند این اثر، ورود به نسل جدیدی از بینایی کامپیوتر را خبر می‌دهد (اوریول واینیالز، پژوهشگر معروفی که در زمینه یادگیری ماشین فعالیت دارد، می‌گوید: «برداشت من این است که دیگر باید با کانوُلوشِن‌ها خداحافظی کنیم»).
      در حالی که شرکت‌های فعال در زمینه هوش مصنوعی مانند گوگل و فیس‌بوک تولید مدل‌های مبتنی بر ترانسفورمرها را آغاز کرده‌اند، بیشتر شرکت‌ها هنوز در مراحل اولیه تولید و تجاری‌سازی این فناوری قرار دارند. «OpenAI» اعلام کرده که قصد دارد استفاده از «GPT-3» را از طریق یک «API» ممکن کند. این کار می‌تواند پدید آمدن استارتاپ‌های زیادی را موجب شود.
      انتظار آن را داشته باشید که در سال‌های آینده، ترانسفورمرها شرایط را برای ایجاد نسل جدیدی از امکانات هوش مصنوعی (از جمله پردازش زبان طبیعی) فراهم کنند. با اینکه دهه هیجان‌انگیزی را در حوزه هوش مصنوعی پشت سر گذاشته‌ایم، ممکن است همه اتفاقات این دهه مقدمه‌ای برای پیشرفت‌های دهه بعدی باشد.


      تهیه شده در گروه علوم و فناوری‌های نوین پژوهشگاه فضای مجازی

      لینک منبع


      [1] Federated Learning
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir