هوش مصنوعی با سرعت بالایی در حال پیشرفت است. با اینکه تنها 8 سال از شروع عصر جدید یادگیری عمیق در مسابقات ایمیجنت 2012 میگذرد، در طول این مدت پیشرفتهای تاثیرگذار و قابلتوجهی را در این حوزه شاهد بودهایم.
این سرعت پیشرفت در حال بیشتر شدن است و ظرف پنج سال آینده حوزه هوش مصنوعی تفاوت زیادی با وضعیت کنونی آن خواهد داشت. روشهایی که در حال حاضر جدید محسوب میشوند منسوخ شده و روشهایی که در بدو پیدایش هستند جایگزین آنها میشوند.
نسل بعدی هوش مصنوعی به چه شکل خواهد بود؟ چه رویکردهای جدیدی در این حوزه به وجود میآید که امکانات غیرقابلتصوری را در بخش فناوری و کسبوکار به دست میدهد؟ این مقاله، به سه موضوع نوظهور در هوش مصنوعی میپردازد که در سالهای آتی این حوزه و جامعه را متحول خواهند کرد.
- یادگیری بدون نظارت
یکی از موارد مهمی که دنیای هوش مصنوعی انتظار آن را دارد یادگیری بدون نظارت است. در یادگیری نظارتشده، مدلهای هوش مصنوعی از مجموعه دادههایی که انسانها گردآوری کرده و بر اساس دستههای از پیش تعریف شده برچسبگذاری کردهاند، برای یادگیری استفاده میکنند (عبارت «یادگیری نظارتشده» هم به این موضوع اشاره دارد که ناظران انسانی دادهها را از پیش آماده میکنند).
با اینکه یادگیری نظارتشده طی دهه اخیر پیشرفتهای قابلتوجهی را (از اتومبیلهای بدون راننده گرفته تا دستیارهای صوتی) در هوش مصنوعی رقم زده، هنوز با محدودیتهای جدی مواجه است.
فرایند برچسبگذاری دستی هزارها یا میلیونها نقطه داده میتواند واقعاً هزینهبر و طاقتفرسا باشد. این موضوع که انسان باید دادهها را به صورت دستی برچسبگذاری کند تا ماشین بتواند از آن استفاده کند، محدودیت بزرگی در هوش مصنوعی به حساب میآید.
اگر عمیقتر به موضوع نگاه کنیم، یادگیری نظارتشده نوعی یادگیری محدود است. الگوریتمهای نظارتشده به جای بررسی و دریافت اطلاعات و رابطههای ضمنی و پنهان مجموعه دادهها، فقط به سمت مفاهیم و اقلامی هدایت میشوند که پژوهشگران از قبل شناسایی کردهاند.
در مقابل، یادگیری بدون نظارت رویکردی است که در آن الگوریتمها بدون استفاده از برچسبها یا راهنمایی انسانی، عمل یادگیری را انجام میدهند.
بسیاری از رهبران حوزه هوش مصنوعی، یادگیری بدون نظارت را مهمترین ویژگی هوش مصنوعی آینده در نظر میگیرند. به گفته یان لیکان، متخصص هوش مصنوعی «انقلاب بعدی در حوزه هوش مصنوعی بدون نظارت صورت میگیرد». جیتندا مالک، استاد دانشگاه «
UC» برکلی این موضوع را با رنگ و بوی دیگری بیان میکند: «برچسبگذاری برای پژوهشگران حوزه یادگیری ماشین، حکم تریاک را پیدا کرده است».
یادگیری بدون نظارت چطور کار میکند؟ به طور خلاصه، سیستم با توجه به بخشهایی از جهان، با بخشهای دیگری از آن آشنا میشود. برای مثال، سیستم با مشاهده رفتارها، الگوها و روابط بین واحدهای مختلف (مثلاً واژههای یک متن یا افراد حاضر در یک ویدیو) به صورت خودکار درکی از محیط خود پیدا میکند. بعضی از پژوهشگران، این موضوع را با این عبارت جمعبندی میکنند «پیشبینی هر چیزی با کمک چیزهای دیگر».
یادگیری بدون نظارت به یادگیری انسان شباهت دارد که از طریق بررسی و نتیجهگیری نامحدود انجام میشود و نیازی به نظارت ندارد. یکی از مزایای اصلی این روش این است که در دنیای واقعی دادههای بدون برچسب بسیار بیشتر از دادههای برچسبگذاریشده هستند و پیدا کردن آنها راحتتر است.
لیکان از اصطلاح «یادگیری خودنظارتی» استفاده میکند و میگوید: «در یادگیری خودنظارتی، بخشی از ورودیها نقش سیگنال نظارتی را بازی کرده و به پیشبینی بقیه ورودیها کمک میکند... در یادگیری خودنظارتی، نسبت به روشهای دیگر، میتوان دانش بیشتری را از ساختار جهان یاد گرفت زیرا دادهها نامحدود بوده و میزان بازخوردی که از هر مثال دریافت میشود بسیار قابلتوجه است».
یادگیری بدون نظارت در پردازش زبان طبیعی (
NLP) تاثیرات زیادی گذاشته است. به لطف ساختار یادگیری بدون نظارتی به نام ترانسفورمز که حدود سه سال پیش توسط گوگل طراحی شده، «
NLP» پیشرفت چشمگیری را شاهد بوده است (برای اطلاعات بیشتر به شماره 3 در این مقاله مراجعه کنید).
تلاشهایی که برای استفاده از یادگیری بدون نظارت در حوزههای دیگر هوش مصنوعی صورت گرفته هنوز در مراحل اولیه بوده اما به سرعت در حال پیشرفت است. برای مثال، استارتاپ «
Helm.ai» به دنبال این است که از یادگیری بدون نظارت برای پیشرفت وسایل نقلیه خودران استفاده کند.
بسیاری از پژوهشگران، یادگیری بدون نظارت را راهی برای ایجاد هوش مصنوعی در حد هوش انسان میدانند. به گفته لیکان، تسلط پیدا کردن بر یادگیری بدون نظارت «بزرگترین چالشی است که در سالهای آتی در حوزه یادگیری ماشین و هوش مصنوعی با آن مواجه هستیم».
- یادگیری امن[1]
محرمانگی دادهها یکی از چالشهای مهم عصر دیجیتال است. از آنجا که در عصر جدید، دادهها نیروی حیاتی هوش مصنوعی محسوب میشوند، مسائل مربوط به محرمانگی دادهها نقش مهم (و اغلب محدودکنندهای) در مسیر حرکت هوش مصنوعی بازی میکند.
بنابراین دستیابی به هوش مصنوعی حافظ محرمانگی (یعنی روشهایی که کمک میکنند هوش مصنوعی بدون به خطر افتادن محرمانگی دادهها فرایند یادگیری را انجام دهد) به امر مهمی تبدیل شده است. شاید بتوان گفت یادگیری امن نویدبخشترین رویکردی است که میتوان برای دستیابی به هوش مصنوعی حافظ محرمانگی در پیش گرفت.
مفهوم یادگیری امن برای اولین بار در سال 2017 توسط پژوهشگران گوگل مطرح شد. طی یک سال گذشته یادگیری امن به شدت مورد توجه قرار گرفته و بیش از 1000 مقاله پژوهشی در شش ماهه اول سال 2020 منتشر شده در حالی که در کل سال 2018 فقط 180 مقاله در این مورد منتشر شده بود.
امروزه رویکرد استانداردی که برای ساخت مدلهای یادگیری ماشین مورد استفاده قرار میگیرد، جمعآوری دادهها در یک مکان (معمولاً در فضای ابری) و سپس آموزش دادن مدل بر اساس این دادهها را شامل میشود. اما این رویکرد برای دادههای زیادی قابل استفاده نیست زیرا به دلایل امنیتی و محرمانه بودن دادهها، امکان انتقال آنها به یک مرکز ذخیرهسازی وجود ندارد. این موضوع باعث میشود تکنیکهای هوش مصنوعی عادی نتوانند از آنها استفاده کنند.
یادگیری امن با تغییر دادن رویکرد مرسوم هوش مصنوعی این مشکل را حل میکند.
در یادگیری امن، به جای استفاده از یک مجموعه داده واحد برای آموزش، دادهها سر جای خود (یعنی در دستگاهها و سرورهای مختلف) باقی میمانند و نسخههای متعددی از مدل به دستگاههای حاوی دادهها ارسال میشود و بر اساس مجموعه دادههای محلی آموزش میبیند. سپس پارامترهای مدل مورد نظر (بدون دادههای آموزشی) دوباره به فضای ابری ارسال میشود. وقتی همه این «مینیمدلها» در کنار هم قرار میگیرند به یک مدل کلی میرسیم که عملکرد آن به گونهای است که انگار با استفاده از یک مجموعه داده واحد آموزش دیده است.
هدف اصلی یادگیری امن این بود که از دادههای شخصی موجود در میلیاردها تلفن همراه برای آموزش مدلهای هوش مصنوعی استفاده کند. پژوهشگران عنوان میکنند: «امروزه تلفنهای همراه به دادههای زیادی دسترسی دارند که برای مدلهای یادگیری ماشین مناسب است... اما این دادههای غنی اغلب خصوصی هستند یا حجم زیادی دارند که مانع از ارسال آنها به مراکز ذخیرهسازی داده میشود... ما روش جایگزینی را پیشنهاد میکنیم که اجازه میدهد دادهها روی تلفنهای همراه باقی بمانند و با جمعآوری محاسباتی که به صورت محلی انجام شده به یک مدل مشترک دست پیدا میکند».
اخیراً حوزه سلامت به حوزه نویدبخشی برای استفاده از یادگیری امن تبدیل شده است.
دلیل این موضوع مشخص است. از طرفی هوش مصنوعی کاربردهای ارزشمند و زیادی در حوزه سلامت دارد و از طرف دیگر دادههای این حوزه (مخصوصاً اطلاعاتی که میتواند به شناخت بیمار منجر شود) از حساسیت بالایی برخوردار است و قوانین مختلفی از جمله «
HIPAA» استفاده و انتقال این اطلاعات را ممنوع میکنند. یادگیری امن به پژوهشگران این امکان را میدهد که بدون جابهجا کردن سوابق پزشکی حساس یا قرار گرفتن آنها در معرض شخص دیگر، با استفاده از هوش مصنوعی ابزاری را برای نجات جان بیماران ایجاد کنند.
استارتاپهای زیادی به وجود آمدهاند که یادگیری امن در حوزه سلامت را دنبال میکنند. معروفترینِ این استارتاپها «
Owkin» است که در پاریس مستقر است. استارتاپهای تازهکار دیگری که میتوان به آنها اشاره کرد عبارتند از «
Lynx.MD»، «
Ferrum Health» و «
Secure AI Labs».
علاوه بر حوزه سلامت، یادگیری امن میتواند در توسعه برنامههایی که با دادههای حساس در ارتباط هستند، از خدمات مالی و خودروهای بدون راننده گرفته تا کاربردهای دولتی و محصولات مختص مصرفکنندگان، نقش مهمی ایفا کند. یادگیری امن در کنار تکنیکهای حافظ محرمانگی دیگری مانند محرمانگی ناهمسان (
Differential Privacy) و رمزنگاری همریختی (
Homomorphic Encryption) میتواند به شکوفایی استعداد گسترده هوش مصنوعی کمک کرده و در عین حال با چالش محرمانگی دادهها نیز مقابله کند.
موج قوانینی که امروزه در سراسر جهان در رابطه با محرمانگی دادهها تصویب میشود (مانند
GDPR،
CCPA و قوانین دیگری که هنوز در راه هستند) نیاز به تکنیکهای حافظ محرمانگی را بیشتر میکنند. در سالهای آینده یادگیری امن به بخش مهمی از فناوری هوش مصنوعی تبدیل خواهد شد.
- ترانسفورمرها
در حال حاضر در عصر طلایی پردازش زبان طبیعی قرار داریم.
تابستان امسال، «
OpenAI» با انتشار مدل «
GPT-3» خود که قویترین مدل پردازش زبان در جهان است، توجه دنیای فناوری را به خود جلب کرد. این مدل استاندارد جدیدی را در «
NLP» به وجود آورده است. این مدل میتواند شعر بگوید، کدنویسی کند، گزارشهای تجاری درونسازمانی را بنویسد، در مورد خودش مقاله بنویسد و کارهای دیگری انجام دهد.
«
GPT-3» تنها یکی از مدلهای پردازش زبان طبیعی است و در کنار مدل «
BERT» از گوگل، «
GPT-2» از «
OpenAI»، «
RoBERT» از فیسبوک و مدلهای دیگری قرار میگیرد که در حوزه «
NLP» تحولی ایجاد میکنند.
ترانسفورمرها دلیل اصلی انقلاب در حوزه هوش مصنوعی زبان هستند.
ترانسفورمرها در مقاله برجستهای در سال 2017 معرفی شدند. پیش از این مدلهای پیشرفته «
NLP» بر شبکههای عصبی بازگشتی (مانند
LSTMs) مبتنی بودند. اصولاً شبکههای عصبی بازگشتی دادهها را به صورت متوالی پردازش میکنند (یعنی پردازش به صورت کلمه به کلمه و به ترتیب ظاهر شدن واژهها انجام میشود).
نوآوری بزرگ ترانسفورمرها در این است که پردازش زبان را به صورت موازی انجام میدهند: همه توکنهای موجود در متن به جای اینکه پشت سر هم پردازش شوند به صورت همزمان پردازش میشوند. ترانسفورمرها برای پشتیبانی از این موازیسازی، به «مکانیزم توجه» در هوش مصنوعی متکی هستند. مکانیزم توجه به مدل مورد نظر این امکان را میدهد که روابط بین واژهها را بدون توجه به فاصله آنها در نظر گرفته و تعیین کند کدام واژهها و عبارات در متن به «توجه بیشتری» نیاز دارند.
چرا موازیسازی به این اندازه اهمیت دارد؟ زیرا باعث میشود ترانسفورمرها نسبت به «
RNNها» از نظر محاسباتی کارآمدتر عمل کنند، یعنی میتوان برای آموزش آنها از مجموعه دادههای بسیار بزرگتری استفاده کرد. برای آموزش «
GPT-3» از حدود 500 میلیارد واژه استفاده شده است. این مدل 175 میلیارد پارامتر را شامل میشود که باعث میشود هر «
RNN» موجودی بیاهمیت به نظر برسد.
به خاطر موفقیت مدلهایی مانند
GPT-3، تا به امروز ترانسفورمرها منحصراً در ارتباط با «
NLP» شناخته شدهاند. اما در همین ماه مقاله جدید و نوآورانهای منتشر شد که از ترانسفورمرها به شکل موفقیتآمیزی در حوزه بینایی کامپیوتر (
Computer Vision) استفاده میکند. بسیاری از پژوهشگران هوش مصنوعی باور دارند این اثر، ورود به نسل جدیدی از بینایی کامپیوتر را خبر میدهد (اوریول واینیالز، پژوهشگر معروفی که در زمینه یادگیری ماشین فعالیت دارد، میگوید: «برداشت من این است که دیگر باید با کانوُلوشِنها خداحافظی کنیم»).
در حالی که شرکتهای فعال در زمینه هوش مصنوعی مانند گوگل و فیسبوک تولید مدلهای مبتنی بر ترانسفورمرها را آغاز کردهاند، بیشتر شرکتها هنوز در مراحل اولیه تولید و تجاریسازی این فناوری قرار دارند. «
OpenAI» اعلام کرده که قصد دارد استفاده از «
GPT-3» را از طریق یک «
API» ممکن کند. این کار میتواند پدید آمدن استارتاپهای زیادی را موجب شود.
انتظار آن را داشته باشید که در سالهای آینده، ترانسفورمرها شرایط را برای ایجاد نسل جدیدی از امکانات هوش مصنوعی (از جمله پردازش زبان طبیعی) فراهم کنند. با اینکه دهه هیجانانگیزی را در حوزه هوش مصنوعی پشت سر گذاشتهایم، ممکن است همه اتفاقات این دهه مقدمهای برای پیشرفتهای دهه بعدی باشد.
تهیه شده در گروه علوم و فناوریهای نوین پژوهشگاه فضای مجازی
لینک منبع