loading...

sakhtevacum

بازدید : 772
سه شنبه 20 خرداد 1399 زمان : 11:56

محققان دانشگاه ادینبورگ ، کالج دانشگاه لندن (UCL) و انستیتوی علوم و فناوری نارا رویکرد یادگیری فعال جدید گروهی را بر اساس یک راهزن چند مسلح غیر ثابت و یک الگوریتم مشاوره تخصصی توسعه داده اند. روش آنها ، در مقاله ای که از قبل روی arXiv منتشر شده است ، می تواند باعث کاهش زمان و تلاش سرمایه گذاری در یادداشت دستی داده ها شود.


Timothy Hospedales ، یکی از محققانی که این مطالعه را انجام داده است ، گفت: " یادگیری ماشینی با نظارت معمولی از گرسنگی داده ها است و داده های برچسب خورده می توانند تنگنایی در هنگام گران شدن یادداشت داده ها باشند." "یادگیری فعال از پیش بینی یادگیری نظارت شده با پیش بینی ترین نکته های اطلاعاتی برای حاشیه نویسی پشتیبانی می کند تا بتوان با استفاده از بودجه حاشیه نویسی الگوهای خوب را آموزش داد."

یادگیری فعال منطقه خاصی از یادگیری ماشینی است که در آن یک الگوریتم یادگیری می تواند داده هایی را که می خواهد از آن یاد بگیرد فعالانه انتخاب کند. این به طور معمول منجر به عملکرد بهتر می شود ، با مجموعه داده های آموزشی قابل توجهی کوچکتر.

محققان انواع مختلفی از الگوریتم های یادگیری فعال را ایجاد کرده اند که می توانند هزینه های حاشیه نویسی را کاهش دهند ، اما تاکنون هیچ یک از این راه حل ها برای همه مشکلات مؤثر نبوده اند. از این رو مطالعات دیگر از الگوریتم های راهزن برای شناسایی بهترین الگوریتم یادگیری فعال برای مجموعه داده های داده استفاده شده است.

Hospedales توضیح داد: اصطلاح "راهزن" به یک دستگاه اسلات راهزن چند مسلح اشاره دارد که یک انتزاع ریاضی مناسب برای مشکلات اکتشاف / بهره برداری است. " "یک الگوریتم راهزن با تلاش صرف شده برای بهره برداری از بهترین دستگاه های حافظه که تاکنون پیدا شده است ، تعادل خوبی بین تلاش صرف شده در کاوش در کلیه دستگاه های حافظه برای پیدا کردن مبلغی که بیشتر پرداخت می شود ، پیدا می کند."

نسبت برنده ها: "آلمانی". اعتبار: پنگ و همکاران.
اثربخشی الگوریتم های یادگیری فعال هم در مشکلات و هم در طول زمان در مراحل مختلف یادگیری متفاوت است. این مشاهدات شبیه به بازی دستگاه های حافظه ، که در آن احتمال پرداخت با گذشت زمان تغییر می کند.

Hospedales گفت: هدف از مطالعه ما ایجاد یک الگوریتم راهزن جدید است که عملکرد را با حساب کردن برای این جنبه از مشکل یادگیری فعال بهبود می بخشد.

محققان برای مقابله با این محدودیت ، یک یادگیرنده فعال گروه پویا (DEAL) را بر اساس یک راهزن غیر ثابت پیشنهاد کردند. این یادگیرنده براساس پاداش (دقت وزن با اهمیت) بدست آمده پس از هر یادداشت اطلاعات ، تخمینی از هر الگوریتم یادگیری فعال بصورت آنلاین ایجاد می کند.



کانكون پانگ ، محقق دیگری كه این تحقیق را انجام داده است ، گفت: "این كار را با استفاده از اولویت های بیان شده برای آن نقطه توسط هر الگوریتم یادگیری فعال انجام می دهد." "برای مقابله با مسئله تغییر کارآیی زبان آموزان فعال با گذشت زمان ، ما به طور مرتب الگوریتم یادگیری را مجدداً شروع می کنیم تا اولویت یادگیری فعال آن را تازه کنیم. با این توانایی ، اگر مؤثرترین الگوریتم یادگیری فعال بین مراحل اولیه و دیر یادگیری تغییر کند ، ما هستیم. می تواند به سرعت با این تغییر سازگار شود. "

تصویر سازی رویکرد یادگیری فعال مبتنی بر راهزن چند مسلح. اعتبار: پنگ و همکاران.
محققان رویکرد خود را بر روی 13 مجموعه داده محبوب آزمایش کردند و به نتایج بسیار دلگرم کننده ای دست یافتند. الگوریتم DEAL آنها ضمانت عملکرد ریاضی دارند ، به این معنی که اعتماد به نفس بالایی در مورد چگونگی عملکرد آن وجود دارد.

Hospedales توضیح داد: "این ضمانت مربوط به عملکرد الگوریتم ما است ، این یک اوراکل ایده آل است که همیشه انتخاب صحیح را برای یادگیرنده فعال می داند." "این یک فاصله بین عملکرد چنین الگوریتمی بهترین حالت و ما را محدود می کند."

ارزیابی تجربی انجام شده توسط Hospedales و همکارانش تأیید کردند که الگوریتم DEAL عملکرد عملکرد یادگیری فعال را در مجموعه معیارها بهبود می بخشد. این کار را با شناسایی مداوم مؤثرترین الگوریتم یادگیری فعال برای کارهای مختلف و در مراحل مختلف آموزش انجام می دهد.

Hospedales گفت: "امروز یادگیری فعال جذاب است ، تأثیر آن بر روی شیوه های یادگیری ماشینی به دلیل دردسر تطبیق الگوریتم ها با مشکلات و مراحل یادگیری محدود است." "DEAL این مشکل را از بین می برد و رویکردی برای مقابله با بسیاری از مشکلات و کلیه مراحل یادگیری فراهم می کند. با آسان تر کردن یادگیری فعال ، امیدواریم که بتواند تأثیر بیشتری در کاهش هزینه های حاشیه نویسی در تمرین یادگیری ماشینی داشته باشد."

تصویرسازی از الگوریتم DEAL REXP4. اعتبار: پنگ و همکاران.
با وجود نتایج بسیار امیدوارکننده ، تکنیک ابداع شده توسط محققان هنوز محدودیت قابل توجهی دارد. DEAL تمام یادگیریها را در یک مشکل واحد انجام می دهد و این نتیجه "شروع سرد" است ، بدین معنی که الگوریتم با یک صفحه خالی به همه مشکلات جدید نزدیک می شود.

پانگ گفت: "در کار مداوم ، ما یاد می گیریم که چگونه می توان بسیاری از مشکلات مختلف را حاشیه نویسی کرد و در نهایت این دانش را به یک مشکل جدید انتقال دادیم تا سریعاً بدون نیاز به گرمایش ، حاشیه نویسی مؤثر انجام شود." " کار مقدماتی ما در مورد این موضوع منتشر شده است و همچنین در کارگاه AutoML ICML 2018 جایزه بهترین مقاله را کسب کرد."

http://ztndz.com/story7349389/پمپ-وکیوم-آبی

محققان دانشگاه ادینبورگ ، کالج دانشگاه لندن (UCL) و انستیتوی علوم و فناوری نارا رویکرد یادگیری فعال جدید گروهی را بر اساس یک راهزن چند مسلح غیر ثابت و یک الگوریتم مشاوره تخصصی توسعه داده اند. روش آنها ، در مقاله ای که از قبل روی arXiv منتشر شده است ، می تواند باعث کاهش زمان و تلاش سرمایه گذاری در یادداشت دستی داده ها شود.


Timothy Hospedales ، یکی از محققانی که این مطالعه را انجام داده است ، گفت: " یادگیری ماشینی با نظارت معمولی از گرسنگی داده ها است و داده های برچسب خورده می توانند تنگنایی در هنگام گران شدن یادداشت داده ها باشند." "یادگیری فعال از پیش بینی یادگیری نظارت شده با پیش بینی ترین نکته های اطلاعاتی برای حاشیه نویسی پشتیبانی می کند تا بتوان با استفاده از بودجه حاشیه نویسی الگوهای خوب را آموزش داد."

یادگیری فعال منطقه خاصی از یادگیری ماشینی است که در آن یک الگوریتم یادگیری می تواند داده هایی را که می خواهد از آن یاد بگیرد فعالانه انتخاب کند. این به طور معمول منجر به عملکرد بهتر می شود ، با مجموعه داده های آموزشی قابل توجهی کوچکتر.

محققان انواع مختلفی از الگوریتم های یادگیری فعال را ایجاد کرده اند که می توانند هزینه های حاشیه نویسی را کاهش دهند ، اما تاکنون هیچ یک از این راه حل ها برای همه مشکلات مؤثر نبوده اند. از این رو مطالعات دیگر از الگوریتم های راهزن برای شناسایی بهترین الگوریتم یادگیری فعال برای مجموعه داده های داده استفاده شده است.

Hospedales توضیح داد: اصطلاح "راهزن" به یک دستگاه اسلات راهزن چند مسلح اشاره دارد که یک انتزاع ریاضی مناسب برای مشکلات اکتشاف / بهره برداری است. " "یک الگوریتم راهزن با تلاش صرف شده برای بهره برداری از بهترین دستگاه های حافظه که تاکنون پیدا شده است ، تعادل خوبی بین تلاش صرف شده در کاوش در کلیه دستگاه های حافظه برای پیدا کردن مبلغی که بیشتر پرداخت می شود ، پیدا می کند."

نسبت برنده ها: "آلمانی". اعتبار: پنگ و همکاران.
اثربخشی الگوریتم های یادگیری فعال هم در مشکلات و هم در طول زمان در مراحل مختلف یادگیری متفاوت است. این مشاهدات شبیه به بازی دستگاه های حافظه ، که در آن احتمال پرداخت با گذشت زمان تغییر می کند.

Hospedales گفت: هدف از مطالعه ما ایجاد یک الگوریتم راهزن جدید است که عملکرد را با حساب کردن برای این جنبه از مشکل یادگیری فعال بهبود می بخشد.

محققان برای مقابله با این محدودیت ، یک یادگیرنده فعال گروه پویا (DEAL) را بر اساس یک راهزن غیر ثابت پیشنهاد کردند. این یادگیرنده براساس پاداش (دقت وزن با اهمیت) بدست آمده پس از هر یادداشت اطلاعات ، تخمینی از هر الگوریتم یادگیری فعال بصورت آنلاین ایجاد می کند.



کانكون پانگ ، محقق دیگری كه این تحقیق را انجام داده است ، گفت: "این كار را با استفاده از اولویت های بیان شده برای آن نقطه توسط هر الگوریتم یادگیری فعال انجام می دهد." "برای مقابله با مسئله تغییر کارآیی زبان آموزان فعال با گذشت زمان ، ما به طور مرتب الگوریتم یادگیری را مجدداً شروع می کنیم تا اولویت یادگیری فعال آن را تازه کنیم. با این توانایی ، اگر مؤثرترین الگوریتم یادگیری فعال بین مراحل اولیه و دیر یادگیری تغییر کند ، ما هستیم. می تواند به سرعت با این تغییر سازگار شود. "

تصویر سازی رویکرد یادگیری فعال مبتنی بر راهزن چند مسلح. اعتبار: پنگ و همکاران.
محققان رویکرد خود را بر روی 13 مجموعه داده محبوب آزمایش کردند و به نتایج بسیار دلگرم کننده ای دست یافتند. الگوریتم DEAL آنها ضمانت عملکرد ریاضی دارند ، به این معنی که اعتماد به نفس بالایی در مورد چگونگی عملکرد آن وجود دارد.

Hospedales توضیح داد: "این ضمانت مربوط به عملکرد الگوریتم ما است ، این یک اوراکل ایده آل است که همیشه انتخاب صحیح را برای یادگیرنده فعال می داند." "این یک فاصله بین عملکرد چنین الگوریتمی بهترین حالت و ما را محدود می کند."

ارزیابی تجربی انجام شده توسط Hospedales و همکارانش تأیید کردند که الگوریتم DEAL عملکرد عملکرد یادگیری فعال را در مجموعه معیارها بهبود می بخشد. این کار را با شناسایی مداوم مؤثرترین الگوریتم یادگیری فعال برای کارهای مختلف و در مراحل مختلف آموزش انجام می دهد.

Hospedales گفت: "امروز یادگیری فعال جذاب است ، تأثیر آن بر روی شیوه های یادگیری ماشینی به دلیل دردسر تطبیق الگوریتم ها با مشکلات و مراحل یادگیری محدود است." "DEAL این مشکل را از بین می برد و رویکردی برای مقابله با بسیاری از مشکلات و کلیه مراحل یادگیری فراهم می کند. با آسان تر کردن یادگیری فعال ، امیدواریم که بتواند تأثیر بیشتری در کاهش هزینه های حاشیه نویسی در تمرین یادگیری ماشینی داشته باشد."

تصویرسازی از الگوریتم DEAL REXP4. اعتبار: پنگ و همکاران.
با وجود نتایج بسیار امیدوارکننده ، تکنیک ابداع شده توسط محققان هنوز محدودیت قابل توجهی دارد. DEAL تمام یادگیریها را در یک مشکل واحد انجام می دهد و این نتیجه "شروع سرد" است ، بدین معنی که الگوریتم با یک صفحه خالی به همه مشکلات جدید نزدیک می شود.

پانگ گفت: "در کار مداوم ، ما یاد می گیریم که چگونه می توان بسیاری از مشکلات مختلف را حاشیه نویسی کرد و در نهایت این دانش را به یک مشکل جدید انتقال دادیم تا سریعاً بدون نیاز به گرمایش ، حاشیه نویسی مؤثر انجام شود." " کار مقدماتی ما در مورد این موضوع منتشر شده است و همچنین در کارگاه AutoML ICML 2018 جایزه بهترین مقاله را کسب کرد."

http://ztndz.com/story7349389/پمپ-وکیوم-آبی

نظرات این مطلب

تعداد صفحات : 0

درباره ما
موضوعات
آمار سایت
  • کل مطالب : 14
  • کل نظرات : 0
  • افراد آنلاین : 2
  • تعداد اعضا : 0
  • بازدید امروز : 20
  • بازدید کننده امروز : 1
  • باردید دیروز : 5
  • بازدید کننده دیروز : 0
  • گوگل امروز : 0
  • گوگل دیروز : 0
  • بازدید هفته : 34
  • بازدید ماه : 45
  • بازدید سال : 62
  • بازدید کلی : 6246
  • <
    پیوندهای روزانه
    آرشیو
    اطلاعات کاربری
    نام کاربری :
    رمز عبور :
  • فراموشی رمز عبور؟
  • خبر نامه


    معرفی وبلاگ به یک دوست


    ایمیل شما :

    ایمیل دوست شما :



    کدهای اختصاصی