هوش مصنوعی از منطق پیشرفت علمی پیروی نمی کند
تکنولوژی

هوش مصنوعی از منطق پیشرفت علمی پیروی نمی کند

ما بارها در MT در مورد محققان و متخصصانی نوشته‌ایم که سیستم‌های یادگیری ماشین را «جعبه‌های سیاه» (1) حتی برای کسانی که آن‌ها را می‌سازند، اعلام می‌کنند. این امر ارزیابی نتایج و استفاده مجدد از الگوریتم های در حال ظهور را دشوار می کند.

شبکه‌های عصبی - تکنیکی که به ما ربات‌های تبدیل هوشمند و تولیدکننده‌های متن مبتکرانه‌ای می‌دهد که حتی می‌توانند شعر خلق کنند - برای ناظران بیرونی یک راز غیرقابل درک باقی می‌ماند.

آنها بزرگتر و پیچیده تر می شوند، مجموعه داده های عظیمی را مدیریت می کنند و از آرایه های محاسباتی عظیم استفاده می کنند. این امر تکرار و تجزیه و تحلیل مدل های به دست آمده را برای سایر محققین پرهزینه و گاه غیرممکن می کند، مگر برای مراکز بزرگ با بودجه های هنگفت.

بسیاری از دانشمندان به خوبی از این مشکل آگاه هستند. از جمله آنها جوئل پینو (2)، رئیس NeurIPS، کنفرانس برتر تکرارپذیری. کارشناسان تحت رهبری او می خواهند یک "چک لیست تکرارپذیری" ایجاد کنند.

به گفته پینو، ایده این است که محققان را تشویق کند تا به دیگران نقشه راه ارائه دهند تا بتوانند کارهایی را که قبلا انجام داده‌اند بازآفرینی کرده و استفاده کنند. شما می توانید از شیوایی یک تولید کننده متن جدید یا چابکی فوق بشری یک ربات بازی ویدیویی شگفت زده شوید، اما حتی بهترین متخصصان نیز نمی دانند این شگفتی ها چگونه کار می کنند. بنابراین، بازتولید مدل‌های هوش مصنوعی نه تنها برای شناسایی اهداف و جهت‌های جدید برای تحقیق، بلکه به‌عنوان یک راهنمای کاملاً عملی برای استفاده نیز مهم است.

دیگران در تلاش برای حل این مشکل هستند. محققان گوگل «کارت‌های مدل» را برای تشریح جزئیات نحوه آزمایش سیستم‌ها، از جمله نتایجی که به اشکالات احتمالی اشاره می‌کنند، ارائه کردند. محققان موسسه آلن برای هوش مصنوعی (AI2) مقاله ای را منتشر کرده اند که هدف آن گسترش چک لیست تکرارپذیری Pinot به سایر مراحل در فرآیند آزمایشی است. آنها اصرار می کنند: "کار خود را نشان دهید."

گاهی اوقات اطلاعات اولیه گم می شود زیرا پروژه تحقیقاتی متعلق به آزمایشگاه هایی است که برای شرکت کار می کنند. با این حال، اغلب نشانه‌ای از ناتوانی در توصیف روش‌های تحقیق در حال تغییر و پیچیده است. شبکه های عصبی حوزه بسیار پیچیده ای هستند. برای به دست آوردن بهترین نتایج، تنظیم دقیق هزاران "شستی و دکمه" اغلب مورد نیاز است که برخی آن را "جادوی سیاه" می نامند. انتخاب مدل بهینه اغلب با تعداد زیادی آزمایش همراه است. جادو بسیار گران می شود.

به عنوان مثال، زمانی که فیس بوک سعی کرد کار AlphaGo را تکرار کند، سیستمی که توسط DeepMind Alphabet توسعه یافته بود، این کار بسیار دشوار بود. به گفته کارمندان فیس بوک، نیازمندی های محاسباتی عظیم، میلیون ها آزمایش بر روی هزاران دستگاه در طول روز، همراه با کمبود کد، سیستم را "اگر نگوییم غیرممکن" بازسازی، آزمایش، بهبود و گسترش آن بسیار دشوار کرده است.

مشکل به نظر تخصصی است. با این حال، اگر بیشتر فکر کنیم، پدیده مشکلات تکرارپذیری نتایج و عملکردها بین یک تیم تحقیقاتی و تیم دیگر، تمام منطق عملکرد علم و فرآیندهای تحقیقاتی را که برای ما شناخته شده است، تضعیف می کند. به عنوان یک قاعده، نتایج تحقیقات قبلی می تواند به عنوان مبنایی برای تحقیقات بیشتر مورد استفاده قرار گیرد که توسعه دانش، فناوری و پیشرفت عمومی را تحریک می کند.

اضافه کردن نظر