به بچه گربه خود بگویید که در داخل چه فکر می کنید - جلوه جعبه سیاه
این واقعیت که الگوریتمهای پیشرفته هوش مصنوعی مانند یک جعبه سیاه (1) هستند که نتیجه را بدون فاش کردن چگونگی به وجود آمدن دور میاندازد، برخی را نگران میکند و برخی دیگر را ناراحت میکند.
در سال 2015، از یک تیم تحقیقاتی در بیمارستان Mount Sinai در نیویورک خواسته شد تا از این روش برای تجزیه و تحلیل پایگاه داده گسترده بیماران محلی استفاده کنند (2). این مجموعه وسیع حاوی اقیانوسی از اطلاعات بیمار، نتایج آزمایشات، نسخه ها و موارد دیگر است.
دانشمندان برنامه تحلیلی را که در طول این کار توسعه داده شده است، نامگذاری کردند. بر روی داده های حدود 700 نفر آموزش دید. انسان، و هنگامی که در رجیستری های جدید آزمایش شد، ثابت شده است که در پیش بینی بیماری بسیار موثر است. او بدون کمک متخصصان انسانی، الگوهایی را در پرونده های بیمارستانی کشف کرد که نشان می دهد کدام بیمار در مسیر ابتلا به بیماری مانند سرطان کبد است. به گفته کارشناسان، کارایی پیش آگهی و تشخیصی سیستم بسیار بالاتر از سایر روش های شناخته شده بود.
2. سیستم هوش مصنوعی پزشکی مبتنی بر پایگاه داده بیماران
در همان زمان، محققان متوجه شدند که آن را به روشی مرموز کار می کند. به عنوان مثال معلوم شد که برای آن ایده آل است شناخت اختلالات روانیمانند اسکیزوفرنی که برای پزشکان بسیار دشوار است. این تعجب آور بود، به خصوص که هیچ کس نمی دانست که چگونه سیستم هوش مصنوعی می تواند بیماری روانی را تنها بر اساس سوابق پزشکی بیمار به خوبی ببیند. بله، متخصصان از کمک چنین تشخیصگر ماشین کارآمدی بسیار راضی بودند، اما اگر بفهمند هوش مصنوعی چگونه به نتیجهگیری میرسد، بسیار راضیتر خواهند بود.
لایه های نورون های مصنوعی
از همان ابتدا، یعنی از زمانی که مفهوم هوش مصنوعی شناخته شد، دو دیدگاه در مورد هوش مصنوعی وجود داشت. اولی پیشنهاد کرد که ساخت ماشینهایی که مطابق با اصول شناخته شده و منطق انسانی استدلال میکنند و کار درونی آنها را برای همه شفاف میسازند، معقولتر است. دیگران بر این باور بودند که اگر ماشین ها از طریق مشاهده و آزمایش های مکرر یاد بگیرند، هوش راحت تر ظاهر می شود.
دومی به معنای معکوس کردن برنامه نویسی معمولی کامپیوتر است. به جای اینکه برنامه نویس دستوراتی برای حل یک مشکل بنویسد، برنامه تولید می کند الگوریتم خود بر اساس داده های نمونه و نتیجه دلخواه. روشهای یادگیری ماشینی که بعداً به قویترین سیستمهای هوش مصنوعی شناخته شده امروزی تبدیل شدند، در واقع مسیری را طی کردهاند که خود دستگاه برنامه ریزی می کند.
این رویکرد در حاشیه تحقیقات سیستم های هوش مصنوعی در دهه 60 و 70 باقی ماند. تنها در آغاز دهه قبل، پس از برخی تغییرات و بهبودهای پیشگامانه، شبکه های عصبی "عمیق". شروع به نشان دادن یک پیشرفت اساسی در قابلیت های ادراک خودکار کرد.
یادگیری ماشین عمیق به رایانه ها توانایی های خارق العاده ای مانند توانایی تشخیص کلمات گفتاری تقریباً با دقت یک انسان داده است. این یک مهارت بسیار پیچیده است که نمی توان از قبل برنامه ریزی کرد. ماشین باید بتواند "برنامه" خود را توسط آموزش مجموعه داده های عظیم.
یادگیری عمیق همچنین تشخیص تصویر کامپیوتری را تغییر داده و کیفیت ترجمه ماشینی را تا حد زیادی بهبود بخشیده است. امروزه از آن برای گرفتن انواع تصمیمات کلیدی در پزشکی، مالی، تولید و غیره استفاده می شود.
با این حال، با همه اینها شما نمی توانید فقط به داخل یک شبکه عصبی عمیق نگاه کنید تا ببینید "درون" چگونه کار می کند. فرآیندهای استدلال شبکه در رفتار هزاران نورون شبیه سازی شده، سازماندهی شده در ده ها یا حتی صدها لایه پیچیده به هم پیوسته تعبیه شده است..
هر یک از نورون های لایه اول یک ورودی مانند شدت یک پیکسل در یک تصویر دریافت می کند و سپس محاسبات را قبل از خروجی گرفتن انجام می دهد. آنها در یک شبکه پیچیده به نورون های لایه بعدی منتقل می شوند - و به همین ترتیب، تا سیگنال خروجی نهایی. علاوه بر این، فرآیندی وجود دارد که به عنوان تنظیم محاسبات انجام شده توسط تک تک نورون ها شناخته می شود تا شبکه آموزشی نتیجه مطلوب را ایجاد کند.
در مثالی که اغلب ذکر شده مربوط به تشخیص تصویر سگ است، سطوح پایینتر هوش مصنوعی ویژگیهای سادهای مانند شکل یا رنگ را تجزیه و تحلیل میکند. موارد بالاتر با مسائل پیچیده تری مانند خز یا چشم سروکار دارند. فقط لایه بالایی همه را با هم جمع می کند و مجموعه کامل اطلاعات را به عنوان یک سگ شناسایی می کند.
همین رویکرد را میتوان برای انواع دیگری از ورودیهایی که ماشین را قادر میسازد تا خود را یاد بگیرد، اعمال کرد: صداهایی که کلمات را در گفتار میسازند، حروف و کلماتی که جملات را در متن نوشته شده میسازند، یا فرمان. حرکات لازم برای رانندگی وسیله نقلیه
ماشین چیزی را از دست نمی دهد.
سعی شده است توضیح داده شود که دقیقاً در چنین سیستم هایی چه اتفاقی می افتد. در سال 2015، محققان در گوگل الگوریتم تشخیص تصویر یادگیری عمیق را تغییر دادند تا به جای دیدن اشیاء در عکسها، آنها را تولید یا تغییر دهند. با اجرای الگوریتم به عقب، آنها می خواستند ویژگی هایی را که برنامه برای تشخیص مثلاً یک پرنده یا یک ساختمان استفاده می کند، کشف کنند.
این آزمایشها، که عموماً به عنوان عنوان شناخته میشوند، تصاویر شگفتانگیزی از (3) حیوانات، مناظر و شخصیتهای عجیب و غریب، عجیب و غریب ایجاد کردند. با افشای برخی از اسرار ادراک ماشین، مانند این واقعیت که الگوهای خاصی به طور مکرر برگردانده و تکرار می شوند، همچنین نشان دادند که یادگیری ماشینی عمیق چقدر با ادراک انسان متفاوت است - به عنوان مثال، به این معنا که مصنوعاتی را که ما نادیده می گیریم گسترش می دهد و تکرار می کند. در فرآیند ادراک ما بدون تفکر . .
3. تصویر ایجاد شده در پروژه
به هر حال، از سوی دیگر، این آزمایشها راز مکانیسمهای شناختی خودمان را آشکار کردهاند. شاید در درک ما باشد که اجزای مختلف نامفهومی وجود دارد که باعث می شود فوراً چیزی را بفهمیم و نادیده بگیریم، در حالی که دستگاه با حوصله تکرارهای خود را روی اشیاء "بی اهمیت" تکرار می کند.
آزمایشات و مطالعات دیگری در تلاش برای "درک" دستگاه انجام شد. جیسون یوسینسکی او ابزاری ایجاد کرد که مانند یک کاوشگر گیر کرده در مغز عمل می کند و هر نورون مصنوعی را هدف قرار می دهد و به دنبال تصویری می گردد که آن را به شدت فعال می کند. در آخرین آزمایش، تصاویر انتزاعی در نتیجه "نگاه کردن" شبکه با دست قرمز ظاهر شد که فرآیندهای در حال انجام در سیستم را حتی مرموزتر کرد.
با این حال، برای بسیاری از دانشمندان، چنین مطالعه ای یک سوء تفاهم است، زیرا، به نظر آنها، برای درک سیستم، شناخت الگوها و مکانیسم های مرتبه بالاتر تصمیم گیری های پیچیده، تمام تعاملات محاسباتی درون یک شبکه عصبی عمیق این یک هزارتوی عظیم از توابع و متغیرهای ریاضی است. در حال حاضر برای ما قابل درک نیست.
کامپیوتر راه اندازی نمی شود؟ چرا؟
چرا درک مکانیسم های تصمیم گیری سیستم های هوش مصنوعی پیشرفته مهم است؟ در حال حاضر از مدلهای ریاضی برای تعیین اینکه کدام زندانی میتواند به صورت مشروط آزاد شود، به چه کسی وام داده شود و چه کسی میتواند شغل پیدا کند، استفاده میشود. علاقه مندان می خواهند بدانند که چرا این تصمیم گرفته شده و نه تصمیم دیگری، زمینه ها و مکانیسم آن چیست؟
او در آوریل 2017 در بررسی فناوری MIT اعتراف کرد. تامی یاکولا، یک استاد MIT که روی برنامه های کاربردی برای یادگیری ماشین کار می کند. -.
حتی یک موضع حقوقی و سیاسی وجود دارد که توانایی بررسی و درک مکانیسم تصمیمگیری سیستمهای هوش مصنوعی یک حق اساسی بشر است.
از سال 2018، اتحادیه اروپا در حال کار بر روی الزام شرکتها به ارائه توضیحات به مشتریان خود در مورد تصمیمات اتخاذ شده توسط سیستمهای خودکار بوده است. به نظر می رسد که گاهی اوقات این امکان وجود ندارد حتی با سیستم هایی که به نظر نسبتاً ساده به نظر می رسند، مانند برنامه ها و وب سایت هایی که از علم عمیق برای نمایش تبلیغات یا توصیه آهنگ استفاده می کنند.
رایانههایی که این خدمات را اجرا میکنند، خودشان برنامهنویسی میکنند، و آنها این کار را به روشهایی انجام میدهند که ما نمیتوانیم درک کنیم... حتی مهندسانی که این برنامهها را ایجاد میکنند، نمیتوانند به طور کامل نحوه عملکرد آن را توضیح دهند.