به بچه گربه خود بگویید که در داخل چه فکر می کنید - جلوه جعبه سیاه
تکنولوژی

به بچه گربه خود بگویید که در داخل چه فکر می کنید - جلوه جعبه سیاه

این واقعیت که الگوریتم‌های پیشرفته هوش مصنوعی مانند یک جعبه سیاه (1) هستند که نتیجه را بدون فاش کردن چگونگی به وجود آمدن دور می‌اندازد، برخی را نگران می‌کند و برخی دیگر را ناراحت می‌کند.

در سال 2015، از یک تیم تحقیقاتی در بیمارستان Mount Sinai در نیویورک خواسته شد تا از این روش برای تجزیه و تحلیل پایگاه داده گسترده بیماران محلی استفاده کنند (2). این مجموعه وسیع حاوی اقیانوسی از اطلاعات بیمار، نتایج آزمایشات، نسخه ها و موارد دیگر است.

دانشمندان برنامه تحلیلی را که در طول این کار توسعه داده شده است، نامگذاری کردند. بر روی داده های حدود 700 نفر آموزش دید. انسان، و هنگامی که در رجیستری های جدید آزمایش شد، ثابت شده است که در پیش بینی بیماری بسیار موثر است. او بدون کمک متخصصان انسانی، الگوهایی را در پرونده های بیمارستانی کشف کرد که نشان می دهد کدام بیمار در مسیر ابتلا به بیماری مانند سرطان کبد است. به گفته کارشناسان، کارایی پیش آگهی و تشخیصی سیستم بسیار بالاتر از سایر روش های شناخته شده بود.

2. سیستم هوش مصنوعی پزشکی مبتنی بر پایگاه داده بیماران

در همان زمان، محققان متوجه شدند که آن را به روشی مرموز کار می کند. به عنوان مثال معلوم شد که برای آن ایده آل است شناخت اختلالات روانیمانند اسکیزوفرنی که برای پزشکان بسیار دشوار است. این تعجب آور بود، به خصوص که هیچ کس نمی دانست که چگونه سیستم هوش مصنوعی می تواند بیماری روانی را تنها بر اساس سوابق پزشکی بیمار به خوبی ببیند. بله، متخصصان از کمک چنین تشخیصگر ماشین کارآمدی بسیار راضی بودند، اما اگر بفهمند هوش مصنوعی چگونه به نتیجه‌گیری می‌رسد، بسیار راضی‌تر خواهند بود.

لایه های نورون های مصنوعی

از همان ابتدا، یعنی از زمانی که مفهوم هوش مصنوعی شناخته شد، دو دیدگاه در مورد هوش مصنوعی وجود داشت. اولی پیشنهاد کرد که ساخت ماشین‌هایی که مطابق با اصول شناخته شده و منطق انسانی استدلال می‌کنند و کار درونی آن‌ها را برای همه شفاف می‌سازند، معقول‌تر است. دیگران بر این باور بودند که اگر ماشین ها از طریق مشاهده و آزمایش های مکرر یاد بگیرند، هوش راحت تر ظاهر می شود.

دومی به معنای معکوس کردن برنامه نویسی معمولی کامپیوتر است. به جای اینکه برنامه نویس دستوراتی برای حل یک مشکل بنویسد، برنامه تولید می کند الگوریتم خود بر اساس داده های نمونه و نتیجه دلخواه. روش‌های یادگیری ماشینی که بعداً به قوی‌ترین سیستم‌های هوش مصنوعی شناخته شده امروزی تبدیل شدند، در واقع مسیری را طی کرده‌اند که خود دستگاه برنامه ریزی می کند.

این رویکرد در حاشیه تحقیقات سیستم های هوش مصنوعی در دهه 60 و 70 باقی ماند. تنها در آغاز دهه قبل، پس از برخی تغییرات و بهبودهای پیشگامانه، شبکه های عصبی "عمیق". شروع به نشان دادن یک پیشرفت اساسی در قابلیت های ادراک خودکار کرد. 

یادگیری ماشین عمیق به رایانه ها توانایی های خارق العاده ای مانند توانایی تشخیص کلمات گفتاری تقریباً با دقت یک انسان داده است. این یک مهارت بسیار پیچیده است که نمی توان از قبل برنامه ریزی کرد. ماشین باید بتواند "برنامه" خود را توسط آموزش مجموعه داده های عظیم.

یادگیری عمیق همچنین تشخیص تصویر کامپیوتری را تغییر داده و کیفیت ترجمه ماشینی را تا حد زیادی بهبود بخشیده است. امروزه از آن برای گرفتن انواع تصمیمات کلیدی در پزشکی، مالی، تولید و غیره استفاده می شود.

با این حال، با همه اینها شما نمی توانید فقط به داخل یک شبکه عصبی عمیق نگاه کنید تا ببینید "درون" چگونه کار می کند. فرآیندهای استدلال شبکه در رفتار هزاران نورون شبیه سازی شده، سازماندهی شده در ده ها یا حتی صدها لایه پیچیده به هم پیوسته تعبیه شده است..

هر یک از نورون های لایه اول یک ورودی مانند شدت یک پیکسل در یک تصویر دریافت می کند و سپس محاسبات را قبل از خروجی گرفتن انجام می دهد. آنها در یک شبکه پیچیده به نورون های لایه بعدی منتقل می شوند - و به همین ترتیب، تا سیگنال خروجی نهایی. علاوه بر این، فرآیندی وجود دارد که به عنوان تنظیم محاسبات انجام شده توسط تک تک نورون ها شناخته می شود تا شبکه آموزشی نتیجه مطلوب را ایجاد کند.

در مثالی که اغلب ذکر شده مربوط به تشخیص تصویر سگ است، سطوح پایین‌تر هوش مصنوعی ویژگی‌های ساده‌ای مانند شکل یا رنگ را تجزیه و تحلیل می‌کند. موارد بالاتر با مسائل پیچیده تری مانند خز یا چشم سروکار دارند. فقط لایه بالایی همه را با هم جمع می کند و مجموعه کامل اطلاعات را به عنوان یک سگ شناسایی می کند.

همین رویکرد را می‌توان برای انواع دیگری از ورودی‌هایی که ماشین را قادر می‌سازد تا خود را یاد بگیرد، اعمال کرد: صداهایی که کلمات را در گفتار می‌سازند، حروف و کلماتی که جملات را در متن نوشته شده می‌سازند، یا فرمان. حرکات لازم برای رانندگی وسیله نقلیه

ماشین چیزی را از دست نمی دهد.

سعی شده است توضیح داده شود که دقیقاً در چنین سیستم هایی چه اتفاقی می افتد. در سال 2015، محققان در گوگل الگوریتم تشخیص تصویر یادگیری عمیق را تغییر دادند تا به جای دیدن اشیاء در عکس‌ها، آنها را تولید یا تغییر دهند. با اجرای الگوریتم به عقب، آنها می خواستند ویژگی هایی را که برنامه برای تشخیص مثلاً یک پرنده یا یک ساختمان استفاده می کند، کشف کنند.

این آزمایش‌ها، که عموماً به عنوان عنوان شناخته می‌شوند، تصاویر شگفت‌انگیزی از (3) حیوانات، مناظر و شخصیت‌های عجیب و غریب، عجیب و غریب ایجاد کردند. با افشای برخی از اسرار ادراک ماشین، مانند این واقعیت که الگوهای خاصی به طور مکرر برگردانده و تکرار می شوند، همچنین نشان دادند که یادگیری ماشینی عمیق چقدر با ادراک انسان متفاوت است - به عنوان مثال، به این معنا که مصنوعاتی را که ما نادیده می گیریم گسترش می دهد و تکرار می کند. در فرآیند ادراک ما بدون تفکر . .

3. تصویر ایجاد شده در پروژه

به هر حال، از سوی دیگر، این آزمایش‌ها راز مکانیسم‌های شناختی خودمان را آشکار کرده‌اند. شاید در درک ما باشد که اجزای مختلف نامفهومی وجود دارد که باعث می شود فوراً چیزی را بفهمیم و نادیده بگیریم، در حالی که دستگاه با حوصله تکرارهای خود را روی اشیاء "بی اهمیت" تکرار می کند.

آزمایشات و مطالعات دیگری در تلاش برای "درک" دستگاه انجام شد. جیسون یوسینسکی او ابزاری ایجاد کرد که مانند یک کاوشگر گیر کرده در مغز عمل می کند و هر نورون مصنوعی را هدف قرار می دهد و به دنبال تصویری می گردد که آن را به شدت فعال می کند. در آخرین آزمایش، تصاویر انتزاعی در نتیجه "نگاه کردن" شبکه با دست قرمز ظاهر شد که فرآیندهای در حال انجام در سیستم را حتی مرموزتر کرد.

با این حال، برای بسیاری از دانشمندان، چنین مطالعه ای یک سوء تفاهم است، زیرا، به نظر آنها، برای درک سیستم، شناخت الگوها و مکانیسم های مرتبه بالاتر تصمیم گیری های پیچیده، تمام تعاملات محاسباتی درون یک شبکه عصبی عمیق این یک هزارتوی عظیم از توابع و متغیرهای ریاضی است. در حال حاضر برای ما قابل درک نیست.

کامپیوتر راه اندازی نمی شود؟ چرا؟

چرا درک مکانیسم های تصمیم گیری سیستم های هوش مصنوعی پیشرفته مهم است؟ در حال حاضر از مدل‌های ریاضی برای تعیین اینکه کدام زندانی می‌تواند به صورت مشروط آزاد شود، به چه کسی وام داده شود و چه کسی می‌تواند شغل پیدا کند، استفاده می‌شود. علاقه مندان می خواهند بدانند که چرا این تصمیم گرفته شده و نه تصمیم دیگری، زمینه ها و مکانیسم آن چیست؟

او در آوریل 2017 در بررسی فناوری MIT اعتراف کرد. تامی یاکولا، یک استاد MIT که روی برنامه های کاربردی برای یادگیری ماشین کار می کند. -.

حتی یک موضع حقوقی و سیاسی وجود دارد که توانایی بررسی و درک مکانیسم تصمیم‌گیری سیستم‌های هوش مصنوعی یک حق اساسی بشر است.

از سال 2018، اتحادیه اروپا در حال کار بر روی الزام شرکت‌ها به ارائه توضیحات به مشتریان خود در مورد تصمیمات اتخاذ شده توسط سیستم‌های خودکار بوده است. به نظر می رسد که گاهی اوقات این امکان وجود ندارد حتی با سیستم هایی که به نظر نسبتاً ساده به نظر می رسند، مانند برنامه ها و وب سایت هایی که از علم عمیق برای نمایش تبلیغات یا توصیه آهنگ استفاده می کنند.

رایانه‌هایی که این خدمات را اجرا می‌کنند، خودشان برنامه‌نویسی می‌کنند، و آن‌ها این کار را به روش‌هایی انجام می‌دهند که ما نمی‌توانیم درک کنیم... حتی مهندسانی که این برنامه‌ها را ایجاد می‌کنند، نمی‌توانند به طور کامل نحوه عملکرد آن را توضیح دهند.

اضافه کردن نظر