کابینه وحشت
تکنولوژی

کابینه وحشت

ظهور ماشین‌ها و تصرف قدرت توسط هوش مصنوعی. دنیایی از نظارت کامل و کنترل اجتماعی. جنگ هسته ای و انحطاط تمدن. بسیاری از تصورات تاریک از آینده، که سال ها پیش ترسیم شده اند، باید امروز اتفاق می افتاد. و در همین حال به گذشته نگاه می کنیم و به نظر می رسد که آنها آنجا نبوده اند. مطمئنی؟

یک مجموعه نسبتا کلیشه ای از محبوب وجود دارد پیشگویی های دیستوپیایی (درباره چشم انداز سیاه آینده). علاوه بر رایج ترین موارد مرتبط با تخریب محیط زیست و منابع طبیعی، اعتقاد عمومی بر این است که جدیدترین فناوری ها به ارتباطات بین فردی، روابط و جامعه آسیب می زند.

فضای مجازی به طرز فریبنده ای جایگزین مشارکت واقعی در جهان خواهد شد. سایر دیدگاه های دیستوپیایی، توسعه فناوری را راهی برای افزایش نابرابری اجتماعی، تمرکز قدرت و ثروت در دست گروه های کوچک می دانند. نیازهای بالای فناوری مدرن دانش و مهارت را در حلقه های باریک افراد ممتاز متمرکز می کند، نظارت بر افراد را افزایش می دهد و حریم خصوصی را از بین می برد.

به عقیده بسیاری از آینده پژوهان، بهره وری بالاتر و انتخاب قابل مشاهده بیشتر می تواند با ایجاد استرس، به خطر انداختن مشاغل و مادی گرایی فزاینده نسبت به دنیا، به کیفیت زندگی انسان آسیب برساند.

یکی از معروف‌ترین "دیستوپیایی"های تکنولوژیک، جیمز گلیک، یک مثال به ظاهر پیش پا افتاده از یک کنترل از راه دور تلویزیون را به عنوان یک اختراع کلاسیک ارائه می دهد که یک مشکل مهم را حل نمی کند و باعث ایجاد مشکلات جدید زیادی می شود. گلیک به نقل از یک مورخ فنی ادوارد تنر، می نویسد که توانایی و سهولت تعویض کانال با استفاده از کنترل از راه دور در درجه اول باعث حواس پرتی بیشتر و بیشتر بیننده می شود.

به جای رضایت، مردم به طور فزاینده ای از کانال هایی که تماشا می کنند ناراضی هستند. به جای ارضای نیازها، احساس ناامیدی بی پایان وجود دارد.

آیا خودروها ما را در رزرو نگه می دارند؟

آیا ما قادر خواهیم بود این چیزی را که اجتناب ناپذیر است و احتمالاً به زودی در راه است کنترل کنیم؟ بیش از هوش مصنوعی؟ اگر چنین باشد، همانطور که بسیاری از رویاهای دیستوپیایی اعلام می کنند، پس خیر. (1).

کنترل چیزی که چندین برابر از ما قوی تر است دشوار است. با افزایش تعداد وظایف بیست سال پیش، هیچ کس باور نمی کرد که بتواند احساسات را در صدا و چهره یک فرد بسیار دقیق تر از خود ما بخواند. در همین حال، الگوریتم های آموزش داده شده در حال حاضر قادر به انجام این کار، تجزیه و تحلیل حالات چهره، صدای صدا و نحوه صحبت ما هستند.

رایانه ها نقاشی می کشند، موسیقی می سازند و یکی از آنها حتی در مسابقه شعری در ژاپن برنده شد. آنها مدتهاست که مردم را در شطرنج شکست می دهند و بازی را از صفر یاد می گیرند. همین امر در مورد بازی بسیار پیچیده تر Go نیز صدق می کند.

از قوانین شتاب هر چه سریعتر پیروی می کند. آنچه هوش مصنوعی - با کمک انسان - در دهه های گذشته به دست آورده است، در چند سال آینده، شاید فقط چند ماه، دو برابر خواهد شد، و سپس تنها هفته ها، روزها، ثانیه ها طول می کشد.

همانطور که اخیراً مشخص شد، الگوریتم‌های مورد استفاده در تلفن‌های هوشمند یا فرودگاه‌ها برای تجزیه و تحلیل عکس‌های دوربین‌های همه جا حاضر نه تنها می‌توانند فرد را در فریم‌های مختلف تشخیص دهند، بلکه ویژگی‌های روان‌شناختی منحصراً صمیمی را نیز تعیین می‌کنند. گفتن اینکه این یک خطر بزرگ برای حفظ حریم خصوصی است مانند چیزی نگفتن است. این در مورد نظارت ساده، تماشای هر مرحله نیست، بلکه در مورد اطلاعاتی است که در نتیجه ظاهر یک شخص، در مورد تمایلات پنهان و ترجیحات شخصی او ایجاد می شود. 

الگوریتم‌ها می‌توانند با تجزیه و تحلیل صدها هزار مورد، این را نسبتاً سریع بیاموزند، که بسیار بیشتر از آن چیزی است که حتی زیرک‌ترین فرد در طول عمرش می‌تواند ببیند. آنها با داشتن چنین تجربه فراوانی می توانند حتی از مجرب ترین روانشناس، زبان بدن و تحلیلگر حرکات، فرد را با دقت بیشتری اسکن کنند.

بنابراین دیستوپی وحشتناک واقعی این نیست که رایانه‌ها شطرنج بازی می‌کنند یا به مصاف ما می‌روند، بلکه این است که آنها می‌توانند روح ما را عمیق‌تر از هر کس دیگری غیر از خودمان ببینند، پر از ممنوعیت‌ها و موانع در شناخت آن یا سایر تمایلات.

الون ماسک معتقد است زمانی که سیستم‌های هوش مصنوعی شروع به یادگیری و استدلال در مقیاسی روزافزون می‌کنند، «هوش» ممکن است در جایی توسعه یابد. عمیق در لایه های وب، برای ما نامحسوس است.

بر اساس یک مطالعه آمریکایی که در سال 2016 منتشر شد، در 45 سال آینده، هوش مصنوعی 50 درصد شانس دارد که در همه وظایف از انسان پیشی بگیرد. پیش بینی ها می گویند بله، هوش مصنوعی مشکل سرطان را حل می کند، اقتصاد را بهبود می بخشد و سرعت می بخشد، سرگرمی را فراهم می کند، کیفیت و طول عمر را بهبود می بخشد، به ما آموزش می دهد که بدون آن نتوانیم زندگی کنیم، اما ممکن است روزی بدون آن زندگی کنیم. نفرت، فقط برای بر اساس محاسبه منطقی، فقط ما را حذف می کند. شاید از نظر فیزیکی کار نکند، زیرا در هر سیستم ارزش ذخیره، بایگانی و ذخیره منابعی را دارد که "ممکن است روزی مفید باشند". بله، این منبعی است که می توانیم برای هوش مصنوعی باشیم. نیروی انسانی حفاظت شده؟

خوشبین ها خود را با این واقعیت تسلیت می دهند که همیشه فرصتی برای بیرون کشیدن دوشاخه از پریز وجود دارد. با این حال، همه چیز به این سادگی نیست. در حال حاضر، زندگی انسان ها آنقدر به رایانه ها وابسته شده است که گامی رادیکال علیه آنها برای ما فاجعه خواهد بود.

از این گذشته، ما به طور فزاینده‌ای در حال ایجاد سیستم‌های تصمیم‌گیری مبتنی بر هوش مصنوعی هستیم و به آنها حق پرواز هواپیما، تعیین نرخ بهره، راه‌اندازی نیروگاه‌ها را می‌دهیم - می‌دانیم که الگوریتم‌ها این کار را بسیار بهتر از ما انجام خواهند داد. در عین حال، ما به طور کامل درک نمی کنیم که این تصمیمات دیجیتال چگونه گرفته می شوند.

این نگرانی وجود دارد که سیستم های فرماندهی فوق هوشمند مانند "کاهش ازدحام" ممکن است آنها را به این نتیجه برساند که تنها راه موثر برای انجام کار این است که ... کاهش جمعیت به یک سوم یا حتی نصف شود.

بله، ارزش این را دارد که به دستگاه مهمترین دستورالعمل مانند "اول از همه، جان یک انسان را نجات دهید!" داده شود. با این حال، چه کسی می‌داند که آیا منطق دیجیتال منجر به حبس بشر می‌شود یا در زیر انباری، جایی که ممکن است در آن امن باشیم، اما مطمئناً آزاد نیستیم.

جرایم سایبری به عنوان یک خدمت

در گذشته، دیستوپیاها و تصاویر دنیای پساآخرالزمانی در ادبیات و سینما معمولاً در دوران پس از هسته ای اتفاق می افتاد. امروزه نابودی هسته‌ای برای فاجعه و نابودی جهان آنطور که ما می‌شناسیم ضروری به نظر نمی‌رسد، هرچند نه آنطور که ما تصور می‌کنیم. ، بعید است که جهان را مانند "ترمیناتور" که در آن با نابودی هسته ای ترکیب شده بود، نابود کند. اگر این کار را می کرد، یک ابرهوشمند نبود، بلکه یک نیروی بدوی بود. به هر حال، حتی بشر هنوز سناریوی جهانی یک درگیری ویرانگر هسته ای را درک نکرده است.

یک آخرالزمان ماشینی واقعی می تواند بسیار کمتر تاثیرگذار باشد.

جنگ سایبری، حملات ویروس، هک سیستم و باج‌افزار، باج‌افزار (2) دنیای ما را کمتر از بمب‌ها به‌طور مؤثری فلج و نابود می‌کند. اگر مقیاس آنها گسترش یابد، ممکن است وارد مرحله‌ای از جنگ تمام عیار شویم که در آن قربانی و گروگان ماشین‌ها می‌شویم، هرچند که آنها ملزم به عمل مستقل نیستند و ممکن است مردم همچنان پشت همه چیز باشند.

تابستان گذشته، آژانس امنیت سایبری و امنیت زیرساخت ایالات متحده (CISA) حملات باج‌افزاری را «مشاهده‌ترین تهدید امنیت سایبری» نامید.

CISA ادعا می‌کند که بسیاری از فعالیت‌هایی که در آن یک مجرم سایبری داده‌های یک فرد یا سازمان را رهگیری و رمزگذاری می‌کند و سپس باج می‌گیرد، هرگز گزارش نمی‌شود، زیرا قربانی به مجرمان سایبری پول پرداخت می‌کند و تمایلی به انتشار مشکلات سیستم‌های ناامن آنها ندارد. در سطح خرد، مجرمان سایبری اغلب افراد مسن‌تری را هدف قرار می‌دهند که در تشخیص محتوای صادقانه و غیرصادقانه در اینترنت مشکل دارند. آنها این کار را با بدافزار تعبیه شده در پیوست ایمیل یا یک پاپ آپ در یک وب سایت آلوده انجام می دهند. همزمان، حملات به شرکت‌های بزرگ، بیمارستان‌ها، سازمان‌های دولتی و دولت‌ها در حال افزایش است.

دومی‌ها به‌ویژه به دلیل داده‌های حساسی که در اختیار داشتند و توانایی پرداخت باج‌های کلان مورد هدف قرار گرفتند.

برخی از اطلاعات، مانند اطلاعات سلامت، برای مالک بسیار ارزشمندتر از سایرین است و می تواند پول بیشتری را برای مجرمان به همراه داشته باشد. سارقان می توانند بلوک های بزرگی از داده های بالینی مهم برای مراقبت از بیمار مانند نتایج آزمایش یا اطلاعات دارویی را رهگیری یا قرنطینه کنند. وقتی زندگی در خطر است، در بیمارستان جایی برای مذاکره وجود ندارد. یکی از بیمارستان های آمریکا در نوامبر سال گذشته پس از حمله تروریستی اوت برای همیشه تعطیل شد.

احتمالاً به مرور زمان بدتر خواهد شد. در سال 2017، وزارت امنیت داخلی ایالات متحده اعلام کرد که حملات سایبری می تواند زیرساخت های حیاتی مانند تاسیسات آب را هدف قرار دهد. و ابزارهای مورد نیاز برای انجام چنین اقداماتی به طور فزاینده ای برای اپراتورهای کوچکتر در دسترس است، که آنها بسته های باج افزاری مانند نرم افزار Cerber و Petya را به آنها می فروشند و پس از حملات موفقیت آمیز هزینه باج می گیرند. بر اساس جرایم سایبری به عنوان یک خدمت.

اختلال خطرناک در ژنوم

یکی از موضوعات محبوب دیستوپیا ژنتیک، دستکاری DNA و پرورش افراد است - علاوه بر این، "برنامه ریزی" شده در راه درست (مقامات، شرکت ها، ارتش).

تجسم مدرن این اضطراب ها روشی برای محبوبیت است ویرایش ژن CRISPR (3). مکانیسم های موجود در آن در درجه اول نگران کننده است. اجبار توابع مورد نظر در نسل های بعدی و پتانسیل آنها به کل جمعیت گسترش یافت. یکی از مخترعان این تکنیک، جنیفر دودنا، حتی اخیراً به دلیل پیامدهای بالقوه فاجعه بار خواستار تعلیق چنین تکنیک‌های ویرایشی «خط جوانه» شده است.

به یاد بیاورید که چند ماه پیش، یک دانشمند چینی اون جیانکویی به دلیل ویرایش ژن های جنین انسان به منظور ایمن سازی آنها در برابر ویروس ایدز به طور گسترده مورد انتقاد قرار گرفته است. دلیل آن این بود که تغییراتی که او ایجاد کرد می توانست از نسلی به نسل دیگر با پیامدهای غیرقابل پیش بینی منتقل شود.

نگرانی خاصی به اصطلاح d (بازنویسی ژن، محرک ژن)، یعنی. یک مکانیسم مهندسی ژنتیکی که یک سیستم ویرایش را در DNA یک فرد کدگذاری می کند ژنوم CRISPR/CAS9 با تنظیم آن برای ویرایش این گونه از ژن ناخواسته. به همین دلیل، فرزندان به طور خودکار (بدون مشارکت متخصصان ژنتیک) نوع ژن ناخواسته را با نوع مورد نظر بازنویسی می کنند.

با این حال، یک نوع ژن نامطلوب می تواند توسط فرزندان "به عنوان یک هدیه" از یک والدین دیگر اصلاح نشده دریافت شود. بنابراین درایو ژن بیایید بشکنیم قوانین وراثت مندلیکه می گویند نیمی از ژن های غالب به فرزندان یکی از والدین می رسد. به طور خلاصه، این در نهایت منجر به گسترش نوع ژن مورد نظر در کل جمعیت خواهد شد.

زیست شناس دانشگاه استنفورد کریستینا اسمولکه، در پانل مهندسی ژنتیک در سال 2016، هشدار داد که این مکانیسم می تواند عواقب مضر و در موارد شدید، وحشتناک داشته باشد. محرک ژن قادر است در طول نسل ها جهش پیدا کند و باعث اختلالات ژنتیکی مانند هموفیلی یا هموفیلی شود.

همانطور که در مقاله ای که توسط محققان دانشگاه کالیفرنیا در ریورساید در مجله نیچر ریویز منتشر شد خواندیم، حتی اگر یک درایو در یک جمعیت از یک موجود زنده مطابق با هدف عمل کند، همان ویژگی ارثی می تواند مضر باشد اگر به نحوی به جمعیت دیگری وارد شود. . همان نگاه

همچنین این خطر وجود دارد که دانشمندان درایوهای ژنی را پشت درهای بسته و بدون بررسی همتایان ایجاد کنند. اگر کسی عمدا یا ناخواسته یک محرک ژن مضر را وارد ژنوم انسان کند، مانند چیزی که مقاومت ما را در برابر آنفولانزا از بین می‌برد، حتی می‌تواند به معنای پایان گونه‌های هوموساپینس باشد.

سرمایه داری نظارتی

نسخه ای از دیستوپیا که نویسندگان سابق داستان های علمی تخیلی به سختی می توانستند تصورش را بکنند، واقعیت اینترنت و به ویژه رسانه های اجتماعی است، با همه پیامدهای توصیف شده آن که حریم خصوصی، روابط و یکپارچگی روانی افراد را از بین می برد.

این دنیا فقط در اجراهای هنری جدیدتر نقاشی شده است، مانند آنچه در مجموعه Black Mirror در قسمت 2016 "The Diving" (4) مشاهده کردیم. شوشانا زوبوفیک اقتصاددان از دانشگاه هاروارد، این واقعیت را کاملاً وابسته به خود تأییدی اجتماعی و کاملاً «محروم» می‌داند. سرمایه داری نظارتی ()و در عین حال تاج کاری گوگل و فیسبوک.

4. صحنه ای از "آینه سیاه" - قسمت "غواصی"

به گفته زوبوف، گوگل اولین مخترع است. علاوه بر این، به طور مداوم در حال گسترش فعالیت های نظارتی خود است، به عنوان مثال از طریق پروژه های شهر هوشمند به ظاهر بی گناه. یک نمونه پروژه نوآورانه ترین محله جهان توسط Sidewalk Labs، یکی از شرکت های تابعه گوگل است. اسکله در تورنتو

گوگل قصد دارد تمام کوچکترین داده ها را در مورد زندگی ساکنان آب نما، حرکت و حتی تنفس آنها با کمک سنسورهای نظارتی در همه جا جمع آوری کند.

همچنین انتخاب یک دیستوپی اینترنتی که در فیس بوک قابل بحث نیست، دشوار است. سرمایه داری نظارتی ممکن است توسط گوگل اختراع شده باشد، اما این فیس بوک بود که آن را به سطح کاملا جدیدی رساند. این کار از طریق مکانیسم‌های ویروسی اجتماعی و عاطفی و آزار و اذیت بی‌رحمانه حتی کسانی که از پلتفرم زاکربرگ نیستند، انجام شد.

هوش مصنوعی محافظت شده، غوطه ور در واقعیت مجازی، زندگی با UBI

به گفته بسیاری از آینده پژوهان، آینده جهان و فناوری با پنج علامت اختصاری - AI، AR، VR، BC و UBI مشخص می شود.

خوانندگان "MT" احتمالاً به خوبی می دانند که آنها چیست و سه مورد اول از چه چیزی تشکیل شده است. زمانی که متوجه می‌شویم موضوع از چه قرار است، چهارمین «پیش از میلاد» است. و پنجمی؟ UBD مخفف مفهوم است، به معنی "درآمد پایه جهانی » (5). این یک منفعت عمومی است که هرازگاهی فرض می‌شود و با توسعه سایر فناوری‌ها، به‌ویژه هوش مصنوعی، به هر فردی که از کار آزاد می‌شود تعلق می‌گیرد.

5. درآمد پایه جهانی - UBI

سوئیس حتی سال گذشته این ایده را به همه پرسی گذاشت، اما شهروندانش آن را رد کردند، زیرا می ترسیدند که ارائه یک درآمد تضمین شده منجر به سیل مهاجران شود. UBI همچنین خطرات دیگری را به همراه دارد، از جمله خطر تداوم نابرابری های اجتماعی موجود.

هر یک از انقلاب‌های تکنولوژیک پشت نام اختصاری (همچنین رجوع کنید به:) - اگر در جهت مورد انتظار گسترش یابد و توسعه یابد - عواقب عظیمی برای بشریت و جهان ما دارد، از جمله، البته، دوز عظیمی از دیستوپیا. به عنوان مثال، اعتقاد بر این است که می تواند جایگزین چرخه های انتخاباتی چهار ساله شود و منجر به همه پرسی در مورد مسائل بی شماری شود.

واقعیت مجازی نیز به نوبه خود قادر است بخشی از بشریت را از دنیای واقعی «حذف» کند. به عنوان مثال، در مورد جانگ جی سونگ کره ای، که پس از مرگ دخترش در سال 2016 بر اثر یک بیماری صعب العلاج، از آن زمان با آواتار خود در واقعیت مجازی آشنا شده است. فضای مجازی نیز انواع جدیدی از مشکلات را ایجاد می کند یا در واقع همه مشکلات شناخته شده قدیمی را به دنیای "جدید" یا حتی به بسیاری از دنیاهای دیگر منتقل می کند. تا حدودی می‌توانیم این را در شبکه‌های اجتماعی ببینیم، جایی که اتفاق می‌افتد که لایک‌های کم پست‌ها منجر به افسردگی و خودکشی می‌شود.

قصه های نبوی کم و بیش

گذشته از همه اینها، تاریخچه ایجاد بینش های دیستوپیایی نیز احتیاط را در فرمول بندی پیش بینی ها می آموزد.

6. جلد "جزایر در شبکه"

شاهکار علمی تخیلی معروف ریدلی اسکات که سال گذشته فیلمبرداری شدشکارچی اندروید» از سال 1982. می توان درباره تحقق یا عدم تحقق بسیاری از عناصر خاص بحث کرد، اما این که مهمترین پیشگویی در مورد وجود اندرویدهای هوشمند انسان نما در زمان ما، از بسیاری جهات برتر از انسان، هنوز به واقعیت تبدیل نشده است، قابل انکار نیست.

ما آماده خواهیم بود تا ضربات پیشگویانه بیشتری را تحمل کنیم."نورومنسرها»یعنی رمان ویلیام گیبسون از سال 1984 که مفهوم "فضای مجازی" را رایج کرد.

با این حال، در آن دهه، کتاب کمی کمتر شناخته شده ظاهر شد (در کشور ما، تقریباً به طور کامل، زیرا به لهستانی ترجمه نشده بود)، که زمان امروز را بسیار دقیق‌تر پیش‌بینی می‌کرد. من در مورد عاشقانه صحبت می کنمجزایر در وب"(6) بروس استرلینگ از سال 1988، در سال 2023. دنیایی غوطه ور در چیزی شبیه به اینترنت، معروف به "وب" را ارائه می دهد. توسط شرکت های بزرگ بین المللی کنترل می شود. "جزایر در وب" به دلیل ارائه کنترل، نظارت و انحصار اینترنت ادعایی رایگان قابل توجه است.

همچنین جالب است که عملیات رزمی را که با استفاده از وسایل نقلیه هوایی بدون سرنشین (پهپادها) علیه دزدان دریایی/تروریست های آنلاین انجام می شود، پیش بینی کنیم. اپراتورهای هزاران مایل دورتر با دسکتاپ ایمن - از کجا بدانیم؟ کتاب درباره درگیری بی پایان با تروریسم اسلامی نیست، بلکه در مورد مبارزه با نیروهای مخالف جهانی شدن است. دنیای جزایر در شبکه نیز مملو از دستگاه های مصرفی است که شباهت زیادی به ساعت های هوشمند و کفش های ورزشی هوشمند دارند.

کتاب دیگری از دهه 80 وجود دارد که اگرچه برخی از وقایع خارق‌العاده‌تر به نظر می‌رسند، اما ترس‌های دیستوپیایی امروزی ما را به خوبی نشان می‌دهد. این "نرم افزار Georadar"، تاریخ رودی روکردر سال 2020 تنظیم شده است. جهان، وضعیت جامعه و تضادهای آن به طور باورنکردنی شبیه به آنچه امروز با آن سر و کار داریم به نظر می رسد. همچنین روبات‌هایی وجود دارند که به نام Boppers شناخته می‌شوند که به خودآگاهی رسیده و به شهرهای روی ماه فرار کرده‌اند. این عنصر هنوز محقق نشده است، اما شورش ماشین‌ها در حال تبدیل شدن به مضمون ثابت پیش‌بینی‌های سیاه است.

چشم‌اندازهای زمان ما در کتاب‌ها نیز از بسیاری جهات دقیق هستند. اکتاویا باتلر، به خصوص درتمثیل های بذرپاش» (1993). این اکشن در سال 2024 در لس آنجلس آغاز می شود و در کالیفرنیا، ویران شده توسط سیل، طوفان و خشکسالی ناشی از تغییرات آب و هوایی اتفاق می افتد. خانواده‌های طبقه متوسط ​​و کارگر در جوامعی با هم ملاقات می‌کنند که سعی می‌کنند با داروهای اعتیادآور و کیت‌های واقعیت مجازی از دنیای بیرون فرار کنند. مذاهب جدید و تئوری های توطئه در حال ظهور هستند. کاروان پناهندگان برای جلوگیری از فروپاشی اکولوژیکی و اجتماعی به سمت شمال حرکت می کند. رئیس‌جمهوری به قدرت می‌رسد که از شعار مبارزات انتخاباتی «آمریکا را دوباره بزرگ کنیم» (این شعار دونالد ترامپ است) استفاده می‌کند...

کتاب دوم باتلر، "تمثیل استعدادهامی گوید که چگونه اعضای یک فرقه مذهبی جدید زمین را با یک سفینه فضایی ترک می کنند تا آلفا قنطورس را مستعمره کنند.

***

درس این بررسی گسترده از پیش‌بینی‌ها و چشم‌اندازهای چند دهه پیش در مورد زندگی روزمره ما چیست؟

احتمالاً، واقعیت این است که دیستوپیا اغلب اتفاق می‌افتد، اما اغلب فقط تا حدی.

اضافه کردن نظر