واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering
واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering

عیسی کلانتری: درباره آب ۴۰ سال است که به بیراهه می‌رویم/ در سال ۱۴۲۰ چیزی به‌نام کشاورزی نداریم

عیسی کلانتری: درباره آب ۴۰ سال است که به بیراهه می‌رویم/ در سال ۱۴۲۰ چیزی به‌نام کشاورزی نداریم
از سال‌های ۱۳۷۰ به‌بعد برداشت ما از آب‌های سطحی و زیرزمینی به مراتب بیشتر از میزان ذخیره آب بوده است، در نتیجه ما از ذخایر خوردیم، درحالی‌که آب تمدن یک سرزمین است.
«حکومت اگر تصمیم بگیرد می‌تواند یک شبه مسائل سیاسی، اقتصادی، تورم را حل کند، یکسری تغییرات در سیاست خارجی و داخلی بدهد، آدم‌های عاقلی برسرکار بیایند، دو سه ساله مشکلات کشور حل می‌شود، اما شما اگر آب خودتان را از دست بدهید یک کشور ۷ هزار ساله را از دست داده‌اید، به‌نظرم مهم‌ترین مسئله‌ای که دولت‌ها در مورد آن اهمال و کم‌کاری کرده‌اند، مسئله آب کشور است.»

به گزارش خبرآنلاین، ۱۲ سال وزیر کشاورزی بوده، درباره دریاچه ارومیه آن‌قدر دغدغه داشته که برای رهبری و رئیس‌جمهور وقت نامه نوشته، در حوزه آب هشدارهای جدی داده، آخرین سمتش در دولت، رئیس سازمان حفاظت از محیط‌زیست بوده، او عیسی کلانتری است. منتقدان زیادی دارد، اما موافقانش بابت حرف‌های تندی که درباره حفظ آب در کشور می‌زند، تقدیرش می‌کنند. منتقدان البته این‌ها را فقط حرف می‌دانند و عمل او در حوزه دریاچه ارومیه و یا زمانی که رئیس سازمان محیط‌زیست بوده، ناموفق می‌دانند.
او دو ساعتی مهمان کافه خبر بود تا درباره این انتقادات و دغدغه‌هایش صحبت کند.
 
گفت‌وگوی ما با او را بخوانید:
 
*شما در مرند متولد شدید و همان‌جا تحصیل کردید، دوره کارشناسی در دانشگاه ارومیه گذراندید و برای ادامه تحصیل به آمریکا رفتید، برادر شهید شما هم همین‌طور بودند، ایشان پلی‌تکنیک درس خوانده بودند و گفته می‌شود آدم باهوش وفعالی بودند، شما خانوادگی درس‌خوان و تحصیلکرده هستید؟
 
ما آدم‌های متوسطی هستیم، ولی خوب پدر من آدم روشنفکری بود که به تحصیل اهمیت می‌داد، به ما می‌گفت تا هر زمانی‌که بخواهید ادامه تحصیل بدهید خرج‌تان را من می‌دهم اما بعدش با خودتان، ایشان مصدقی سفت و سختی بود که اواخر دهه چهل به حبس ابد محکوم شد.
 
*حکم حبس ابد درباره ایشان اجرا شد؟
 
تقریبا.
 
*یعنی زندان رفتند؟
 
بله، دو سالی زندان بودند و به‌مناسبت جشن‌های ۲۵۰۰ ساله عفو شدند.
 
*برادر شما دومین وزیر راه جمهوری اسلامی بودند، درباره ایشان گفته می‌شود خیلی ساده زیست بودند.
 
البته برادر من قبل از انقلاب وضعیت مالی خیلی خوبی داشت، ایشان مرا با زور فرستادند تا رفتم آمریکا، حتی همکلاسی‌های مرا تشویق کرد و کمک اولیه کرد که آمریکا رفتیم، می‌گفت دو سال می‌خواهید بروید سربازی عمرتان را تلف کنید. وضع مالی خوبی داشت اما همه اموال خودش را بخشیده بود، ایشان وقتی شهید شد فقط یک دستگاه آپارتمان ۱۴۰ متری در میدان کلانتری یوسف‌آباد داشت، درحالی‌که قبل از انقلاب ماهی ۸۰ هزار تومان حقوق می‌گرفت، یعنی حدود ۱۱ هزار دلار.
 
*از کجا حقوق می‌گرفتند؟
 
از شرکت‌های راه‌سازی، مدیر کارگاه راه‌سازی بود، از بخش خصوصی حقوق می‌گرفت.
 
*شما رفتید آمریکا و سال ۱۳۶۰ برگشتید؟
 
بله دی ماه سال ۱۳۶۰.
 
*یعنی موقع شهادت برادر ایران نبودید؟
 
خیر ایران نبودم.
 
*پس خیلی سخت بوده.
 
زندگی همین است، پذیرش شهادت در سال‌های اوایل جمهوری اسلامی، یکی از ظرفیت‌های همه ما بود.
 
*اگر سال ۱۳۶۰ به ایران برنمی‌گشتید، فکر می‌کنید عیسی کلانتری الان در چه شرایطی قرار داشت؟
 
من وقتی به ایران برگشتم از دانشگاه مینه‌سوتا برای استادیاری پذیرش شده بودم، ولی ترجیح دادم به ایران برگردم، خانواده نیاز داشت و موسی هم شهید شده بود و هم این‌که کشور نیاز داشت.
 
*پشیمان نیستید؟
 
نه.
 
*ولی اگر آن‌جا می‌ماندید دست‌کم بعید بود این را تجربه می‌کردید که وقتی یک روز از خواب بیدار شدید، سرخط خبرها این باشد که عیسی کلانتری به‌عنوان جاسوس موساد بازداشت شده است؟
 
البته در کشور ما این چیزها بعید نیست، چون وقتی شما به هرکسی بله نمی‌گویید آن‌ها در صدد حذف شما هستند، تعاملی وجود ندارد. جاسوس معمولاً دو کار انجام می‌دهد، جاسوس‌های نیمه حرفه‌ای خبر و اطلاعات منتقل می‌کنند، جاسوس‌های حرفه‌ای نفوذ می‌کنند و منافع ملی کشور را ویران می‌کنند. من هم که از دولت جدا شده بودم، ضمن این‌که در دولت اطلاعات سری مطرح نمی‌شود، اطلاعات سری در شورای عالی امنیت مطرح می‌شود که دولتی‌ها هم از آن اطلاع ندارند، لذا شبکه‌های جاسوسی دنیا سعی می‌کنند به آن‌جاها نفوذ کنند تا منافع کشور را تهدید کنند، این گروه جاسوس‌ها خطرناک‌تر هستند. جاسوس‌هایی که انتقال اطلاعات می‌کنند یا گیر می‌افتند یا نمی‌افتند.
 
*شما جایی گفته بودید وقتی دنبال اطلاعات آب بودید، دانشگاه کالیفرنیا اطلاعات بیشتری از خودمان درباره آب ایران داشت؟
 
هم بیشتر و هم دقیق‌تر، نه فقط درباره ایران بلکه درباره همه دنیا.
 
*چطور آن‌ها اطلاعات بیشتری درباره آب ایران دارند؟
 
از طریق شبکه‌های ماهواره‌ای، وقتی درجه حرارت و بارش مشخص است آن‌ها می‌توانند اطلاعات آب‌های تجدیدپذیر را دربیاورند.
 
*چرا ما این اطلاعات را نداریم؟
 
ما پیشرفته نیستیم، نیاز به سیستم‌های پیشرفته است که آن‌ها در اختیار دارند، آن‌ها حتی آب‌های عمقی را هم می‌بینند.
 
*شما همیشه دغدغه آب داشتید، دست‌کم درباره دریاچه ارومیه برای آقای خاتمی و رهبری نامه می‌نویسید، سال‌ها قبل‌تر از این‌که کسی باور داشته باشد دریاچه ارومیه قرار است خشک شود، شما درباره‌اش هشدار دادید.
 
آب مانند حساب بانکی است، شما می‌دانید به حساب بانکی خودتان چقدر واریزی و برداشت دارید، و چقدر برای‌تان باقی مانده است، آب مانند همین حساب بانکی است، وقتی می‌دانید بارش، تبخیر و نفوذ آب به منابع زیرزمین چقدر است، راحت می‌توانید پیش‌بینی کنید که چقدر می‌توانید برداشت کنید.
 
متاسفانه از سال‌های ۱۳۷۰ به‌بعد برداشت ما از آب‌های سطحی و زیرزمینی به مراتب بیشتر از میزان ذخیره آب بوده است، در نتیجه ما از ذخایر خوردیم، درحالی‌که آب تمدن یک سرزمین است، حکومت اگر تصمیم بگیرد می‌تواند یک شبه مسائل سیاسی، اقتصادی، تورم را حل کند، یکسری تغییرات در سیاست خارجی و داخلی بدهد، آدم‌های عاقلی برسرکار بیایند، دو سه ساله مشکلات کشور حل می‌شود، اما شما اگر آب خودتان را از دست بدهید یک کشور ۷ هزار ساله را از دست داده‌اید، به‌نظرم مهم‌ترین مسئله‌ای که دولت‌ها در این مورد آن اهمال و کم‌کاری کرده‌اند، مسئله آب کشور است.
 
*به تعبیر شما این کم‌کاری در حوزه آب اتفاق افتاده است، چه‌طور می‌توانید خودتان را از حاکمیت دراین‌باره جدا کنید؟
 
من هم یکی از این‌ها هستم.
 
*چه شد که این کم‌کاری را انجام دادید؟
 
مسائل سیاسی، کاهش درآمدهای خارجی ارزی، فشار بر تامین غذا از منابع داخلی، این‌ها سبب شد ما حقوق بچه‌های فردا را در راستای توسعه پایدار فراموش کنیم. وقتی ما محدودیت‌های سیاسی پیدا کردیم و به دلایل سیاسی تحریم شدیم، بدون توجه به سیاست‌های توسعه پایدار به منابع داخلی فشار آوردیم.
 
*و درباره مدیریت آب چطور؟
 
ریشه آن به قانون مصوب اسفند ۱۳۶۱ یعنی قانون توزیع عادلانه آب برمی‌گردد، جالب این‌که اختیارات آب که یک موضوع میان‌بخشی است، به یک نفر یعنی وزیر نیرو دادند که حتی رئیس جمهور هم حق دخالت ندارد. وزیر نیرو از سال ۱۳۶۱ مسئولیت دارد که آب کشور را متعادل نگه دارد، اما وزرای نیرو به علت فشارهای سیاسی اجتماعی هیچ‌گاه نتوانستند به این وظیفه عمل کنند درحالی‌که مهم‌ترین وظیفه آن‌ها است.
 
تا سال ۱۳۷۰ آب‌های تجدیدپذیر بالای ۱۲۰ میلیارد مترمکعب بود، جمعیت آن روزها حدود ۵۰ میلیون نفر بود، یعنی ۲۴۰۰ متر مکعب برای هر نفر در سال، طبق تعاریف بین‌المللی کشوری که بالای ۱۷۰۰ متر مکعب در سال برای هر نفر آب تجدیدپذیر دارد نباید در محیط زیست، شرب و صنعت مشکلی داشته باشد. آن سال‌ها ما مشکلی نداشتیم و اهمیت هم نمی‌دادیم. حالا که جمعیت زیاد شده و به حدود ۸۵ میلیون نفر رسیده، آب تجدیدپذیر کشور زیر ۹۰ میلیارد متر مکعب است، یعنی به طور متوسط ۱۰۵۰ متر مکعب آب تجدیدپذیر داریم و ۶۵ درصد جمعیت زیر ۷۰۰ متر مکعب آب دارند، این وضعیت از دیدگاه جهانی وضعیت قرمز و اوج خطر است.
 
حداکثر مجاز برداشت از منابع آبی تجدیدپذیر ۴۰ درصد تعریف شده است، به غیر از دو سه تا جزیره کوچک مانند بحرین، ما تنها کشوری هستیم که ۱۰۰ درصد و بیشتر از ۱۰۰ درصد از آب تجدید پذیر کشور را مصرف می‌کنیم، یعنی به منابع آب‌های فسیلی دست درازی کردیم و آن‌ها را هم تمام کردیم.
 
*نقش وزارت نیرو این وسط کجاست، شما همیشه از منتقدان وزرای نیرو بوده‌اید.
 
وزارت نیرو زیر فشار نماینده‌ها و حاکمیت است که به کشاورزی برای توسعه آب بدهد، درحالی‌که این وزارتخانه موظف است که استحصال آب را کنترل کند، اما چون‌که سیاست‌های تولی‌گری و تصدی‌گری در یک وزاتخانه جمع شده است این مشکل ایجاد می‌شود. وزیر نیرو باید تشخیص تخصیص بدهد، اما بدون توجه به تعادل آب این کار را کرده است، کشاورزها هم از آب تخصیص یافته استفاده کرده‌اند، وزارت نیرو هم هرچه آب بیشتری بفروشد درآمد بیشتری خواهد داشت، لذا اگرچه معتقدم خیلی دیر شده اما حفظ وضعیت موجود شدنی است.
 
*در چه ‌شرایطی وضع موجود حفظ می‌شود؟
 
اگر سیاست تخصیص آب را از وزات نیرو بگیریم و به سازمان برنامه و بودجه بدهیم، یعنی مثل تخصیص بودجه، آن‌ها تشخیص بدهند کجاها باید مصرف آب کم شود، دراین‌صورت خیلی از چاه‌ها و پمپاژ آب کنار خیلی از رودخانه‌ها باید تعطیل شود، ما توان مصرف ۹۰ میلیارد متر مکعب آب در سال را نداریم، اگر ۴۰ درصد سازمان ملل را بپذیریم سقف مصرف ما ۳۶ میلیارد متر مکعب آب می‌شود، ما باید طی پنج-شش سال ۴۰ میلیارد متر مکعب از استحصال آب از منابع سطحی و زیرزمینی کم کنیم.
 
*این حرف‌ها از زبان شما پذیرفتنی نیست، چراکه آن سال‌ها شما وزیر کشاورزی بودید و مسائل آب اگرچه با منافع وزارتخانه شما در تضاد بود اما شما هم کاری نکردید، در بهترین حالت فقط توصیه کردید.
 
اتفاقاً سال ۱۳۶۹ من وزیر بودم، وزارت نیرو ۱۰ میلیون تومان از چاه‌های غیرمجاز در استان کرمان پول می‌گرفت و پروانه بهره‌برداری می‌داد، آن روزها من و آقای زنگنه درباره این سیاست به اختلاف نظر خوردیم، من باید به عنوان وزیر کشاورزی از این سیاست حمایت می‌کردم اما می‌دانستم فردا چه اتفاقی خواهد افتاد و همه چاه‌ها خشک خواهند شد، آن روز آقای هاشمی رفسنجانی به من گفت چرا دخالت می‌کنی آب برای وزارت نیرو است، گفتم بله اما من برای کشاورزی آب دائم می‌خواهم، اگر یک درخت می‌کارم این درخت حداقل باید ۵۰ سال عمر کند نه این‌که ۵ سال دیگر خشک شود. ایشان پرسیدند که مگر آب‌های زیرزمینی هم پایانی دارد، من دو جلسه خدمت ایشان رفتم ودرباره آب‌های زیرزمینی توضیح دادم، این‌که اگر ما به‌صورت ناپایدار از آن استقاده کنیم بله پایان دارد، ایشان حرف مرا پذیرفت.
 
آقای چیت‌چیان (وزیر نیرو – دولت اول حسن روحانی) یک آماری دادند، گفتند مقدار آب‌های تزریقی به منابع زیرزمینی در سال ۱۹.۵ میلیارد مترمکعب است، همان زمان برداشت ما ۵۱.۵ میلیارد متر مکعب بود، ۴۷ میلیارد متر مکعب توسط چاه‌های مجاز و غیرمجاز، ۴.۵ میلیارد مترمکعب هم قنات‌ها، (چشمه‌ها جزو آب‌های سطحی محسوب می‌شوند.) ما سالی ۳۰ میلیارد متر مکعب آب اضافی از زمین بیرون می‌کشیم، همراه آب، نمک‌ها را بالا می‌آوریم و در سطح خاک پخش می‌کنیم، سالانه چیزی حدود ۳۵۰ میلیون تن نمک از زیر زمین وارد خاک‌های سطحی می‌کنیم، بنابراین نه‌تنها آب کشور را از دست می‌دهیم خاک کشور را شور می‌کنیم، و چون توان شست‌وشو نداریم بهره‌وری خاک پایین می‌آید. به ضرس قاطع بگویم که درباره آب ۴۰ سال است که به بیراهه می‌رویم.
 
*چقدر منابع آبی داریم؟
 
در هشت سال دولت آقای مهندس موسوی جمعاً ۲ میلیارد متر مکعب آب اضافی از منابع زیرزمینی برداشت کردیم، یعنی سالیانه ۲۵۰ میلیون متر مکعب آب. در زمان آقای هاشمی ۲ میلیارد به ۸ میلیارد رسید، یعنی سالیانه یک میلیارد مترمکعب آب برداشت کردیم.
 
در ۸ سال دولت آقای خاتمی ۳۲ میلیارد متر مکعب آب اضافی برداشت کردیم، یعنی سالیانه ۴ میلیارد مترمکعب در سال. در زمان آقای احمدی‌نژاد این میزان به ۷۶ میلیارد متر مکعب رسید، یعنی سالیانه ۹.۵ میلیارد متر مکعب از منابع زیرزمینی آب برداشت کردیم، هرچه‌قدر در دولت آقای روحانی تلاش شد این ۷۶ میلیارد، ۷۲ میلیارد متر مکعب شد، یعنی ۹ میلیارد متر مکعب در سال. به‌عبارتی ۱۸۸ میلیارد متر مکعب ما از آب‌های فسیلی و شیرین استفاده کردیم، درحالی‌که جمع منابع فسیلی شور و شیرین آب ۵۰۰ میلیارد مترمکعب است، که حدود ۲۱۰ تا ۲۱۵ میلیارد آن شیرین است و بقیه شور هستند.
 
یعنی تا پایان دولت آقای روحانی از حدود ۲۱۵ میلیارد آب فسیلی شیرین زیرزمینی، حدود ۱۹۰ میلیارد آن را استفاده کردیم، یکی از اصول توسعه پایدار این است که شما حق ندارید به حساب آیندگان منابع کشور را مصرف کنید، یعنی حقوق نسل‌های آینده را باید پاس بداریم، به‌نظرم نسل آینده از نظر آب جایگاهی در این کشور ندارند.
 
به ضرس قاطع به شما می‌گویم، این سیاست‌های موجود برای پنج شش سال آینده ادامه پیدا کند در سال ۱۴۲۰ ما از جنوب البرز تا دریاهای جنوب و از شرق زاگرس تا مرزهای شرقی کشور چیزی به عنوان کشاورزی نخواهیم داشت، یعنی کشاورزی ایران در شمال البرز خواهد بود و غرب زاگرس، اگر با روش موجود آب را مصرف کنیم نوه‌های من و بچه‌های شما باید از ایران بروند و جایی را برای زندگی پیدا کنند چراکه آبی نخواهند داشت.
 
چرا یوزپلنگ از بین رفت؟ یوزپلنگ گوشت‌خوار است، غذای یوزپلنگ که خرگوش باشد علف‌خوار است، هم ما انسان‌ها و هم طبیعت علف‌ها را خشک کردیم، برای همین یوزپلنگ غذایی نداشت که بخورد.
 
*آب شرب چطور؟
 
چون آبی نداریم سد بسازیم آب شرب و صنعت را می‌توانند از آب دریا بیاورند، یا دکان جدیدی به نام آب‌های ژرف راه بیندازند. سیاستگذاری‌ها در بخش آب وزارت نیرو عمدتاً توسط پیمانکاران و مهندسان مشاور انجام می‌شود، پرسنل وزارت نیرو چون می‌خواهند برای خودشان کار پیدا کنند اکثراً همکاری مستقیم با این پیمانکاران و مشاورین دارند، و سراغ آب‌های ژرف می‌روند.
 
*سراغ آب‌های ژرف رفتن قرار است چه بلایی سر کشور بیاورد؟
 
خوشبختانه خیلی بلا نمی‌آورد، چراکه آب استحصالی آن آنقدر گران است که همان اول متوقف خواهد شد، توجیه نمی‌تواند داشته باشد اما خب دکان جدیدی است.
 
*پروژه‌های انتقال آب چه‌طور، شما از مدافعان این پروژه‌ها بودید؟
 
پروژه‌های انتقال آب مانند سدسازی است، همه‌جا بد نیست، همه‌جا هم خوب نیست؛ وقتی تعادل سفره حفظ شود و آب اضافی وجود داشته باشد که به منطقه دیگر منتقل شود، با حفظ پایداری آب و خاک هیچ ایرادی ندارد.
 
*الان با پروژه انتقال آب از دریای عمان به فلات مرکزی موافق هستید؟
 
این پروژه‌ها صرفه اقتصادی ندارد اگر صرفه اقتصادی داشته باشد من ۱۰۰ درصد موافقم. البته برای شرب و صنعت صرفه اقتصادی دارد، برای صنعت فولاد صرفه اقتصادی دارد اما برای کشاورزی صرفه ندارد.
 
*انتقال آب از دریای خزر چه‌طور، به صرفه است؟
 
دریای خزر چیزی حدود ۳۸۶ هزار کیلومتر مربع وسعت دارد، ورودی آب آن هم عمدتاً از طرف روسیه است، طبق قوانین آبی به ما اجازه داده‌اند ۴۰ درصد از منابع آب تجدیدپذیر خودمان را استفاده کنیم، درحالی که فقط ۱۴ درصد استفاده می‌کنیم و بقیه وارد دریای خزر می‌شود. با توجه به وسعت گیلان و مازندران و میزان بارش‌ها در این دو استان چیزی حدود ۷ میلیارد متر مکعب آب داریم که فقط ۱۴ درصد آن را استفاده می‌کنیم. بنابراین ما می‌توانیم از حوضه دریای خزر آب را به سمنان ببریم.
 
انتقال آب از دریای خزر هم برای کشاورزی صرفه اقتصادی ندارد، فقط می‌شود برای شرب و صنعت آب دریا را منتقل کرد، چراکه صنعت و شرب از عهده پرداخت هزینه آب برمی‌آید اما برای کشاورزی صرفه اقتصادی ندارد. لذا ما می‌توانیم به منابع آب‌های زیرزمینی استان سمنان فشار نیاوریم و منابع آبی مورد نیاز صنعت را از پروژه‌های انتقال آب تامین کنیم، ما حق داریم از حقابه‌ گیلان و مازندران که بیشتر وارد دریای خزر می‌شود استفاده کنیم.

سازمان هواشناسی: سرعت روند افزایش دما در ایران ۲ برابر میانگین جهانی است

سازمان هواشناسی:
سرعت روند افزایش دما در ایران ۲ برابر میانگین جهانی است
در ایران، کشوری که شمال و جنوب آن به ترتیب در عرض‌های میانی و جنب حاره‌ای قرار دارد، سرعت روند افزایش دما بیش از ۲ برابر میانگین جهانی است. 

رئیس سازمان هواشناسی کشور با اشاره به تغییر اقلیم زمین گفت: روند گرمایش فعلی زمین در ۱۰ هزار سال گذشته بی‌سابقه است و میانگین افزایش دمای کشور ما با سرعتی دو برابر روند جهانی پیش می‌رود.

به گزارش ایسنا سحر تاجبخش مسلمان درباره تغییرات اقلیم در کره زمین و آثار آن برای ایران گفت: اقلیم زمین در حال تغییر است و احتمالا این تغییرات در طول قرن جاری و بعد از آن ادامه خواهد یافت اما درچند دهه آینده، میزان تغییرات اقلیمی به میزان انتشار جهانی گازهای گلخانه‌ای و عدم قطعیت حساسیت اقلیم زمین نسبت به انتشار این گازها بستگی دارد. 

ضرورت کاهش قابل توجه گازهای گلخانه‌ای برای مقابله با گرمایش زمین

رئیس سازمان هواشناسی در ادامه اظهار کرد: با کاهش قابل توجه انتشار گازهای گلخانه‌ای، دمای سالانه میانگین جهانی می‌تواند به دو درجه سانتیگراد یا کمتر محدود شود، با این حال بدون کاهش قابل توجه انتشارگازهای گلخانه‌ای، افزایش دمای سالانه میانگین جهانی نسبت به دوران قبل از صنعتی شدن (۱۸۵۰-۱۹۰۰) تا پایان این قرن می‌تواند به بیش از ۵ درجه سلسیوس برسد. 

تاجبخش افزود: نسبت به سرعت تغییرات طبیعی اقلیم که در طول تاریخ زمین اتفاق افتاده است، اقلیم جهانی با سرعت بیشتری در حال تغییر است و گرمایش فعلی با سرعتی رخ می‌دهد که در ۱۰ هزار سال گذشته زمین سابقه نداشته است. 

معاون وزیر راه و شهرسازی در ادامه گفت: طبق گزارش هیات بین‌الدول تغییر اقلیم (IPCC)، از زمانی که ارزیابی‌های علمی منظم در دهه ۱۹۷۰ آغاز شد، تأثیر فعالیت انسان بر گرمایش سامانه اقلیم از وضعیت نظری به واقعیت تبدیل شده است.

وی افزود: اطلاعات علمی کسب شده از منابع طبیعی مانند هسته‌های یخ، سنگ‌ها و حلقه‌ درختان و اطلاعات حاصل از تجهیزات جدید مانند ماهواره‌ها و ادوات سنجشی جمله‌گی حاکی از اقلیم در حال تغییر است.

تاجبخش به گزارش سازمان جهانی هواشناسی درباره وضعیت دمای میانگین آسیا براساس شش مدل مختلف و با استفاده از داده‌های باز تحلیل و دیدبانی اشاره کرد و گفت: بر اساس این گزارش، سرعت گرمایش اقلیم زمین از دهه ۷۰ به بعد افزایشی بوده است.

رئیس سازمان هواشناسی در ادامه اظهار کرد: در ایران؛ کشوری که شمال و جنوب آن به ترتیب در عرض‌های میانی و جنب حاره‌ای قرار دارد، تغییرات اقلیمی بیش از میانگین تغییرات جهانی است. 

وی افزود: دمای میانگین کشور در پنج دهه گذشته و با استفاده از درون‌یابی داده‌های دیدبانی ایستگاه‌های هواشناسی معرف افزایش دمای دهه‌ای تقریباً با شیب ۰.۴ درجه سلسیوس است که حدود دو برابر آهنگ افزایش جهانی است و بیانگر گرمایش محیط و تغییر اقلیم کشور با سرعت بیش از میانگین جهانی است.

روند کاهشی بارش‌های تجمعی در ۵ دهه گذشته

تاجبخش درباره میزان بارندگی‌های کشور در این شرایط توضیح داد: الگوهای بارش تجمعی سالانه کشور نشان از روند کاهشی در پنج دهه گذشته داشته است. میانگین بارش تجمعی سالانه در دهه‌های ۱۹۷۳-۱۹۸۲ و ۲۰۱۳-۲۰۲۲ به ترتیب حدود ۲۵۰ و ۲۰۰ میلیمتر بود، که روند کاهشی و تفاوت ۵۰ میلیمتری بین دهه اول و پنجم را نشان می‌دهند. 

به گفته معاون وزیر راه و شهرسازی، این اطلاعات با استفاده از داده‌های دیدبانی ایستگاه‌های سازمان هواشناسی کشور و داده‌های باران‌سنجی وزارت نیرو تهیه شده است.

رئیس سازمان هواشناسی ادامه داد: از سوی دیگر افزایش روند دما موجب تبخیر سریع‌تر آب و کاهش فرصت‌ ترمیم منابع آب زیرزمینی می‌شود. رشد تبخیر در پنج دهه گذشته کشور نشان دهنده افزایش توان تبخیر و تشدید تبخیر آب دریاچه‌ها و سدها است که تاثیر مخرب بر منابع آب در دسترس از جمله در حوزه نوشیدن (شرب) و کشاورزی دارد.

تاجبخش به خشک شدن دریاچه‌های کشور طی دهه‌های گذشته اشاره کرد و گفت: در دهه‌های اخیر دریاچه‌ها در سراسر کشور با روند خشک شدن مواجه و تعدادی نیز خشک شده‌اند، مانند دریاچه ارومیه در شمال غرب که بخش اعظمی از سطح آب خود را از دست داده است. 

وی افزود: افزایش توان تبخیر همراه با فعالیت‌های مخرب انسانی، سهم قابل توجهی در عواقب محیطی ناخواسته در کشور داشته است.

رئیس سازمان هواشناسی خاطرنشان کرد: شاخص استاندارد شده بارش و تبخیر (SPEI) و تغییرات آن در سه دهه گذشته (۱۹۹۳-۲۰۲۲) به عنوان یکی از شاخص‌های استاندارد برآورد خشکسالی در کشور با در نظر گرفتن هر دو عامل دما و بارش نشان می‌دهد که فراوانی و شدت خشکسالی‌ها در کشور طی دهه‌های اخیر روند صعودی داشته است. 

هزینه‌های سنگین تغییرات اقلیم برای ایران

به گزارش پایگاه خبری وزارت راه و شهرسازی تاجبخش در پایان گفت: روند خسارت‌های وارد شده کشاورزی، نتایج حاصل از شاخص‌های خشکسالی هواشناسی مانند SPEI را تأیید می‌کند بنابراین طی ۳۰ سال گذشته روند افزایش دما، کاهش بارش، افزایش تبخیر و افزایش خشکسالی در کشور به علت تغییرات اقلیمی رخ داده که متاسفانه تبعات زیست محیطی و اقتصادی – اجتماعی جبران ناپذیری را به همراه داشته است و عدم مدیریت منابع موجود به همراه ادامه این روند در کشور، علاوه بر افزایش آسیب‌پذیری جوامع و زیرساخت‌ها در برابر بلایای جوی و اقلیمی هزینه‌های بسیار سنگینی بر کشور تحمیل می‌کند.

چند مطلب درباره آشنایی با هوش مصنوعی و آینده کاربردش

موتور جستجوی جدید گوگل/ تغییر بنیادین در دنیای اینترنت
دیجیاتو نوشت: همکاری مایکروسافت و OpenAI برای آوردن هوش مصنوعی به موتور جستجوی بینگ ظاهراً باعث شده است تا گوگل به سراغ یک موتور جستجوی جدید برود.
 
گوگل مشغول توسعه یک موتور جستجوی کاملاً جدید مبتنی بر هوش مصنوعی است. همچنین این شرکت روی ویژگی‌های هوش مصنوعی جدیدی برای موتور جستجوی فعلی‌اش کار می‌کند.
 
براساس گزارش نیویورک تایمز، گوگل در مراحل اولیه توسعه این سرویس جستجوی جدید است؛ سرویسی که می‌خواهد خواسته‌های کاربران را پیش‌بینی کند و تجربه بسیار شخصی‌سازی‌شده‌تری ارائه کند. هیچ برنامه زمانی مشخصی برای این موتور جستجوی مبتنی بر هوش مصنوعی گوگل وجود ندارد، بااین‌حال این کمپانی تحت اسم رمز «مگی» (Magi) روی مجموعه‌ای از قابلیت‌های هوش مصنوعی جدید برای موتور جستجوی فعلی‌اش کار می‌کند.
 قابلیت‌های هوش مصنوعی موتور جستجوی گوگل
 در میان ویژگی‌های مدنظر گوگل، یک چت‌بات قرار دارد که می‌تواند به سؤالات مهندسی نرم‌افزار پاسخ دهد و کد اسنیپت تولید کند. گوگل همچنین مشغول آزمایش قابلیتی است که به کاربران اجازه می‌دهد از طریق گفت‌وگو با چت‌بات، به‌دنبال موسیقی باشند. ظاهراً گوگل بیش از 160 نفر را مسئول توسعه این چت‌بات کرده است.
 
یکی دیگر از ویژگی‌های جدید که در مراحل توسعه قرار دارد، قابلیتی به نام «Searchalong» برای گوگل کروم است. این ویژگی به یک چت‌بات اجازه می‌دهد تا محتوای درون صفحه وب را بخواند و به شما اطلاعات متنی بدهد.
 
GIFI و Tivoli Tutor از دیگر قابلیت‌های جدید مدنظر گوگل هستند که به کاربران اجازه می‌دهند از Google Image Search برای ساخت تصاویر و گفت‌وگو با یک چت‌بات برای یادگیری زبان جدید استفاده کنند. بد نیست به این موضوع اشاره کنیم که بسیاری از این ویژگی‌ها در گذشته توسط خود گوگل به نمایش گذاشته شده‌اند یا اینکه در پلتفرم‌های دیگری مانند دولینگو وجود دارند.
 
گفته می‌شود گوگل ماه آینده میلادی از Magi برای موتور جستجوی فعلی‌اش رونمایی می‌کند و سپس در پاییز با ویژگی‌های جدیدتری روبه‌رو می‌شویم. این احتمال وجود دارد که در جریان رویداد I/O 2023 در 20 اردیبهشت‌ماه، گوگل از پروژه مگی رونمایی کند. این ویژگی‌ها ظاهراً ابتدا در اختیار یک میلیون کاربر آمریکایی قرار می‌گیرد و تا پایان 2023، 30 میلیون کاربر به آن‌ها دسترسی پیدا می‌کنند.


گوگل در حال ساخت موتور جستجوی جدید مبتنی‌بر هوش مصنوعی است

گروه فناوری: با داغ‌تر شدن رقابت هوش مصنوعی، گوگل خطرات جدیدی احساس می‌کند و طبق گزارش‌های متعدد اکنون در حال کار روی موتور جست‌وجوی جدید مبتنی‌بر هوش مصنوعی است.
گیزموچاینا می‌گوید، غول فناوری اهل مانتین‌ویوو در حال ساخت موتور جست‌وجوی جدیدی است که بر پایه‌ی هوش مصنوعی کار می‌کند و به‌عنوان به‌روزرسانی پلتفرم جست‌وجوی کنونی آن در نظر گرفته خواهد شد.
اسناد داخلی گوگل نشان می‌دهند این شرکت پروژه‌ای به‌ نام Magi دارد که هدف آن به‌روزرسانی موتور جست‌وجوی کنونی با فناوری جدید است و درحال‌حاضر حدود ۱۶۰ کارمند روی آن کار می‌کنند.
ظاهراً گوگل قصد دارد ماه آینده از Magi رونمایی کند و انتظار داریم پاییز سال جاری ویژگی‌های دیگری به این پلتفرم اضافه شود. غول جست‌وجوی اینترنت در رویداد بعدی I/O خود جزئیات بیشتری درمورد برنامه‌هایش ارائه خواهد داد. طبق گزارش‌های اخیر، Magi ابتدا دردسترس یک میلیون کاربر ایالات‌ متحده قرار خواهد گرفت و تا پایان سال ۳۰ میلیون کاربر دیگر می‌توانند از آن بهره ببرند.

خبر توسعه‌ی موتور جست‌وجوی مبتنی‌بر هوش مصنوعی جدید گوگل در حالی منتشر می‌شود که زمزمه‌هایی درمورد جایگزینی احتمالی موتور جست‌وجوی بینگ به‌جای گوگل در محصولات سامسونگ مطرح شده است.
مایکروسافت اخیراً از هوش مصنوعی در بینگ و سایر خدمات و محصولاتش استفاده کرده است و طی ماه‌های گذشته همواره در سرتیتر خبرهای فناوری حضور دارد. این شرکت با سرمایه‌گذاری چند میلیارد دلاری در استارتاپ OpenAI از فناوری‌های هوش مصنوعی آن بهره می‌برد.


آینده بشریت و هوش مصنوعی؛ نوش دارو یا هیولای فرانکشتاین؟

آینده بشریت و هوش مصنوعی؛ نوش دارو یا هیولای فرانکشتاین؟
ساختن تسلیحات هسته‌ای برای شرکت‌های فناوری به تنهایی قانونی نیست با این وجود، غول‌های فناوری در رقابت برای توسعه سیستم‌هایی هستند که خودشان اذعان دارند احتمالا خطرناک‌تر از خود تسلیحات هسته‌ای خواهند بود. پیشرفت در هوش مصنوعی به طرز خارق العاده‌ای سریع رخ داده و تقریبا هیچ توجهی به مقررات ایمنی صورت نمی‌گیرد.
در نامه سرگشاده‌ای درخواست شده آزمایش‌های مرتبط با هوش مصنوعی ۶ ماه متوقف شود. افرادی، چون "ایلان ماسک" مدیرعامل تسلا، "استیو وزنیاک" بنیانگذار اپل و "یووال نوح هراری" نویسنده و دانشمند علوم سیاسی از امضاکنندگان این نامه هستند. هدف نامه این است که به شرکت‌های هوش مصنوعی و تدوین‌کنندگان پادمان‌ها مهلتی قانونی بدهند تا از جامعه در برابر خطرات احتمالی فناوری محافظت کنند.
 به گزارش فرارو به نقل از مدرن دیپلماسی؛ هوش مصنوعی مبتنی بر شبکه عصبی نیرو‌های رقیب را در هر زمینه دیگری از جمله ترجمه، بازی‌های ویدئویی و حتی شطرنج درهم شکسته است. سیستم‌های یادگیری ماشین بسیار توانمند شده‌اند و محققان ادعا می‌کنند که آن سیستم‌ها مقیاس پذیر هستند.
اصطلاح مقیاس‌پذیر به این واقعیت اشاره دارد که هرچه پول و داده‌های بیش‌تری وارد شبکه عصبی شما شود، بزرگ‌تر خواهد شد و زمان بیش‌تری برای آموزش و عملکرد بهتر صرف می‌شود. حتی با وجود این که شرکت‌های بزرگ فناوری اکنون عملیات‌های چند میلیون دلاری را برای سیستم‌های خود انجام می‌دهند هیچ کس به درک محدودیت‌ها و خطرات احتمالی آن نزدیک نشده است.
 "ری کورزویل" آینده پژوه، پیشگویی کرده که رایانه‌ها تا سال ۲۰۲۹ همان سطح هوش انسان‌ها را خواهند داشت. او می‌گوید: "۲۰۲۹ تاریخی است که من پیش بینی کرده ام که هوش مصنوعی آزمایش تورینگ معتبر را پشت سر بگذارد و در نتیجه به سطوح انسانی دست یابد. من تاریخ ۲۰۴۵ را برای منحصر به فرد بودن تعیین کرده ام زمانی که با ادغام با هوشی که ایجاد کرده‌ایم، هوش موثر خود را یک میلیارد برابر می‌کنیم".
 هوش مصنوعی با پیشرفت‌های بی‌سابقه‌ در فناوری باعث بهبود وضعیت مردم می‌شود همچنین بر معنای واقعی انسان بودن در قرن بیست و یکم نیز تأثیر می‌گذارد.
 بدون شک جنبه‌های روشنی در آینده هوش مصنوعی وجود دارد از جمله پزشکی دقیق که می‌تواند ژنتیک افراد را بهبود بخشد و تشخیص برای درمان بیماری را دقیق‌تر، در دسترس‌تر و مقرون به صرفه‌تر سازد.
 دستیار‌های مجازی مانند سیری، الکسا و سایر برنامه‌ها فعالیت‌های پیش پا افتاده برای انسان‌ها انجام می‌دهند که به سبک زندگی آرام‌تر کمک می‌کنند. نرم افزاری مانند چت جی پی تی با پاسخ دادن به شیوه‌ای شبیه انسان و حل پرسش‌های پیچیده به پردازش داده‌ها و زبان کمک می‌کند.
 جنبه تاریک هوش مصنوعی، خطرات اجتناب ناپذیر خاصی را القا می‌کند از جمله نظارت انبوه، سوء استفاده از داده‌ها و از بین رفتن حریم خصوصی دیجیتال.
 چنین نظارت دیجیتالی‌ای در حال حاضر در سیستم اعتبار اجتماعی چین انجام می‌شود که نظارت را به تمام بخش‌های زندگی شهروندان گسترش می‌دهد.
 نیروی جنگ مدرن با تکنیک‌های خودکار یکی دیگر از نگرانی‌های اصلی است، زیرا روش‌های برتری در جنگ توسط فناوری پیشرفته دیکته می‌شود.
 یکی از مهم‌ترین نگرانی‌های مربوط به ظهور هوش مصنوعی، توانایی آن در جایگزینی مشاغل انسانی است. کارایی و دقت مدل‌های ماشینی به راحتی می‌تواند از هوش انسانی پیشی بگیرد. پیشرفت‌های تکنولوژیکی در هوش مصنوعی از زمان اختراع نرم افزاری مانند چت جی پی تی توسط شرکت Open AI تحت حمایت مایکروسافت، بسیار زیاد شده و آن شرکت اخیرا چت جی پی تی و جی پی تی -۴ را منتشر کرده؛ دو چت بات تولید متن که باعث ایجاد جنون در بین متخصصان هوش مصنوعی می‌شوند.
 چت بات‌های به ظاهر بی ضرر به منظور  پاسخ‌های انسان‌گونه، الگوبرداری شده اند که بسیاری را غافلگیر کرده، زیرا غول‌های بزرگ فناوری در سراسر جهان در حال رقابت برای ساخت هوش مصنوعی مولد هستند.
 دانشمندان، محققان و مدیران عامل شرکت‌های فناوری متوجه این وضعیت نگران کننده شده اند و در نامه سرگشاده توقف ۶ ماهه به این موضوع اشاره شده است.
 در این نامه سرگشاده آمده است که پویایی فعلی هوش مصنوعی خطرناک می‌باشد، زیرا آزمایشگاه‌های هوش مصنوعی در یک مسابقه غیرقابل کنترل برای توسعه سیستم‌های یادگیری قرار دارند که هیچ کس حتی سازندگان نمی‌توانند آن را درک، پیش بینی یا کنترل کنند. آنان خواستار مهلت قانونی ۶ ماهه شده اند تا به شرکت‌های هوش مصنوعی زمان داده شود، اقداماتی را برای محافظت از جامعه در برابر خطرات احتمالی فناوری تدوین کنند.
 نویسندگان نامه نوشته اند اگر تعلیق ۶ ماهه امکان پذیر نباشد دولت‌ها باید وارد عمل شده و این تعلیق را اجرا نمایند. تهدید بالقوه هوش مصنوعی شامل سوء استفاده از داده‌ها و موتور‌های اطلاعات نادرست است که حریم خصوصی را نقض می‌کنند. در نتیجه مردم با دریافت اطلاعات جعلی و ساختگی گمراه خواهند شد.
 این مدل‌ها و نرم‌افزار‌های هوش مصنوعی توسط نیروی کاری پشتیبانی و ساخته می‌شوند که تحت شرایط نامناسب کار می‌کنند. طبق گزارش‌ها تحقیقات نشریه "تایم" نشان می‌دهد که Open AI از کارگران کنیایی مهاجر با درآمد کمتر از ۲ دلار در ساعت برای ساخت چت جی پی تی استفاده کرده است. برخی از فعالان عرصه فناوری در مورد تهدیدات امنیتی بیشتر هم هشدار داده اند.
 این دستیاران دیجیتالی که با وب ارتباط دارند ایمیل‌ها را می‌خوانند و می‌نویسند و می‌توانند فرصت‌های جدیدی را در اختیار هکر‌ها قرار دهند و اطلاعات شخصی و همچنین اسرار دولتی محرمانه را به خطر بیاندازند. دستکاری و بهره برداری از نرم افزار‌ها برای دسترسی به داده‌های ذخیره شده برای هکر‌ها کار آسانی می‌باشد، زیرا نرم افزار‌های هوش مصنوعی فاقد پروتکل‌های حفاظتی کافی هستند.
هیچ حد و مرزی برای نبوغ انسانی وجود ندارد. هوش مصنوعی یکی از این اختراعات است و می‌تواند و احتمالا به طور غیرقابل درکی مخرب خواهد بود. هوش مصنوعی بسیار خطرناک می‌باشد، زیرا ممکن است روزی فرا برسد که دیگر در کنترل ما نباشد، چراکه فاقد آگاهی انسانی است و این امکان وجود دارد که کاری انجام دهد که با اهداف انسانی هماهنگ نباشد یا یک تهدید وجودی باشد.
ساختن تسلیحات هسته‌ای برای شرکت‌های فناوری به تنهایی قانونی نیست با این وجود، غول‌های فناوری در  رقابت برای توسعه سیستم‌هایی هستند که خودشان اذعان دارند احتمالا خطرناک‌تر از خود تسلیحات هسته‌ای خواهند بود. پیشرفت در هوش مصنوعی به طرز خارق العاده‌ای سریع رخ داده و تقریبا هیچ توجهی به مقررات ایمنی صورت نمی‌گیرد.
 تنها زمان نشان خواهد داد که آیا پیشرفت‌های هوش مصنوعی در سالیان آینده نوشدارویی برای مشکلات جهانی خواهد بود یا هیولای فرانکشتاینی که وجود بشر را تهدید می‌کند.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
با وجود گذشت دهه‌ها از ساخت اولین سیستم‌های هوش مصنوعی، ما هنوز درک درستی از عملکرد این فناوری نداریم و احتمالاً هرگز نخواهیم داشت.

دیجیاتو نوشت*: «جک دی کوان»، ریاضی‌دان و زیست‌شناسی نظری در سال 1956 در سفری یک‌ساله به لندن به ملاقات «ویلفرد تیلور» و «دستگاه یادگیری» عجیب‌وغریب او رفت. او از دیدن دستگاه بزرگ و پیچیده‌ای که پیش رویش قرار داشت، شگفت‌زده شده بود. کوان تنها می‌توانست بایستد و عملکرد این ماشین را تماشا کند که ظاهراً داشت یک طرح حافظه را شبیه‌سازی می‌کرد؛ به‌عبارت دیگر این دستگاه می‌توانست یاد بگیرد که چگونه رابطه میان داده‌ها را بیابد و اطلاعات استخراج کند.

دستگاه تیلور شاید در ظاهر شبیه مجموعه بزرگی از مدارها بود که به هم لحیم و با مقدار زیادی سیم به یکدیگر متصل شده بودند، اما آن‌چه کوان می‌دید نمونه اولیه‌ای از یک شبکه عصبی بود؛ سیستمی که در نهایت پس از چند دهه به پیشرفته‌ترین فناوری‌های هوش مصنوعی از جمله ChatGPT تبدیل شد. فناوری زیربنایی ChatGPT همین شبکه عصبی اما پیشرفته‌تر است.

کوان و تیلور در سال 1956 می‌ایستادند و عملکرد این دستگاه را تماشا می‌کردند، اما نمی‌دانستند که این ماشین چگونه کارهای خود را انجام می‌دهد. پاسخ معمای مغز ماشینی تیلور در جایی میان «نورون‌های آنالوگ»، در رابطه میان حافظه ماشینی و از آن مهم‌تر، در این حقیقت وجود داشت که این عملکردهای خودکار را نمی‌توان به‌طور کامل توضیح داد.

عبارت شبکه عصبی دربرگیرنده دامنه وسیعی از سیستم‌هاست. به‌گفته شرکت آی‌بی‌ام، شبکه‌های عصبی‌های – که با عنوان شبکه‌های عصبی مصنوعی (ANN) یا شبکه‌های عصبی شبیه‌سازی‌شده (SNN) هم شناخته می‌شوند – زیرمجموعه‌ای از مبحث یادگیری ماشینی هستند و در دل الگوریتم‌های یادگیری عمیق قرار می‌گیرند. نکته مهم این‌جاست که این عبارت و شکل پیاده‌سازی آن با الهام از مغز انسان ساخته شده است و شیوه ارسال سیگنال توسط نورون‌های زیستی به یکدیگر را شبیه‌سازی می‌کند.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
شبکه‌های عصبی آینده هوش مصنوعی هستند
در مراحل ابتدایی شاید تردیدهایی درباره ارزش این سیستم‌ها وجود داشت، اما با گذشت سال‌ها، سیستم‌های هوش مصنوعی بیشتر و بیشتر به‌سمت شبکه‌های عصبی حرکت کردند. حالا گفته می‌شود که این شبکه‌ها آینده هوش مصنوعی را شکل خواهند داد. این فناوری پیچیدگی‌های زیادی را برای ما و آن‌چه ما را تعریف می‌کند، به‌وجود می‌آورند. اخیراً زمزمه‌هایی را در این رابطه شنیده‌ایم. گروهی از فعالان فناوری ازجمله ایلان ماسک خواستار توقف شش‌ماهه توسعه مدل‌های هوش مصنوعی شده‌اند تا درباره این پیچیدگی‌ها اطمینان بیشتری پیدا کنند.

البته ساده‌لوحانه است اگر این شبکه‌های عصبی را صرفاً به‌عنوان ابزارهای هیجان‌انگیز و داغ در نظر بگیریم. این فناوری مدت‌هاست که به زندگی ما وارد شده است. در سال 1989 گروهی از محققان آزمایشگاه AT&T Bell از روش انتشار معکوس استفاده کردند تا سیستمی را برای شناسایی کدهای پستی دست‌نویس آموزش بدهند. در همین اواخر، مایکروسافت از نسخه جدید بینگ پرده برداشت که با کمک هوش مصنوعی می‌تواند به کمک‌خلبان شما برای وبگردی تبدیل شود.

هوش مصنوعی با تکیه بر حجم عظیمی از داده‌ها برای یافتن الگوها می‌تواند برای انجام کارهایی مثل تشخیص سریع تصاویر استفاده شود. در نتیجه، برای مثال امروز سیستم‌های تشخیص چهره را داریم. همین ویژگی در تشخیص الگوها باعث به‌وجود آمدن ابزارهای دیگری مثل ابزارهای پیش‌بینی قیمت سهام شده است.

شبکه‌های عصبی شیوه درک و ارتباطات ما را هم تغییر می‌دهند. برای مثال سرویس گوگل ترنسلیت که توسط تیم گوگل Brain توسعه داده شده است، نمونه دیگری از این شبکه‌ها به‌حساب می‌آید. از طرفی، مردم دیگر نمی‌خواهند با کامپیوترها شطرنج یا شوگی بازی کنند. کامپیوترها تسلط بالایی بر قوانین دارند و با کمک شبکه‌های عصبی می‌توانند همه استراتژی‌ها و حرکات ممکن را به‌خاطر بیاورند و بسیار بهتر از انسان‌ها این بازی‌ها را انجام دهند.

ولی گستره قابلیت‌های این فناوری فقط به همین موارد محدود نمی‌شود. اگر جست‌وجوی ساده‌ای به‌دنبال پتنت‌های مربوط به شبکه‌های عصبی داشته باشید، به 135,828 نتیجه می‌رسید. با این سرعت بالای توسعه، احتمال این که ما بتوانیم یک روز اثر واقعی هوش مصنوعی را متوجه شویم، کم و کمتر می‌شود.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
لایه‌های اسرارآمیز ناشناختگی
توجه به تاریخ شبکه‌های عصبی نکته مهمی را درباره تصمیم‌گیری‌های خودکار به ما یادآوری می‌کند، تصمیم‌گیری‌هایی که حال حاضرمان را تعریف می‌کنند یا احتمالاً بر آینده‌مان اثر بزرگ‌تری خواهند گذاشت. همین تصمیم‌گیری‌های خودکار به ما نشان می‌دهد که احتمالاً با گذشت زمان درک کمتری نسبت به هوش مصنوعی و آثار آن پیدا خواهیم کرد.

هوش مصنوعی نه یک جعبه سیاه، بلکه چیزی است که ریشه آن به هدف و طراحی این سیستم‌ها برمی‌گردد. انسان همواره به‌دنبال چیزهای غیرقابل‌توضیح بوده است. هرچه یک سیستم ناشناخته‌تر باشد، تصور می‌شود که اصیل‌تر و پیشرفته‌تر است. مسئله فقط این نیست که این سیستم‌ها دارند پیچیده‌تر می‌شوند یا مالکیت‌های فکری جلوی دسترسی به سازوکارهای آن‌ها را می‌گیرد (هرچند مورد دوم بی‌تأثیر هم نیست). در عوض باید گفت کسانی که این فناوری را توسعه می‌دهد علاقه و اشتیاق خاصی نسبت به «ناشناختگی» دارند.

این رازآلودگی حتی در فرم و گفتمان شبکه‌های عصبی نهادینه شده است. این سیستم‌ها دارای لایه‌های عمیق زیادی هستند – که نام یادگیری عمیق از همین‌جا می‌آید – و در این اعماق لایه‌های مخفیانه‌ای وجود دارند که اسرارآمیزتر به‌نظر می‌رسند. اسرار این سیستم‌ها با فاصله زیادی از لایه‌های سطح در اعماق این سیستم‌ها قرار دارد.

احتمالش بالاست که هرچه اثر هوش مصنوعی در زندگی ما بیشتر شود، درک ما از چرایی و چگونگی این فناوری کمتر شود. امروزه افراد زیادی در تلاشند تا هوش مصنوعی را قابل‌درک کنند. ما می‌خواهیم بدانیم این فناوری چگونه کار می‌کند و تصمیم‌گیری‌های خود را انجام می‌دهد. اتحادیه اروپا از ریسک‌های غیرقابل‌پذیرش و کاربردهای خطرناک هوش مصنوعی نگران است. ازاین‌رو، آن‌ها مشغول کار روی قانون جدیدی برای هوش مصنوعی هستند که می‌خواهد استانداردهایی را برای توسعه ایمن، قابل‌اطمینان و اخلاقی این فناوری تدوین کند.

این قوانین جدید براساس نیاز به توضیح‌پذیری تنظیم می‌شوند، و درخواست می‌کنند که سیستم‌های هوش مصنوعیِ پرریسک مستندات مناسب، شفافیت، داده‌های قابل ردیابی، نظارت انسانی و دقت بالایی داشته باشند. این پیش‌نیازها می‌تواند ریسک خطرات این فناوری را کاهش دهد. وجود قوانین نه‌فقط برای ابزارهایی مثل سیستم‌های خودران اتومبیل‌ها بلکه برای تمام سیستم‌های آینده ضروری است، چون می‌توانند حقوق بشر را تهدید کنند.

این اقدامات بخشی از فراخوانی عمومی به‌منظور افزایش شفافیت در حوزه هوش مصنوعی است تا فعالیت‌ها در این زمینه قابل بررسی، حساب‌رسی و ارزیابی باشد. مثال دیگری که در این زمینه می‌توان زد سیاست‌های Royal Society در زمینه هوش مصنوعیِ توضیح‌پذیر است. این انجمن می‌گوید روزبه‌روز افراد بیشتری در سراسر دنیا خواستار شکلی از توضیح‌پذیری برای هوش مصنوعی هستند تا بتوان اصول اخلاقی را در طراحی و پیاده‌سازی این سیستم‌ها به کار گرفت.

بااین‌حال، داستان شبکه‌های عصبی به ما نشان می‌دهد که احتمالاً هر سال از این هدف دورتر خواهیم شد.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
الهام‌گرفته از مغز انسان
شبکه‌های عصبی شاید سیستم‌های پیچیده‌ای باشند، اما چند اصل مشخص دارند. این شبکه‌ها با الگوبرداری از مغز انسان ساخته می‌شوند، یعنی سعی می‌کنند شکل‌های بیولوژیکی و فکری مغز را کپی یا شبیه‌سازی کنند. آن‌طور که آی‌بی‌ام می‌گوید، این سیستم‌ها از نظر ساختار و طراحی از لایه‌هایی از گره‌ها (Node) ساخته شده‌اند که شامل یک لایه ورودی، یک یا چند لایه مخفی و یک لایه خروجی است.

در این ساختار هر گره یا نورون مصنوعی به نورون‌های دیگر وصل شده است. از آن‌جایی که این نورون‌ها برای تولید خروجی نیازمند ورودی و اطلاعات هستند، با اتکا بر داده‌های تمرینی آموزش می‌بینند و در طول زمان دقت خود را افزایش می‌دهند. این جزئیات فنی اهمیت دارد، اما تمایل به مدل‌سازی این سیستم‌ها با الگوبرداری از پیچیدگی مغز انسان نیز مهم است.

آگاهی از جاه‌طلبی پشت این سیستم‌ها، در درک تأثیر این جزئیات فنی بر عملکرد سیستم‌ها نقش حیاتی دارد. «تیوو کوهونن»، متخصص شبکه‌های عصبی در مصاحبه‌ای در سال 1993 نتیجه‌گیری کرده بود که رویایش ساخت یک سیستم «خود-سامان‌ده» است که بتواند شبیه سیستم عصبی ما عمل کند. به‌عنوان مثال کوهونن می‌گفت چگونه سیستمی که بر خودش نظارت دارد و خودش را مدیریت می‌کند، می‌تواند به‌عنوان دستگاهی برای نظارت بر سایر ماشین‌ها استفاده شود. او باور داشت که با این سازوکار می‌شود در یک نگاه متوجه شد که وضعیت سیستم‌های پیچیده چگونه است.

هدف کلی داشتن سیستمی بود که بتواند خود را با وضعیت محیطش انطباق بدهد. چنین سیستمی می‌تواند فوری و خودکار عمل کند و شبیه سیستم عصبی انسان باشد. رویای متخصصانی مثل کوهونن این بود که سیستم‌ها بتوانند بدون نیاز به دخالت انسان کار کنند. پیچیدگی‌ها و ناشناختگی‌های مغز، سیستم عصبی و جهان واقعی خیلی زود بر طراحی و توسعه شبکه‌های عصبی هم اثر گذاشت.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
شبیه‌سازی مغز، لایه به لایه
حتماً متوجه شده‌اید که وقتی درباره شبکه‌های عصبی حرف می‌زنیم، همیشه بخشی از این معادله به پیچیدگی مغز انسان مربوط می‌شود، چرا که منبع الهام اصلی این سیستم‌ها بوده است. مغز هنوز یکی از ناشناخته‌های بزرگ جهان است و با این وجود به‌عنوان الگوی عملکرد شبکه‌های عصبی انتخاب شده است. بنابراین طبیعی است که درک این سیستم‌ها هم کار دشواری باشد.

«کارور مید»، مهندس رایانش عصبی در همین باره مبحث جالبی را پیرامون مفهومی موسوم به «کوه یخ شناختی» مطرح می‌کند. او می‌گوید ما فقط از نوک کوه یخ خودآگاهی اطلاع داریم و فقط همان قسمت کوچک را می‌بینیم. در نتیجه، بخش بسیار بزرگ‌تری وجود دارد که در زیر سطح آب ناشناخته باقی مانده است.

«جیمز اندرسون» که در سال 1998 چند وقتی بود روی شبکه‌های عصبی کار می‌کرد، متوجه شد که در بحث تحقیقات پیرامون مغز، بزرگ‌ترین چیزی که می‌دانیم صرفاً نوعی آگاهی است، آگاهی از این که ما واقعاً نمی‌دانیم در جهان چه اتفاقاتی در جریان است.

«ریچارد واترز»، خبرنگار فناوری نشریه فایننشال تایمز در سال 2018 در یادداشتی نوشت که چگونه شبکه‌های عصبی براساس نظریه‌ای پیرامون نحوه عملکرد مغز انسان مدل‌سازی شده‌اند و داده‌ها را از طریق لایه‌هایی از نورون‌های مصنوعی عبور می‌دهند تا به یک الگوی قابل‌تشخیص برسند.

واترز می‌گفت این موضوع مشکلی را به‌وجود می‌آورد، چون برخلاف مدارهای منطقی که در برنامه‌های نرم‌افزاری سنتی به کار گرفته می‌شدند، هیچ راهی برای ردیابی این روندهای جدید وجود ندارد و نمی‌توان دقیقاً گفت که کامپیوتر چطور به این پاسخ‌ها رسیده است. واترز نتیجه گرفته بود که این خروجی‌ها را نمی‌توان معکوس کرد. استفاده از این شیوه مدل‌سازی از مغز، یعنی عبوردادن داده‌ها از میان تعداد زیادی لایه، به‌معنای این است که نمی‌توان به‌راحتی مسیر به‌دست‌آمدن پاسخ را ردیابی کرد. چندلایه‌بودن سیستم یکی از دلایل اصلی این مشکل است.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
هدف اصلی هوش مصنوعی انطباق‌پذیری است
دانشمندانی مثل مید و کوهونن می‌خواستند سیستمی بسازند که ذاتاً بتواند خود را با جهان اطرافش انطباق بدهد. چنین سیستمی می‌تواند با توجه به شرایط پاسخ‌های متفاوت ارائه کند. مید به‌روشنی باور داشت که ارزش شبکه‌های عصبی به همین توانمندی در رسیدن به انطباق‌پذیری است. او همچنین می‌گفت که دستیابی به این امکان هدف اصلی آن‌هاست. او معتقد بود که این انطباق‌پذیری به‌خاطر ماهیت جهان ما لازم است، چون همه‌چیز در آن تغییر می‌کند.

به این مسئله باید به‌طور خاص رسیدگی می‌شد، چون مید باور داشت که این موضوع مدت‌ها پیش توسط سیستم عصبی آنها انجام شده بود. این دو متخصص نه‌تنها با تصویری از مغز و ناشناخته‌های آن کار می‌کردند، بلکه آن را با بینشی از «جهان واقعی» و تردیدها، ناشناخته‌ها و تغییرات آن ترکیب می‌کردند. مید اعتقاد داشت که این سیستم‌ها باید بتوانند بدون دریافت دستورالعمل‌های جدید به شرایط گوناگون پاسخ بدهند و خود را با آن‌ها منطبق کنند.

در همان حوالی زمانی در دهه 1990، «استفن گروسبرگ»، متخصص سیستم‌های شناختی که در زمینه ریاضیات، روانشناسی و مهندسی زیست‌پزشکی کار کرده بود، هم باور داشت که انطباق‌پذیری چیزی است که در درازمدت اهمیت بسیاری پیدا می‌کند. گروسبرگ در حین مدل‌سازی شبکه‌های عصبی با خود فکر کرد که مهم‌ترین نکته این است که چطور روش‌های اندازه‌گیری بیولوژیکی و سیستم‌های کنترلی ما طراحی شده‌اند تا به‌شکلی سریع و پایدار در لحظه خود را با جهانی که به سرعت در حال تغییر است، انطباق بدهند.

همان‌طور که بالاتر درباره رویای کوهونن درباره یک سیستم «خود-سامان‌ده» گفتیم، فهم «جهان واقعی» تبدیل به زمینه اصلی برای تبیین پاسخ‌ها و انطباق‌هایی می‌شود که درون این سیستم‌ها کارگذاری خواهند شد. حال این که چگونه این جهان را درک و تصور کنیم، بدون شک بر نحوه طراحی سیستم‌هایی با قابلیت انطباق‌پذیری اثر خواهد گذاشت.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
لایه‌های مخفی هوش مصنوعی
با افزایش تعداد لایه‌ها، یادگیری عمیق به عمق‌های جدیدی رسید. «لری هاردستی»، نویسنده علوم کامپیوتر، می‌گوید شبکه‌های عصبی با اطلاعاتی آموزش داده می‌شود که به لایه پایینی آن‌ها – یعنی لایه ورودی – داده می‌شود و از لایه‌های بعدی می‌گذرد و به روش‌های پیچیده با یکدیگر ترکیب می‌شود تا در نهایت به شکلی بسیار متفاوت به لایه خروجی برسد.

هرچه تعداد لایه‌ها بیشتر باشد، تحولات عظیم‌تر می‌شود و فاصله میان ورودی و خروجی افزایش می‌یابد. توسعه پردازشگرهای گرافیکی (GPU) امکان ایجاد شبکه‌های یک‌لایه در دهه 1960 و شبکه‌های سه‌لایه در دهه 1980 را فراهم کرد. امروزه شبکه‌هایی با 10، 15 و حتی 50 لایه داریم.

شبکه‌های عصبی دارند عمیق‌تر می‌شوند. به‌گفته هاردستی، همین افزودن لایه‌هاست که کلمه «عمیق» را در «یادگیری عمیق» به‌وجود آورده است. این مسئله اهمیت دارد، چون در حال حاضر یادگیری عمیق پشت بهترین سیستم‌ها در تقریباً هر حوزه‌ای از تحقیقات پیرامون هوش مصنوعی است.

اما این معما حتی از این هم پیچیده‌تر می‌شود. با افزایش لایه‌ها در شبکه‌های عصبی، پیچیدگی آن‌ها بیشتر شده است. این مسئله همچنین به چیزی منجر شده که ما از آن با عنوان «لایه‌های مخفی» یاد می‌کنیم. بحث پیرامون بهترین تعداد لایه‌های مخفی در شبکه‌های عصبی همچنان ادامه دارد. «بئاتریس فازی»، تئوریسین رسانه‌ای می‌گوید به‌خاطر نحوه عملکرد شبکه‌های عصبی عمیق، و اتکا بر لایه‌های عصبی مخفی که میان اولین لایه نورون‌ها (لایه ورودی) و آخرین لایه آن‌ها (لایه خروجی) قرار گرفته‌اند، تکنیک‌های یادگیری عمیق اغلب حتی برای توسعه‌دهندگان آن‌ها غیرشفاف و غیرقابل‌فهم هستند.

با افزایش تعداد لایه‌ها (مشتمل بر لایه‌های مخفی) توضیح‌پذیری این سیستم‌ها کمتر می‌شود. «کاترین هیلز»، متفکر برجسته حوزه رسانه در این باره می‌گوید محدودیت‌هایی پیرامون میزان فهمی که می‌توانیم درباره این سیستم‌ها داشته باشیم، وجود دارد و این مسئله تحت‌تأثیر شبکه لایه‌های مخفی و الگوریتم‌های یادگیری عمیق است.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟

در جست‌وجوی توضیح‌ناپذیر
تمام این پیشرفت‌ها بخشی از چیزی است که «تاینا بوچر»، جامعه‌شناس فناوری از آن با عنوان «مشکل ناشناخته» نام می‌برد. «هری کالینز»، محقق هوش مصنوعی می‌گوید هدف شبکه‌های عصبی این است که احتمالاً توسط یک انسان نوشته شوند اما در ادامه به حیات مستقل خود ادامه دهند. بااین‌حال، او می‌گوید شیوه دقیق عملکرد این برنامه‌ها می‌تواند به‌شکل یک معما باقی بماند. این موضوع متأثر از همان رویای دیرینه ساخت سیستم‌های خود-سامان‌ده است.

گفتنی است که ناشناخته‌ها و ناشناختنی‌ها از همان ابتدا به‌عنوان یکی از اصول بنیادین این سیستم‌ها دنبال شده‌اند. پس این احتمال وجود دارد که هر چه اثر هوش مصنوعی در زندگی ما بیشتر شود، فهم ما از چرایی و چگونگی این سیستم‌ها کمتر شود.

بااین‌وجود، همان‌طور که گفتیم خیلی‌ها نمی‌خواهند این مسئله را بپذیرند. بشر می‌خواهد بداند هوش مصنوعی چطور کار می‌کند، چطور تصمیم‌های خود را می‌گیرد و این تصمیم‌ها چه تأثیری بر ما خواهد داشت. اما وقتی حرف از هوش مصنوعی توضیح‌پذیر و شفاف به میان می‌آید، داستان شبکه‌های عصبی به ما یادآوری می‌کند که به احتمال زیاد هر چه جلوتر برویم، فاصله ما با این هدف بیشتر خواهد شد.

*منبع: BBC


سخن‌رانی دکتر بیژن عبدالکریمی درباره دینداری در جهان پسامدرن، رمضان 1402

با یک سطل ماست نمی‌توان با سونامی پسامدرن مقابله کرد/ دین آینده، مذهب عشق است نه ترس
‌همان‌طور که با ظهور مدرنیته، همه عوالم کهن به پایان رسید، با جهان پسامدرن هم، هرچه در جهان مدرن سفت و متصلب بود، دود شد و به هوا رفت
   در نخستین جلسه از سلسله نشست‌های «دین‌داری و دین‌گریزی در ایران امروز»، که به مناسبت ماه مبارک رمضان که به همت انجمن اندیشه و قلم و کانون توحید آغاز شده است، بیژن عبدالکریمی با موضوع «سنت دینی در ایران و دومین شکاف تمدنی» سخن‌رانی کرد.

  در برابر سیلی پسامدرن هم غافل‌گیر شدیم

  به گزارش عصر ایران، این استاد فلسفه دانشگاه، نخستین مواجهه ایرانیان با تمدن غرب را مربوط به جنگ‌های ایران و روس دانست که با ویران شدن برج و باروهای عالم سنت بر سر ایرانیان، اولین شکاف تمدنی را در ایران رقم زد و نیم قرن اخیر را زمان دومین شکاف تمدنی ما دانست که با انقلاب اسلامی نیز مصادف شده است.

  وی تأکید کرد: سنت تاریخی و معنوی ایرانیان، با اسلام آغاز نشده؛ بلکه یک سنت چندهزارساله است که ایران را به یکی از مهم ترین کانون‌های معنوی جهان تبدیل کرده است اما امروز جامعه ما با این سنت تاریخی و معنوی دچار شکاف شده و باید پرسید آینده سنت و تفکر معنوی و آینده تشیع و اسلام در ایران چگونه است؟

  عبدالکریمی اضافه کرد: نوعی بی‌تفاوتی به شعائر در میان جوانان بسط یافته است. نه فقط در فضاهای روشنفکری که حتی در تک‌تک خانه‌های ما، شک جان گرفته و همه چیز پادرهواست. مناسبات اخلاقی و خانوادگی، روابط جنسی و روابط اجتماعی تغییریافته و حتی گاه می‌پرسند:‌ چه کسی گفته قران کتاب خداست؟ 

نه قدرت سیاسی و نه اپوزیسیون درکی از دنیای جدید ندارند

  او درباره تفاوت جهت‌گیری‌های ضد سنت در مشروطه با امروز، گفت: گسست تاریخی ما معنای مضاعفی پیدا کرده که در هیچ دوره تاریخی شاهدش نبودیم. جامعه ایرانی در حال یک پوست‌اندازی عمیق تاریخی و فاصله‌گیری از میراث تاریخی و اسلام و تشیع است و به عقلانیت جدید و سکولاریسم و نیهلیسم حاصل از آن روی می‌آورد.

  این استاد فلسفه ابراز کرد: ما با سونامی جدیدی روبه‌رو هستیم. جهان اسلام و کشور ما هنوز از سیلی مدرنیته گیج و گنگ بود که سیلی پسامدرنیته بر گونه‌های ما نواخته شد. به دنبال سونامی مدرنیته، هنوز نتواتسته بودیم خانمانی برپا کنیم که سونامی‌یی بمراتب قدرتمندتر، کاشانه فرهنگی ما را دارد همچون پر کاهی بازی می‌دهد

   عبدالکریمی افزود: توفان، برخاسته و ما اصلا آماده مواجهه با آن نیستیم. روحانیت ما، قدرت سیاسی ما و گفتمان انقلاب ما، دانشگاهیان و روشنفکران ما هیچ‌کدام آماده مواجهه با این سونامی نیستند. همه درگیر سیاست‌اند و به مسائل تمدنی و تاریخی و فرهنگی توجهی ندارند. گوش‌ها کر است. ما در آینده با بحران‌های شدید هویتی، اجتماعی و تاریخی و حتی سیاسی و امنیتی مواجهیم.

  عبدالکریمی با اشاره به مواجهه خود با دیدگاه‌های عجیب دانشجویانش گفت: نسل جدید می‌گوید تجزیه چه اشکالی دارد؟ مگر وطن یک کلمه مقدس است؟ اصلا چه ضرورتی دارد اخلاقی زندگی کنیم؟ چه کسی گفته خانواده مقدس است؟

  این استاد فلسفه، تصریح کرد: بدترین خطا، برخورد پلیسی- امنیتی با این شکاف تمدنی است‌؛ اینکه فکر کنیم این یک مساله سطحی و لجبازی چند بچه است، یا یک مساله سیاسی است، یا حاصل تبلیغات رسانه‌های بیگانه است. نمی‌گویم اینها نیست، اما می‌گویم هسته مرکزی بحث را باید در جای دیگری جست‌وجو کرد.

  وی با ابراز تاسف از عدم توجه به مواجهه فلسفی و پدیدارشناسانه با مسائل در کشور، گفت: گوش قدرت سیاسی ما و حتی اپوزیسیون ما نسبت به تفکر کر است و همه چیز را در سطح مبتذل بازی قدرت و مطالبات سیاسی می‌بینند. نگرانی من سیاسی نیست، یک نگرانی فرهنگی تمدنی است و نسبت به این روند نگرانم. 

  عبدالکریمی با انتقاد از کسانی که شعار وا اسلاما سر می‌دهند، گفت:من می‌خواهم در کنار حوزه‌های علمیه و گفتمان انقلاب اسلامی باشم. اما می‌گویم بدون فلسفه، نمی‌توانیم شناخت درستی از مساله داشته باشیم.

  وی همچنین با اشاره به کسانی که او را به محافظه‌کاری و باج دادن به حکومت متهم می‌کنند، گفت: اپوزیسیون ما درکی از نیهیلیسم و بی‌تاریخی و بی‌ماوا و بی‌خانمانی یک ملت ندارد.

روحانیت و دانشگاه ما دچار تاخر تمدنی هستند

   عبدالکریمی ادامه داد: همان‌طور که با ظهور مدرنیته، همه عوالم کهن به پایان رسید، با جهان پسامدرن هم، هرچه در جهان مدرن سفت و متصلب بود، دود شد و به هوا رفت. روند تکوین تاریخ واحد جهانی یا همان دهکده جهانی با مدرنیته شروع شد و در اتفاقات نیم قرن اخیر به شدت سرعت گرفته است. دیگرتاریخ‌های محلی بصورت مطلق نداریم و تاریخ واحد جهانی با هژمونی غرب در حال شکل‌گیری است.

  عبدالکریمی، با اشاره به تفاوت‌های مدرنتیه متقدم و متاخر، روحانیت و دانشگاهیان را دچار تأخر تمدنی خواند که هنوز به ارزش‌های قرن 18 و 19 می‌اندیشند و اضافه کرد: احکام و قواعد مدرنیته متاخر با مدرنیته متقدم خیلی فرق دارد، اما متاسفانه هم حوزه‌های علمیه ما و هم دانشگاهیان و غالب طبقه متوسط و روشنفکران ما هنوز در عالم مدرنیته متقدم هستند.‌ مثلا دنبال انقلاب سیاسی هستند، بی‌خبر از اینکه انقلاب سیاسی پدیدۀ دورۀ متقدم است و در شرایط پسامدرن، اصلا انقلاب معنا ندارد و هیچ زمینه‌ای برای آن نیست. 

  این استاد فلسفه دانشگاه آزاد، با اشاره به شکست ایدئولوژی در فروپاشی شوروی گفت: امروز نیز، ظهور شبکه جهانی ارتباطات و اطلاعات، مفهوم زمان و مکان را کاملا از بین برد، مرزهای جغرافیایی فروریخت و همه مرجعیت‌های دینی ناکارآمد شدند؛ حتی مرجعیت پدر و مادر و معلم و استاد.

  عبدالکریمی با اشاره به عصر روشن‌گری و فروریختن الهیات مسیحی بر اثر جنایات کلیسا و روی آوردن بشر مدرن به عقل خودبنیاد، گفت: اما جهان در عصر ما بی‌متافیزیک است. شأن و جایگاه انسان کجاست؟ نوعی بدبینی و ناباوری نسبت به آرمان‌های سنت و مدرنیته شکل گرفته است. دیگرنه تنها روایت نظام‌های الهیاتی که حتی روایت علم از انسان و جهان مطلق گرفته نمی‌شود‌. دیگر نه لیبرالیسم و دموکراسی، نه ناسیونالیسم یونانی و نص‌گرایی، نه سکولاریسم، نه قدسی‌اندیشی شرقی، هیچ‌کدام دل‌های ما را گرم نمی‌کند. توفانی از درهم شکستگی، بی‌ریشگی و بی‌معنایی در راه است.

  تفسیر ایدئولوژیک از دین، گوساله سامری زمان ماست

این استاد دانشگاه، سخن از امر معنوی و دینی را برای نسل‌های جدید بسیار دشوار خواند و گفت: روح فرهنگ به تفکر است و روح تفکر به پرسش‌های بنیادین است، همان که در جامعه ما سرکوب می‌شود. روحانیت ما یک نهاد فرهنگی است که حافظ فرهنگ ماست و من دست‌شان را می‌بوسم که این خانه را برای ما نگه داشتند، اما این خانه تفکر ندارد. متاسفانه روحانیت ما فاقد فرهنگ و تفکر فلسفی و اسیر اخباری‌گری و ذات‌اندیشی و فقه‌محوری است. همین باعث شده فرهنگ‌ما رو به اضمحلال برود و توان مقاومت نداشته باشد‌. البته روشن‌فکران ما هم وضع بهتری ندارند و درگیر مقولات ایدئولوژیک و شبه‌ایدئولوژیک و دانشگاه‌های ما هم مشغول بازی‌های احمقانه صدور مدرک‌اند و از حکمت و فلسفه به دور.

  عبدالکریمی ابراز کرد: روحانیت ما دچار تأخر تاریخی است و سوژه مدرن را درک نکرده و با یک پدیده آنتولوژیک مواجه است. با یک سطل ماست نمی شود با سونامی پسامدرن مقابله کند. با تازیانه و نهاد امر به معروف و نهی از منکر نمی توان با یک رویداد تاریخی مقابله کرد. این درد را به که بگوییم؟ سیستمی ساخته‌اند به نام دین و تمام هم و غم آن دفاع از این سیستم به نحو جدلی است. 

  به عقیده او، تفسیر ایدئولوژیک از دین، دین را در جامعه ما عرفی و دست مالی کرده و از آن اسب تروا ساخته است. وی در این باره ابراز عقید کرد تفسیر ایدئولوژیک از دین، قلعه ایمان را فتح می‌کند و به دشمن تحویل می‌دهد. گوساله سامری زمان ماست که ندای بشری را می‌خواهد جانشین لوگوس یا کلمه الله کند. 

  وی توضیح داد: در این جهان، حقیقتی هست که جان بشر به آن بسته است و این ندا از اعماق هستی ما را به خود فرامی‌خواند و دین یعنی شنیدن این ندا و هم‌نوایی با آن. اما ما پاره‌ای جهت‌گیری‌های سیاسی اجتماعی یا نظام‌های الهیاتی را که برساخت تاریخی است، می‌خواهیم جانشین این ندا کنیم.

  وی با اشاره به دو رویکرد تن دادن به غربزدگی جهانی و نیهیلیسم عصر پسامدرن یا تن دادن به بنیادگرایی، گفت: کسانی که بخواهند در برابر این دو رویکرد بایستند، راه دشواری در پیش دارند. باید جبهه جدیدی گشود و به پارادایم دیگری اندیشید که نشان دهد واقعیت موجود تاریخی ما با سنت دینی و معنوی ما خیلی فاصله دارد و قصه پاپ و مسیح، یکی نیست. 

   این استاد دانشگاه تاکید کرد: نباید به خاطر پیوند پاپ و قدرت، مسیح را قربانی کنیم. 

    دین مرجعیت محور پایان یافته است

   وی در بیان دشواری‌های دفاع از امر دینی در جهان جدید، گفت: در جهان جدید فراروایت‌ها فروریخته و این تفسیر که اسلام یک فراروایت و یگانه روایت از جهان است نمی‌تواند در جهان پسامتافیزیک مخاطبی پیدا کند. دین مرجعیت‌محور پایان یافته و جهان پسامدرن دوران آزادی سوژه از مرجعیت‌هاست. دیگر نمی‎توان بر جایگاه مرجعیت‌های کهن تکیه کرد. باید با زبان دیگری با این مخاطب برخورد کرد. 

   عبدالکریمی با بیان اینکه فردگرایی در دوران ما به اوج رسیده و انسان‌ها اتمیزه شده‌اند، ابراز کرد: دینی که دین هویتی و جمعی باشد جواب‌گو نیست. تعابیری مانند ما مسلمان‌ها، ما مسیحی‌ها، نشانه دین هویتی است. دین ترس دیگر جوابگو نیست و دین آینده باید مذهب عشق باشد. دینی که فرد در درون خود زیسته، نه دینی که نهادها و مرجعیت‌های اجتماعی برایش تعیین کردند، دینی است که به انسان می‌آموزد بر خود متکی باشد. چقدر زشت است کسانی به زور شمشیر و ترس بخواهند دین را ترویج دهند؛ آن هم در جهانی که دموکراسی را تجربه کرده است.


   این استاد دانشگاه، عصر کنونی را عصر تفسیر و هرمنوتیک خواند و ابراز کرد: دین تجربه زیسته حاصل گفت‌وگوست و عصر منبر پایان یافته است. علم جدید حادثه‌ای یگانه و بزرگ در تاریخ بشری است. از سویی، بشر نمی‌تواند نسبت به تجربیات زیسته خود بی‌تفاوت باشد. اگر جهان اسلام نتواند جایگاه مشخصی برای علم جدید و تجربیات بشری در نظام معرفتی خود پیدا کند با بحران‌های عدیده مواجه خواهد بود. فقهی که علم جدید در آن جایی ندارد، برای جهان آینده حرفی برای گفتن ندارد. اگر امر دینی در عرف و فقه و شریعت در برابر تجربیات بشری و عرف قرار گیرد، مخاطب مقاومت خواهد کرد.


8325442050

ارزیابیهایی درباره برخی پیآوردهای هوش مصنوعی 2

محتمل‌ترین نتیجه هوش مصنوعی فوق‌العاده هوشمند: همه خواهیم مرد!
"الیزر یودکوفسکی" می‌گوید بشریت برای زنده ماندن از رویارویی با هوش مصنوعی بسیار هوشمندتر آماده نیست.
یک محقق برجسته هوش مصنوعی هشدار داد که متوقف کردن توسعه سیستم‌های هوش مصنوعی پیشرفته در سراسر جهان و مجازات شدید افرادی که این مهلت قانونی را نقض می‌کنند تنها راه نجات بشریت از انقراض است.
 
به گزارش فرارو به نقل از راشاتودی؛ "الیزر یودکوفسکی" یکی از بنیانگذاران موسسه تحقیقاتی هوش ماشینی (MIRI) روز چهارشنبه در مقاله‌ای نظری برای نشریه "تایم" توضیح داد که چرا طوماری را امضا نکرده است که از تمام آزمایشگاه‌های هوش مصنوعی می‌خواهد که فورا حداقل برای شش ماه آموزش سیستم‌های هوش مصنوعی قوی‌تر از جی پی تی -۴ (یک مدل زبان بزرگ چند وجهی است که اوایل ماه جاری توسط Open AI منتشر شد) را متوقف کنند.
 
یودکوفسکی استدلال کرد که نامه امضا شده توسط افرادی مانند ایلان ماسک و استیو وزنیاک مدیر اپل برای حل مشکلی که به دلیل توسعه سریع و کنترل نشده هوش مصنوعی ایجاد می‌شود بسیار ناچیز است.
 
 
محتمل‌ترین نتیجه هوش مصنوعی فوق‌العاده هوشمند: همه خواهیم مرد!
الیزر یودکوفسکی؛ محقق برجسته هوش مصنوعی
 
او نوشت: "محتمل‌ترین نتیجه ساخت یک هوش مصنوعی فوق العاده هوشمند تحت هر چیزی که از راه دور مانند شرایط کنونی باشد این است که به معنای واقعی کلمه همه روی زمین خواهند مرد".
 
او استدلال کرد که زنده ماندن از رویارویی با یک سیستم کامپیوتری که "نه برای ما و نه به طور کلی برای زندگی حساس" است به "دقت و آمادگی و بینش‌های علمی جدید" نیاز دارد که بشر در حال حاضر فاقد آن می‌باشد و بعید به نظر می‌رسد در آینده قابل پیش بینی نیز به آن دست یابد.
 
یودکووسکی هشدار داد: "یک هوش مصنوعی به اندازه کافی هوشمند برای مدت طولانی در رایانه محصور نخواهد شد". او توضیح داد که این واقعیت که امکان ارسال رشته‌های DNA به آزمایشگاه‌ها برای تولید پروتئین وجود دارد احتمالا به هوش مصنوعی این امکان را می‌دهد که اشکال حیات مصنوعی را بسازد یا مستقیما به سمت تولید مولکولی پسا بیولوژیکی حرکت کند و به جهان راه یابد.
 
به گفته این محقق یک مهلت نامعلوم و جهانی برای دوره‌های آموزشی اصلی جدید هوش مصنوعی باید فورا معرفی شود. او تاکید کرد: "هیچ استثنایی نمی‌تواند وجود داشته باشد از جمله برای دولت‌ها یا ارتش‌ها".
 
یودوفسکی تاکید کرده که قرارداد‌های بین‌المللی باید امضا شوند تا سقفی در مورد میزان قدرت محاسباتی که هر فردی ممکن است از آن در آموزش چنین سیستم‌هایی استفاده کند تعیین شود.
 
او در مقاله اشاره کرده که تهدید هوش مصنوعی به قدری زیاد است که باید "در دیپلماسی بین المللی به صراحت اعلام شود که جلوگیری از سناریو‌های انقراض توسط هوش مصنوعی اولویتی بالاتر از جلوگیری از تبادل کامل هسته‌ای است".

ببینید | چرا هوش مصنوعی ترسناک شده است؟!
هوش مصنوعی وسیله‌ای است برای رشد و پیشرفت، اما مثل همه فناوری‌های دیگر سکه‌ای است که روی دیگری هم دارد و می‌تواند بسیار خطرناک باشد.

به زودی درک هوش مصنوعی برای انسان غیرممکن خواهد شد

به زودی درک هوش مصنوعی برای انسان غیرممکن خواهد شد
وقتی صحبت از هوش مصنوعی قابل توضیح و شفاف به میان می‌آید داستان شبکه‌های عصبی به ما می‌گوید که احتمالا در آینده به جای نزدیک شدن از آن هدف دور خواهیم شد.
 "جک دی کُوان" ریاضیدان و زیست شناس نظری در سال ۱۹۵۶ میلادی در جریان یک سفر یک ساله به لندن و در اوایل دهه ۲۰ زندگی اش با "ویلفرد تیلور" ملاقات کرد و ماشین یادگیری تازه او را از نزدیک مشاهده نمود. او در بدو ورود از مشاهده "بانک عظیم ماشین یادگیری" که با آن مواجه شده بود گیج شد.

به گزارش فرارو به نقل از کانورسیشن؛ کوان تنها می‌توانست بایستد و ماشینی که خود در حال انجام کارش بود را تماشا کند کاری که به نظر می‌رسید انجام می‌داد اجرای یک "طرح حافظه انجمنی" بود به نظر می‌رسید که می‌توانست یاد بگیرد که چگونه اتصالات را پیدا کند و داده‌ها را مورد بازیابی قرار دهد.
شاید شبیه بلوک‌های مدار ناهمواری به نظر می‌رسید که با دست در انبوهی از سیم‌ها و جعبه‌ها به هم لحیم شده‌اند، اما چیزی که کوان شاهد آن بود یک شکل مشابه اولیه از یک شبکه عصبی به نظر می‌رسید یک پیشرو برای پیشرفته‌ترین هوش مصنوعی امروزی از جمله چت جی پی تی (Chat GPT) که به دلیل توانایی در تولید محتوای نوشتار در پاسخ به تقریبا هر دستوری بسیار مورد بحث قرار گرفته است. فناوری زیربنایی چت جی پی تی یک شبکه عصبی است.
 همان طور که کوان و تیلور ایستاده بودند و کار ماشین را تماشا می‌کردند واقعا نمی‌دانستند که چگونه این کار را انجام می‌دهد. پاسخ به مغز ماشین مرموز تیلور را می‌توان جایی در "نورون‌های آنالوگ" در ارتباط‌های ایجاد شده توسط حافظه دستگاه آن و مهم‌تر از همه در این واقعیت یافت که عملکرد خودکار آن را واقعا نمی‌توان به طور کامل توضیح داد. دهه‌ها به طول می‌انجامد تا این سیستم‌ها هدف خود را پیدا کنند و آن قدرت باز شود.
 
اصطلاح "شبکه عصبی" طیف گسترده‌ای از سیستم‌ها را در بر می‌گیرد، اما به طور مرکزی به گفته IBM این شبکه‌های عصبی هم چنین به عنوان شبکه‌های عصبی مصنوعی (ANN) یا شبکه‌های عصبی شبیه سازی شده (SNN) شناخته می‌شوند که زیرمجموعه‌ای از یادگیری ماشین هستند و در قلب الگوریتم‌های یادگیری عمیق قرار دارند. مهم این است که خود این اصطلاح و شکل و ساختار آن از مغز انسان الهام گرفته شده و از روشی که نورون‌های بیولوژیکی به یکدیگر سیگنال می‌دهند تقلید می‌کند.
 
ممکن است در مراحل اولیه شک و تردیدی در مورد ارزش آن وجود داشته باشد، اما با گذشت سال‌ها مُدهای هوش مصنوعی به شدت به سمت شبکه‌های عصبی حرکت کرده اند. اکنون اغلب تصور می‌شود که آن‌ها آینده هوش مصنوعی هستند. آن‌ها پیامد‌های بزرگی برای ما و معنای انسان بودن دارند. ما اخیرا پژواک این نگرانی‌ها را شنیده‌ایم و درخواست‌هایی به منظور توقف توسعه‌های جدید هوش مصنوعی برای یک دوره شش ماهه به منظور کسب اطمینان از پیامد‌های آن مطرح شده اند.
 
مطمئنا اشتباه است که شبکه عصبی را صرفا به عنوان ابزار‌های جدید براق و چشم نواز رد کنیم. آنان در حال حاضر به خوبی در زندگی ما جا افتاده‌اند. برخی در عملی بودن خود قدرتمند هستند. اطلاعیه اخیر مایکروسافت مبنی بر آن که جستجو‌های موتور جستجوی بینگ با مجهز شدن به هوش مصنوعی تقویت می‌شود و این که آن را به کمک خلبانی برای وب تبدیل می‌کند نشان می‌دهد که چگونه چیز‌هایی که ما کشف کرده و درک می‌کنیم محصول این نوع اتوماسیون (خودکاری شدن) هستند.
 
هوش مصنوعی با استفاده از داده‌های گسترده برای یافتن الگو‌ها می‌تواند به طور مشابه برای انجام کار‌هایی مانند تشخیص تصویر با سرعت آموزش داده شود. برای مثال، آن را در تشخیص چهره ادغام می‌کند. این توانایی در شناسایی الگو‌ها منجر به کاربرد‌های بسیار دیگری مانند پیش بینی بازار‌های سهام شده است.
 
شبکه‌های عصبی نحوه تفسیر و ارتباط ما را نیز تغییر می‌دهند. گوگل ترنسلیت (مترجم گوگل ) که توسط تیم مغز گوگل توسعه یافته است یکی دیگر از برنامه‌های برجسته شبکه عصبی است.
 
لایه‌های مرموز "ناشناختنی"
نگاهی به تاریخچه شبکه‌های عصبی به ما نکته مهمی در مورد تصمیمات خودکاری که زمانه فعلی ما را تعریف می‌کنند یا تصمیماتی که احتمالا تاثیر عمیق تری در آینده خواهند داشت را می‌گویند. حضور آن‌ها هم چنین می‌گوید که ما احتمالا تصمیمات و تاثیرات هوش مصنوعی را در طول زمان حتی کمتر درک می‌کنیم. این سیستم‌ها صرفا جعبه‌های سیاه نیستند آن صرفا قطعات مخفی یک سیستم نیستند که قابل مشاهده یا درک نباشند.
 این چیزی متفاوت است چیزی که ریشه در اهداف و طراحی خود این سیستم‌ها دارد. یک تعقیب طولانی مدت وجود دارد. هرچه غیر شفاف‌تر باشد سیستم معتبرتر و پیشرفته‌تر تصور می‌شود. این صرفا در مورد پیچیده‌تر شدن سیستم‌ها یا محدود کردن دسترسی به کنترل مالکیت معنوی نیست (اگرچه این موارد بخشی از آن هستند). در عوض، می‌توان گفت اخلاقی که آن‌ها را هدایت می‌کند علاقه‌ای خاص و نهفته به "ناشناخته ماندن" دارد.
 این رمز و راز حتی در قالب و گفتمان شبکه عصبی رمزگذاری شده است. آن‌ها دارای لایه‌های عمیق انباشته شده هستند از این رو عبارت یادگیری عمیق و در درون آن اعماق "لایه‌های پنهان" حتی اسرارآمیزتر هستند. اسرار این سیستم‌ها در اعماق زیر سطح قرار دارند.
 
این احتمال وجود دارد که هر چه تاثیر هوش مصنوعی در زندگی ما بیش‌تر باشد کمتر متوجه چگونگی و چرایی آن شویم. امروزه فشاری قوی برای قابل توضیح شدن هوش مصنوعی وجود دارد. ما می‌خواهیم بدانیم هوش مصنوعی چگونه کار می‌کند و چگونه به تصمیمات و نتایج می‌رسد.
 
اتحادیه اروپا به قدری نگران "خطرات غیرقابل قبول" و حتی برنامه‌های کاربردی "خطرناک" است که در حال حاضر در حال پیشبرد قانون جدید هوش مصنوعی با هدف تعیین "استاندارد جهانی" برای "توسعه هوش مصنوعی ایمن، قابل اعتماد و اخلاقی" می‌باشد. اتحادیه اروپا در این باره نگرانی دارد که سیستم‌هایی که در آینده ظهور می‌کنند پیامد‌هایی برای حقوق بشر داشته باشند.
 
این بخشی از فراخوان‌های گسترده‌تر برای شفافیت در حوزه هوش مصنوعی است تا بتوان فعالیت‌های آن را بررسی، ممیزی و ارزیابی کرد. مثال دیگر، جلسه توجیهی انجمن سلطنتی بریتانیا در مورد هوش مصنوعی قابل توضیح است که در آن اشاره شده که "مناظره‌های مرتبط با سیاستگذاری در سراسر جهان به طور فزاینده‌ای نیاز به نوعی توضیح پذیری هوش مصنوعی دارند".
 با این وجود، داستان شبکه‌های عصبی به ما می‌گوید که احتمالا در آینده به جای نزدیک‌تر شدن از آن هدف دورتر خواهیم شد.
 
با الهام از مغز انسان
 این شبکه‌های عصبی ممکن است سیستم‌های پیچیده‌ای باشند، اما برخی از اصول اصلی را دارند. آن‌ها با الهام از مغز انسان به دنبال کپی یا شبیه سازی اشکال تفکر بیولوژیکی و انسانی هستند. از نظر ساختار و طراحی همانطور که IBM نیز توضیح می‌دهد از "لایه‌های گره، حاوی یک لایه ورودی، یک یا چند لایه پنهان و یک لایه خروجی" تشکیل شده اند و هرگره یا نورون مصنوعی به گره یا نورون مصنوعی دیگری متصل می‌شود. از آنجایی که آن‌ها برای ایجاد خروجی‌ها به ورودی‌ها و اطلاعات نیاز دارند "به داده‌های آموزشی برای یادگیری و بهبود دقت خود در طول زمان متکی هستند".
 این جزئیات فنی مهم هستند، اما تمایل به مدل سازی این سیستم‌ها بر اساس پیچیدگی‌های مغز انسان نیز اهمیت دارد. درک جاه طلبی پشت این سیستم‌ها برای درک آن چه که این جزئیات فنی به همراه دارند حیاتی می‌باشد.
 
"تئو کوهونن" دانشمند شبکه عصبی در مصاحبه‌ای در سال ۱۹۹۳ میلادی به این نتیجه رسیده بود که یک سیستم "خودسازمانده" "رویای من است" که "چیزی شبیه به آن چه که سیستم عصبی ما به طور غریزی انجام می‌دهد" خواهد بود. برای مثال کوهونن این تصور را مطرح کرد که چگونه یک سیستم "خودسازماندهی" سیستمی که خود را نظارت و مدیریت می‌کند "می تواند به عنوان یک تابلوی نظارت برای هر ماشینی در هر هواپیما یا هر نیروگاه هسته‌ای استفاده شود". او فکر می‌کرد که این بدان معناست که در آینده "شما می‌توانید بلافاصله ببینید که سیستم در چه شرایطی قرار دارد".
 
هدف اصلی این بود که سیستمی داشته باشیم که بتواند با محیط اطراف خود سازگار شود. آن رویا این بود که سیستم‌هایی بتوانند بدون نیاز به دخالت زیاد انسان خود را مدیریت کنند و این که پیچیدگی‌ها و ناشناخته‌های مغز سیستم عصبی و دنیای واقعی به زودی به توسعه و طراحی شبکه‌های عصبی می‌رسند.
 
چیزی عجیب در مورد آن با این وجود، با بازگشت به سال ۱۹۵۶ میلادی و آن ماشین یادگیری عجیب این رویکرد عملی که تیلور هنگام ساخت آن اتخاذ کرده بود بلافاصله توجه کوان را به خود جلب کرد. کوان در مصاحبه‌ای گفت که تیلور کار را براساس تئوری و روی رایانه انجام نداده در عوض با استفاده از ابزار‌هایی که در دست داشته در واقع با استفاده از سخت افزار کار را انجام داده بود. این یک چیز مادی بود ترکیبی از قطعات شاید حتی یک ابزار. کوان خاطرنشان می‌کند که "همه کار‌ها با مدار‌های آنالوگ انجام شد چندین سال به طول انجامید تا تیلور آن را بسازد و با آن بازی کند". در واقع، یک مورد آزمون و خطا بود. قابل درک است که کوان می‌خواست با آن چه می‌دید کنار بیاید.
 
او سعی کرد از تیلور بخواهد که این ماشین یادگیری را برایش توضیح دهد. با این وجود، شفاف سازی‌ای صورت نگرفت و کوان نتوانست تیلور را وادار به توضیح درباره چگونگی کار کند. نورون‌های آنالوگ یک راز باقی ماندند. کوان فکر کرد مشکل شگفت انگیزتر این بود که تیلور "واقعا خود نمی‌دانست که چه اتفاقی در حال رخ دادن است".
 
در مصاحبه‌ای در اواسط دهه ۱۹۹۰ میلادی کوان با فکر کردن به ماشین تیلور فاش ساخت که شما نمی‌توانید کاملا بفهمید که چگونه کار می‌کند. این نتیجه گیری نشان می‌دهد که چگونه ناشناخته‌ها عمیقا در شبکه‌های عصبی جاسازی شده است. غیر قابل توضیح بودن این سیستم‌های عصبی حتی از مراحل اساسی و رشدی که قدمت آن به حدود هفت دهه قبل می‌رسد نیز وجود داشته و این رمز و راز امروزه باقی مانده است و می‌توان آن را در اشکال پیشرفته هوش مصنوعی یافت. غیرقابل درک بودن عملکرد تداعی‌های ایجاد شده توسط دستگاه تیلور کوان را به این فکر واداشت که آیا چیزی در مورد آن وجود دارد؟
 
تقلید از مغز لایه به لایه
 شاید پیش‌تر متوجه شده باشید که هنگام بحث در مورد منشاء شبکه‌های عصبی تصویر مغز و پیچیدگی‌هایی که این شبکه‌ها برمی انگیزد هرگز دور از دسترس نیست. مغز انسان به عنوان نوعی الگو برای این سیستم‌ها عمل می‌کند. در مراحل اولیه به ویژه مغز هنوز یکی از ناشناخته‌های بزرگ و الگویی برای نحوه عملکرد شبکه عصبی شد.
 
بنابراین، سیستم‌های آزمایشی جدید بر اساس چیزی که عملکرد آن تا حد زیادی ناشناخته بود مدل‌سازی شدند. "کارور مید" مهندس محاسبات عصبی به طرز آشکاری از مفهوم "کوه یخ شناختی" که برای او جذابیت خاصی پیدا کرده بود صحبت کرده است. این تنها نوک کوه یخ آگاهی است که ما از آن آگاه هستیم و قابل مشاهده است. مقیاس و شکل بقیه بخش‌های کوه یخی در زیر سطح ناشناخته‌ای باقی مانده اند.
 
"جیمز اندرسون" که برای مدتی روی شبکه‌های عصبی کار می‌کرد در سال ۱۹۹۸ میلادی خاطرنشان ساخت که وقتی نوبت به تحقیق روی مغز می‌شود "به نظر می‌رسد کشف اصلی ما آگاهی از این است که واقعا نمی‌دانیم چه اتفاقی رخ می‌دهد".
 
"ریچارد واترز" روزنامه نگار حوزه فناوری در گزارش مفصلی در "فایننشال تایمز" در سال ۲۰۱۸ میلادی اشاره کرد که چگونه شبکه‌های عصبی "بر اساس نظریه‌ای درباره نحوه عملکرد مغز انسان مدل سازی می‌شوند و داده‌ها را از لایه‌هایی از نورون‌های مصنوعی منتقل می‌کنند تا زمانی که یک الگوی قابل شناسایی ظاهر شود".
 
واترز پیشنهاد کرد که این مشکلی را ایجاد می‌کند، زیرا برخلاف مدار‌های منطقی به کار رفته در یک برنامه نرم افزاری سنتی هیچ راهی برای ردیابی این فرآیند برای شناسایی دقیق این که چرا یک رایانه به یک پاسخ خاص می‌رسد وجود ندارد. نتیجه گیری واترز آن است که این نتایج را نمی‌توان حذف کرد. استفاده از این نوع مدل از مغز که داده‌ها را از لایه‌های زیادی می‌گیرد به این معنی است که پاسخ به راحتی قابل ردیابی نیست. چند لایه بودن بخش خوبی از دلیل این امر است.
 
اقتباس کل بازی است
 راز عمیق‌تر می‌شود. همان طور که لایه‌های شبکه‌های عصبی انباشته شده‌اند پیچیدگی آن‌ها افزایش یافته است. هم‌چنین منجر به رشد لایه‌های پنهان در این اعماق شده است. بحث در مورد تعداد بهینه لایه‌های پنهان در یک شبکه عصبی ادامه دارد.
 
به دلیل نحوه عملکرد یک شبکه عصبی عمیق با تکیه بر لایه‌های عصبی پنهان که بین اولین لایه نورون‌ها (لایه ورودی) و آخرین لایه (لایه خروجی) قرار گرفته اند تکنیک‌های یادگیری عمیق هستند و حتی برای برنامه نویسانی که در ابتدا آن‌ها را تنظیم کرده اند اغلب مبهم یا ناخوانا هستند.
 
"کاترین هیلز" متفکر برجسته و میان رشته‌ای رسانه‌های نوین با بیان نکته‌ای مشابه خاطرنشان کرد که محدودیت‌هایی برای "تا چه اندازه می‌توانیم درباره سیستم بدانیم"؟ وجود دارد نتیجه‌ای که مربوط به "لایه پنهان" در شبکه عصبی و الگوریتم‌های یادگیری عمیق است.
 
به دنبال چیز‌های غیرقابل توضیح روی هم رفته این تحولات طولانی بخشی از چیزی است که "تاینا بوچر" جامعه شناس فناوری آن را "مشکل ناشناخته" نامیده است.
 
"هری کالینز" با گسترش تحقیقات تاثیرگذار خود در مورد دانش علمی در زمینه هوش مصنوعی اشاره کرده که هدف شبکه‌های عصبی این است که احتمالا در ابتدا توسط یک انسان تولید می‌شوند، اما به محض اینکه برنامه نوشته شود زندگی خود را می‌کنند و نحوه عملکرد برنامه دقیقا می‌تواند مرموز باقی بماند. این وضعیت بازتاب آن رویا‌های دیرینه در مورد یک سیستم خودسازمانده است.
 
این احتمال وجود دارد که هر چه تاثیر هوش مصنوعی در زندگی مان بیش‌تر شود کمتر متوجه چگونگی و چرایی آن شویم. با این وجود، بیان این موضوع در روزگار کنونی خوشایند نیست. ما می‌خواهیم بدانیم هوش مصنوعی چگونه کار می‌کند و چگونه به تصمیمات و نتایجی که بر ما تاثیر می‌گذارد می‌رسد.
 
همان‌طور که پیشرفت‌های هوش مصنوعی به شکل گیری دانش و درک ما از جهان، آن چه کشف می‌کنیم، نحوه رفتار با ما، نحوه یادگیری، مصرف و تعامل ما، ادامه می‌دهد، انگیزه برای درک آن بیش‌تر می‌شود. وقتی صحبت از هوش مصنوعی قابل توضیح و شفاف به میان می‌آید داستان شبکه‌های عصبی به ما می‌گوید که احتمالا در آینده به جای نزدیک شدن از آن هدف دور خواهیم شد.