واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering
واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering

سنفونی پایان غیر طبیعی جهان به روایت استیون هاوکینگ

شمارش معکوسی برای جهان!
استیون هاوکینگ فیزیک‌دان معروف که همواره به دلیل استدلال‌ها و نظریاتش در دنیای علم معروف است، به تازگی اعلام کرده است، مردم باید در صد سال آینده با حساسیت بیشتری پیش‌رفت‌های دنیای علم و فناوری را مورد بررسی قرار دهند. به دلیل این‌که تهدید خطرناکی از این سمت متوجه آن‌ها خواهد بود. به عبارت دیگر دنیای علم و فناوری روزی به اندازه‌ای پیش‌رفت خواهد کرد که خود را نابود می‌کند. این چندمین باری است که این فیزیک‌دان انگلیسی در مورد پایان غیر طبیعی جهان هشدار می‌دهد.

اگر نگاهی به صحبت‌ها و دیدگاه‌های علمی استیون هاوکینگ داشته باشید، مشاهده می‌کنید که او همواره درباره پایان جهان هشدار می‌دهد. پایانی که به هیچ عنوان خوش‌آیند نخواهد بود. اگر پرونده ویژه هوش‌مصنوعی را مطالعه کرده باشید ما در آن پرونده به نامه‌ای اشاره کردیم که بیش از هزار فیزیک‌دان و چهره برجسته دنیای فناوری آن‌را امضا کرده بودند. نامه‌ای که یک پایان فاجعه آمیز را برای جهان پیش‌بینی کرده بود. پایانی که فناوری‌های دست‌ساز بشری آن را رقم می‌زنند.

مطلب پیشنهادی

کاربردهای هوش مصنوعی در زندگی روزمره ما

اما پروفسور 74 ساله کمبریج در مصاحبه‌ای که با Radio Times داشت، ضمن بیان نظرات خود به سؤالات مطرح شده در این برنامه پاسخ داد. مهم‌ترین سؤال مطرح شده در این مصاحبه اشاره به این موضوع داشت که آیا جهان ما به‌طور طبیعی به پایان خواهد رسید یا به دست انسان‌ها نابود خواهد شد. هاوکینگ در این مصاحبه، این چنین گفت: «زمین در معرض تهدیدات بسیاری خطرناکی قرار دارد. جنگ هسته‌ای، گرمای سراسری کره زمین و مهندسی ژنتیک ویروس‌ها زمین را در موقعیت خطرناکی قرار خواهد داد. او بر این باور است که این تهدیدات به صورت کاملا بی سر صدا در هزار یا ده هزار سال آینده به‌طور گسترده‌ای از هر نقطه از این کره خاکی جهان ما را تهدید خواهد کرد. مهم‌ترین تهدیدی که این سیاره سبز را در معرض خطر قرار خواهد داد، از سوی پیش‌رفت‌هایی خواهد بود که ما در زمینه علم و فناوری به دست خواهیم آورده‌ایم. ما این توانایی را نداریم تا روند پیش‌رفت علم را متوقف کرده یا آن‌را در جهت معکوس قرار دهیم. در نتیجه ما باید خطرات را شناسایی کرده و آن‌ها را کنترل کنیم. من به این موضوع خوش‌بین هستم و بر این باور هستم که ما توانایی انجام چنین کاری را داریم.»

مطلب پیشنهادی

سال گذشته هاوکینگ همراه با ایلان ماسک و دیگر بزرگان دنیای فناوری نامه‌ای را امضاء کردند. نامه‌ای که در آن به خطراتی که از جانب هوش مصنوعی دنیای انسان‌ها را تهدید می‌کند اشاره داشت. در این نامه آن‌ها راه‌کارهای خود را در زمینه افزایش امنیت در این حوزه پیش‌نهاد داده بودند. در همین رابطه استیون هاوکینگ در تاریخ 25 ژانویه سال جاری میلادی مصاحبه جالبی را با Radio Times در ارتباط با حفره‌های سیاه یا همان سیاه چاله‌ها انجام داده بود. او در این مصاحبه به بیان جدیدترین فرضیه خود در ارتباط با سیاه چاله‌ها اشاره کرد. فرضیه‌ای که آن‌را در ابتدای ماه جاری میلادی منتشر کرده بود. در فرضیه‌ جدید هاوکینگ بر این باور است که یک سیاه چاله در افق رخداد (Event horizon) اطلاعاتی را در خود نگه‌داری می‌کند که در اصلاح علمی به آن مو (Hair) می‌گویند. این اطلاعات به ما کمک می‌کنند تا حقایق بیشتری را در مورد سیاه چاله‌ها بدانیم. اطلاعاتی که به ما کمک می‌کنند از دوگانگی اطلاعات خلاص شویم. برای اطلاعات بیشتر در ارتباط با این گفت‌وگو و تاریخچه مختصری از سیاه چاله‌ها به نشانی  A brief history of black holes, according to Stephen Hawking مراجعه کنید. 

==============================

شاید به این مطالب هم علاقمند باشید:

واتسون، کامپیوتری با استعدادهای ادراک‌پذیری، پزشکی و آشپزی!

هوش مصنوعی در تعامل با اشیای هوشمند، غیرهوشمند و جاندار

دانشمندان مغز مصنوعی با توانایی یادگیری ارتباط کلامی ساختند

سلام خانم کورتانا!

Google Now چگونه کار می‌کند؟

کورتانا در مقابل سیری، سیری در مقابل Google Now

هوش‌ مصنوعی؛ تهدید یا فرصت؟

روزی که روبات‌ها به انسان «نه» بگویند

ماشینی که انسان‌ها را بهتر از خودشان درک می‌کند

کارکردهای ملموس هوش‌ مصنوعی در زندگی روزمره ما

برچسب: 

نظرات 0 + ارسال نظر
برای نمایش آواتار خود در این وبلاگ در سایت Gravatar.com ثبت نام کنید. (راهنما)
ایمیل شما بعد از ثبت نمایش داده نخواهد شد