واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering
واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering

درباره شخصیت قانونی روبات‌ها

روبات‌ها چه زمانی به شخصیت قانونی خود می‌رسند و چگونه بازخواست می‌شوند؟
روبات عصیانگر در شهر بی‌قانون؛ آغاز عصر وحشت
تا همین چند سال قبل مبحث شخصیت و حقوق قانونی روبات‌ها و هوش مصنوعی موضوعی بود که عمدتاً در فیلم‌های علمی تخیلی شاهد آن بودیم. داگلاس آدامز نویسنده دومین کتاب از سری کتاب‌های Hitchhiker’s Guide to the Galaxy به‌نام «رستوران آخر دنیا» (The Restaurant at the End of the Universe) به داستان آسانسور هوشمندی اشاره می‌کند که قادر است آینده را پیش‌بینی کند. این آسانسور پیش از آنکه مردم درخواست آسانسور کنند، به‌موقع در طبقات مختلف حضور می‌یابد و به مردم سرویس‌دهی می‌کند. این آسانسور هوشمند به‌دنبال آن است تا از هدررفت زمان مردم و تعاملات اجتماعی بی‌هدف آن‌ها در مقابل در آسانسور ممانعت به عمل آورد و در این زمینه راهگشا باشد.

 اما در ادامه، این آسانسور از کار یکنواختی که از صبح تا شب انجام می‌دهد خسته می‌شود و به‌جای آنکه تنها در مسیر عمودی به حرکت خود ادامه دهد، به چپ و راست حرکت می‌کند تا به‌نوعی اعتراض وجودی (Existential Protest) خود را به تصویر بکشد. درست است که ما هنوز چیزی به‌نام آسانسور هوشمند در اختیار نداریم، اما این حرف به‌معنای آن نیست که شرکت‌های بزرگ عرصه فناوری در این زمینه بیکار بوده‌اند. ممکن است این شرکت‌ها نمونه‌های اولیه‌ای از چنین آسانسورهایی را طراحی کرده‌ باشند، اما ما از وجود آن‌ها بی‌خبر هستیم. اگر به پیرامون خود نگاه کنیم، شاهدیم که الگوریتم‌های پیچیده قادرند در حل مسائل و حتی پیش‌بینی وقوع جرایم به ما کمک کنند. نزدیک به یک ماه پیش در زمان نگارش این مقاله اولین روبات وکیل جهان کار خود را به‌شکل گسترده در ایالات متحده آغاز کرد. چت‌باتی که به‌منظور مشاوره دادن به مردم در زمینه مشکلات حقوقی طراحی شده است. اما با ورود به سال 2040 شاهد حضور الگوریتم‌ها و روبات‌هایی به‌مراتب پیچیده‌تر و کارآمدتر خواهیم بود. روبات‌هایی که نه‌تنها در زمینه پیگیری پرونده‌ها و بررسی جرایم کارآمد خواهند بود، بلکه خود این توانایی را خواهند داشت تا جرایمی را مرتکب شوند. در آن زمان، قوانین ما چگونه قادر خواهند بود به جرایم الگوریتم‌های هوشمند رسیدگی کنند؟ راه ‌چاره‌ای برای این مشکل وجود دارد یا از هم‌اکنون باید به عصری سلام گوییم که بر پایه ترس و وحشت پایه‌گذاری خواهد شد؟ آیا بهتر نیست برنامه‌ریزی‌ دقیق و جامعی را برای مشکلی که ممکن است در آینده به یک چالش اصلی تبدیل شود ارائه کنیم؟ برای دستیابی به چنین پاسخ‌هایی باید ابتدا به فکر تعریف شخصیت هوش مصنوعی باشیم.


مطلب پیشنهادی

آیا روبات‌ها شغل‌تان را تهدید می‌کنند؟ از این سایت بپرسید
روبات‌ها به‌زودی همه صنایع را تصرف می‌کنند


آیا باید به‌دنبال احقاق حقوق هوش مصنوعی باشیم؟

اگر اخبار مرتبط با هوش مصنوعی را دنبال کرده باشید، به‌خوبی اطلاع دارید که هوش مصنوعی کمتر از 50 سال دیگر یا شاید زودتر از این بازه زمانی به مغز متفکر بسیاری از ماشین‌ها تبدیل خواهد شد. امروزه تعداد سلول‌های عصبی یک شبکه‌ عمیق از تعداد سلول‌های عصبی موجود در مغز موجوداتی همچون زنبور عسل یا سوسک بیشتر است و جالب‌تر آنکه این روند افزایش تعداد سلول‌های عصبی نه‌تنها متوقف نشده است، بلکه یک ماهیت تصاعدی به خود گرفته است. امروزه الگوریتم‌های هوشمندی همانند آنچه گوگل طراحی کرده است قادرند الگوریتم‌های زیستی را در مقیاس بزرگ شبیه‌سازی و حتی کارکردهای مغز انسان را نیز شبیه‌سازی کنند. امروزه دانشمندان روی پروژه‌هایی در حال کار هستند تا شعور و آگاهی انسان را به درون شبکه‌های عمیق عصبی وارد کنند. 
به ‌طور مثال، در پروژه‌ای به‌نام OpenWorm دانشمندان به‌دنبال آن هستند تا سیستم اعصاب مرکزی کرم الگانس را بازطراحی کنند. این کرم از آن جهت انتخاب شده است که ما موفق شده‌ایم سیستم عصبی این موجود را به ‌طور کامل نقشه‌برداری و تحلیل کنیم. سال گذشته میلادی از 175 متخصص برتر حوزه هوش مصنوعی این سؤال پرسیده شد که نظر آن‌ها در ارتباط با هوش مصنوعی چیست؟ در این نظرسنجی عده‌ای اعلام داشتند تا سال 2040 هوش مصنوعی هم‌تراز با هوش انسانی خواهد شد. 90 درصد این افراد نیز اعلام داشتند تا سال 2075 این اتفاق رخ خواهد داد. این حرف به‌معنای آن است که تا پیش از رسیدن به این سال‌ها هوش مصنوعی از هوش حیوانی پیشی خواهد گرفت و به همین دلیل است که این فرضیه مطرح شده است که همان گونه که ما برای حیوانات حقوقی قائل هستیم، برای هوش مصنوعی نیز باید چنین حقوقی را در نظر بگیریم. به این ترتیب، باید ابزارهایی همچون آسانسورهای هوشمند را ملزم کنیم مطابق با قوانین وضع شده تنها در حالت عمومی حرکت کنند. (شکل 1) 

شکل 1


مطلب پیشنهادی

این 10 روبات به‌دنبال تغییر دنیای اطراف ما هستند

بیل تامسون نویسنده نام‌آشنای حوزه فناوری چند سال قبل گفت: «اگر به‌دنبال آن باشیم تا هوش مصنوعی کاملاً مطیع را توسعه دهیم، به‌طوری که همیشه فرمان‌بر باشد، در عمل هیچ‌گاه موفق نخواهیم شد هوش مصنوعی مستقلی را طراحی کنیم.»

هوش مصنوعی در آینده دوست خواهد بود یا دشمن؟

بسیاری از کارشناسان حوزه فناوری بر این باورند که درباره هوش مصنوعی و خطرات آن کمی اغراق شده است. به ‌طوری که هوش مصنوعی آن‌ گونه که در فیلم‌ها به آن پرداخته شده است، هیچ‌گاه قادر نخواهد بود جوامع بشری را در معرض تهدید جدی قرار دهد. اما واقعیت این است که فناوری می‌تواند به یک ماهیت ترسناک تبدیل شود. به‌ویژه زمانی که با ماهیتی روبه‌رو می‌شویم که جدید و قدرتمند بوده و با سؤالات مبهم بسیاری احاطه شده است. در حالی که فیلم‌هایی همچون نابودگر و غرب وحشی بیشتر بر جنبه سرگرمی هوش مصنوعی متمرکز بودند، اما دورنمایی اجمالی از آینده و خطراتی را برای ما به تصویر کشیده‌اند که ممکن است در آینده ما وارث آن باشیم. تا به امروز موضوعات مختلفی در ارتباط با هوش مصنوعی مورد بررسی قرار گرفته است و کارشناسان راهکارهای بازدارندگی مختلفی را در ارتباط با این فناوری پیشنهاد داده‌اند، اما در این میان نباید از نقش قانون و کارکرد آن در این زمینه غافل شویم. با وجود اطلاع‌رسانی‌های متعدد و هشدارهای مختلف هنوز هم کارشناسان حوزه فناوری درباره چالش‌ها و خطراتی که در آینده از جانب روبات‌های پیشرفته ممکن است ما را در معرض تهدید قرار دهند، دیدگاه‌های متفاوتی دارند. اما واقعیت این است که فناوری‌های مستقلی که قادرند به‌طور مستقیم به ما آسیب وارد کنند، در عصر کنونی نیز پیرامون ما قرار دارند. از پهپادهای نظامی گرفته تا روبات‌های مجری قانون همواره این احتمال وجود دارد که این ابزارهای هوشمند مرتکب اشتباهی ناخواسته شوند. به ‌طوری که ممکن است یک فرد مظنون را به قتل برسانند و در ادامه مشخص شود شخص مذکور بیگناه بوده است. در همه این موارد روبات‌ها ضمن آنکه به مردم آسیب وارد می‌کنند به‌واسطه خطاهای نرم‌افزاری یا سهل‌انگاری اپراتور مسئول مرتکب عملی متضاد با هنجارهای جامعه می‌شوند. به عبارت دقیق‌تر، این روبات‌ها یک جرم را مرتکب می‌شوند.


مطلب پیشنهادی

آیا ما در حال ورود به عصری در سیطره هوش مصنوعی هستیم
آینده‌ای که ارزش انتظار کشیدن را دارد

جمله معروفی در این زمینه وجود دارد که می‌گوید: «هر جا فرد خطاکاری وجود داشته باشد، یک فرد مدعی نیز حضور دارد.» اما اگر روزگاری روباتی اشتباهی را مرتکب شود، چه کسی را باید مقصر بدانیم؟ ممکن است در مقطع کنونی به‌دلیل بیش از حد انتزاعی بودن این موضوع بتوانیم از کنار آن راحت عبور کنیم. اما نباید از این موضوع غافل شویم که چندی پیش روباتی به‌خاطر خرید مواد مخدر دستگیر شد، اما بدون هیچ‌گونه اتهامی آزاد شد. ماشین خودرانی که شرکت تسلا آن ‌را طراحی کرده بود، باعث مرگ راننده وسیله نقلیه شد. اما سازمان ملی ایمنی ترافیک حکم خاصی در این خصوص صادر نکرد. ممکن است در مقطع فعلی مواردی که به آن‌ها اشاره شد جزء موضوعات خاص و نادر باشند، اما زمانی که چنین فناوری‌هایی همه‌گیر شوند و چنین اتفاقاتی رخ دهد، چه کسی مسئول بروز چنین مشکلاتی خواهد بود؟

روبات‌های گناهکار

نقش قانون را در ارتباط با روبات‌ها از زوایای مختلفی می‌توان مورد بررسی قرار داد. اما قانون مرتبط با روبات‌ها درنهایت باید به گونه‌ای به تصویب برسد که انتظارات آحاد جامعه را برآورده سازد. در جوامع بشری زمانی که به فردی حمله می‌شود، شخص مذکور از فرد مهاجم شکایت می‌کند و انتظار دارد فرد خاطی به سزای اعمال خود برسد. امروزه رانندگان وسایل نقلیه خودشان تصمیم می‌گیرند چه زمانی سرعت وسیله نقلیه را افزایش دهند یا از محدوده سرعت مطمئنه عبور کنند. در چنین شرایطی اگر مرتکب تخلفی شویم، از دیدگاه قانون ما مقصر هستیم. اما زمانی که مالک یک ماشین خودران می‌شوید و تصمیم‌گیری‌ها بر عهده ماشین قرار می‌گیرد، همه چیز متفاوت می‌شود. اگر ماشین به ‌طور ناخواسته با سرعتی مافوق تصور به حرکت ادامه دهد و خسارت‌هایی را به بار آورد، چه کسی مقصر است؟ مالک ماشین؟ سازنده‌ای که ماشین را ساخته است؟ توسعه‌دهنده‌ای که الگوریتم هوشمند را نوشته است؟ و... امروزه قانون به دستیاران شخصی همچون آلکسا، سیری یا کورتانا یا چت‌بات‌های هوشمند به‌عنوان یک شخص واقعی نگاه نمی‌کند، زیرا این الگوریتم های هوشمند در حال حاضر قادر نیستند آسیب جدی به ما وارد کنند یا جرمی مرتکب شوند. اما اگر فرزندان پیشرفته‌تر این دستیاران شخصی در آینده آسیب‌های واقعی به ما وارد کنند، چه اتفاقی رخ خواهد داد؟


مطلب پیشنهادی

116 دانشمند برجسته جهان خواستار ممنوعیت به‌کارگیری روبات‌های قاتل شدند


هوش ‌مصنوعی می‌تواند ذهن مجرمانه داشته باشد؟

برای آنکه بتوانیم به این پرسش پاسخ دهیم، ابتدا باید به دو سؤال پیش‌نیاز به این پرسش پاسخ دهیم. زمانی که روبات‌ها عملی انجام می‌دهند که باعث آسیب مردم می‌شود یا به‌نوعی ضرر و زیانی را بارِ آن‌ها می‌کند، چه کسی مسئول است؟ دوم آنکه در زمینه وقوع جرم ما همواره به‌دنبال انگیزه و نیت انجام عمل هستیم. اگر یک روبات یا در حالت‌ کلی‌تر یک ماشین هوشمند خود به‌تنهایی مرتکب جرمی شود، قانون باید چگونه به این جرم رسیدگی کند؟ اگر ماشین‌ها به وکلایی نیاز داشته باشند، این وکلا چگونه باید نیت جرم را تشریح یا آن ‌را رد کنند؟ آیا قوانین امروزی حاکم بر جوامع بشری می‌توانند به چنین جرائمی رسیدگی کنند؟ (البته اگر فرض کنیم وکلای روبات‌های خطاکار خود یک الگوریتم هوشمند نباشند!) 

عدالتی برای هوش مصنوعی

امروزه ماشین‌های خودران تنها در صورتی می‌توانند در جاده‌ها به تردد بپردازند که یک عامل انسانی پشت فرمان نشسته باشد. این قانونی است که برای امنیت مردم تصویب شده است. اما زمانی که ماشین‌ها به ‌طور کامل خودکار شوند، باید قوانین جامع‌تری وضع شود تا نحوه تعامل انسان و ماشین را مورد بررسی قرار دهند. مشخص است روزگاری که هوش مصنوعی بر هوش انسانی غلبه کند، از کنترل ما خارج خواهد شد. در چنین هنگامی دیگر ما کنترلی بر ماشین‌های خودران نخواهیم داشت و همواره از بابت خسارات‌هایی که ممکن است به بار آورند در هراس خواهیم بود. در آن زمان خواهیم گفت چگونه می‌توانیم ماشین‌های خودران را مجازات کنیم؟ ممکن است در فیلم‌ها و داستان‌های کمیک با دورنمایی از خطرات هوش مصنوعی آشنا شویم، اما تدوین قانونی در ارتباط با تخطی هوش مصنوعی از دستورالعمل‌ها موضوعی نیست که با نگاه به چند فیلم بتوان آن ‌را نگارش و تصویب کرد. آیا روبات‌ها روزی این توانایی را خواهند داشت تا جرمی را مرتکب شوند؟ پاسخ این پرسش مثبت است. اگر یک روبات انسانی را به قتل برساند، در واقع یک جرم را از دید ما مرتکب شده است. اما از دید یک روبات او یک عنصر مادی را حذف کرده است. در نتیجه به‌لحاظ فنی باید بگوییم روبات تنها نیمی از یک جرم را مرتکب شده است، به‌واسطه آنکه اثبات اینکه انگیزه او از انجام این عمل چه بوده است کاملاً پیچیده خواهد بود. این پیچیدگی را هم‌اکنون نیز می‌توانیم مشاهده کنیم؛ زمانی که مهندسان هوش مصنوعی گوگل با صراحت اعلام می‌دارند به‌درستی نمی‌دانند الگوریتم هوشمند آن‌ها بر مبنای چه قاعده‌ای یک راه‌ حل را پیشنهاد داده است. 
در نتیجه به این پرسش اساسی می‌رسیم که چگونه می‌توانیم از انگیزه و نیت یک روبات پیش از وقوع یک جرم اطلاع پیدا کنیم؟ ممکن است امروزه در زمینه ساخت روبات‌های انسان‌‌نما با محدودیت‌هایی روبه‌رو باشیم، اما بدون تردید امروزه الگوریتم‌هایی را مشاهده می‌کنیم که در بعضی موارد به‌شکلی تبعیض‌آمیز با مردم برخورد می‌کنند. (شکل 2) (برای اطلاع در این خصوص به پرونده ویژه خرداد ماه ماهنامه شبکه مدیریت الگوریتم/ شورش الگوریتمی مراجعه کنید.) 


شکل 2

به‌ طور مثال، فرض کنید روباتی همچون نابودگر فردی را به قتل برساند. در چنین موردی نباید به‌دنبال اثبات جرم باشیم، بلکه باید به‌دنبال نیت و انگیزه باشیم. در این حالت به پرسشی چالشی‌تر می‌رسیم که چگونه می‌توانیم از روبات‌ها همانند انسان‌ها بازجویی کنیم؟ آیا باید به درون لایه‌های مختلف شبکه عصبی آن‌ها برویم و کدهای شرکت سازنده را مورد بررسی قرار دهیم؟ اما پرسشی بدیهی‌تری نیز وجود دارد. اساساً مغز و ذهن روبات چگونه به‌سمت ارتکاب جرمی همچون جنایت متمایل می‌شود؟ وکلا چگونه می‌توانند ثابت کنند که یک روبات برای دفاع از خود مرتکب قتل شده است یا برعکس روبات تا چه اندازه به‌عمد این ‌کار را انجام داده است. اگر به‌دنبال آن هستیم تا بر مشکلات و چالش‌هایی که در آینده ممکن است از جانب هوش مصنوعی ما را تهدید کند فائق آییم، چاره‌ای نداریم جز اینکه در ابتدا برای این عامل‌های هوشمند حقوق و هویت قانونی در نظر بگیریم. 


مطلب پیشنهادی

موسیو توانایی درک رفتار انسانی را دارد
روباتی سرشار از هوش مصنوعی


ابزارهای هوشمند به قوانین هوشمند نیاز دارند

در مقطع فعلی در بسیاری از کشورها دستگاه قضا با ابزارهای غیرهوشمند روبه‌رو است و ترجیح می‌دهد اوضاع بر همین منوال باشد. در حال حاضر، زمانی که فردی با سلاح گرم مرتکب جرمی می‌شود، قوانین فرد خاطی را مجرم می‌دانند نه خود اسلحه را. زمانی که سلاحی به‌واسطه یک نقص فنی در دستان صاحب خود منفجر می‌شود، شرکت سازنده مورد بازخواست قرار می‌گیرد. چنین موضوعی درباره روبات‌ها نیز صادق است. اگر به دهه 80 میلادی بازگردیم، به شرکتی برخورد می‌کنیم که یک روبات آموزش‌دهنده تنیس به‌نام Athlone را ساخته بود. این روبات با عملکرد خشنی که از خود نشان داد، خبرساز شد و کار به دادگاه کشید. در آن زمان قاضی اعلام کرد این امکان وجود ندارد که بتوان از روبات‌ها شکایت کرد، در نتیجه مدیران شرکت مقصر اصلی این پرونده هستند. مشابه چنین پرونده‌ای در سال 2009 و این بار برای یک راننده رقم خورد. راننده‌ای از طریق سامانه موقعیت‌یاب به جاده‌ای کوهستانی می‌رسد و گم می‌شود، به ‌طوری که درنهایت برای بازگشت از نیروهای پلیس کمک می‌گیرد. زمانی که راننده به‌دلیل عملکرد ضعیف فناوری موقعیت‌یاب شکایت می‌کند، دادگاه راننده را به کم‌توجهی در رانندگی متهم می‌کند. (شکل 3) 


شکل 3


واقعیت این است که فناوری‌هایی که در گذشته مورد استفاده قرار می‌دادیم، با فناوری‌هایی که در زمان حال و آینده مورد استفاده قرار می‌دهیم تفاوت‌های بسیاری دارند. دستگاه‌های هوشمندی همچون ماشین‌های خودران یا روبات‌ها دیگر همچون گذشته ابزارهای دردست انسان‌ها نیستند. این ابزارها قادرند به‌صورت مستقل عمل و تصمیم‌گیری کنند. این دستگاه‌ها با استناد به الگوریتم‌های هوشمند داده‌ها را جمع‌آوری می‌کنند و بر مبنای دانشی که به دست می‌آورند فعالیتی را انجام می‌دهند. در نتیجه در زمان بروز پیامد ناگواری نمی‌‌توان با صراحت سازنده را مقصر دانست. 
دیوید ولادک استاد حقوق دانشگاه واشنگتن می‌گوید: «با توجه به اینکه امروزه افراد و شرکت‌های مختلفی در پیشبرد هوش مصنوعی ایفاگر نقش هستند، به‌سختی می‌توان یک فرد یا سازمان خاصی را مسئول بروز پیشامدی دانست. با توجه به اینکه امروزه اکثر سامانه‌های هوش‌مصنوعی به‌شکلی کاملاً بسته آماده عرضه می‌شوند، ما در عمل قادر نیستیم مکانیسمی را که این سامانه‌ها بر مبنای آن کار می‌کنند تحلیل کنیم.» شان بایرن استاد حقوق دانشگاه فلوریدا در این ارتباط می‌گوید: «امروزه هوش مصنوعی به‌دلیل نبود قوانین صریح و روشنی در این زمینه، این شانس را دارد تا مدیر عامل شرکتی با مسئولیت محدود شود. در این حالت هوش مصنوعی صاحب یک شخصیت حقوقی می‌شود و اگر چنین باشد، به بحث مالیات گرفتن از هوش مصنوعی می‌رسیم. در نتیجه باید بگوییم صحبت‌های آقای بیل گیتس درخصوص دریافت مالیات از روبات‌ها رنگ واقعیت به خود خواهد گرفت. اما به این نکته توجه داشته باشید که اگر به هوش مصنوعی شخصیت حقوقی بدهید، این احتمال وجود دارد که سازندگان آن در ساخت آن جانب احتیاط را کمتر رعایت کنند، به‌دلیل اینکه به‌خوبی می‌دانند اگر مشکلی به وجود آید، دیگر آن‌ها مقصر شناخته نخواهند شد. همچنین، ما نمی‌توانیم هوش مصنوعی را همانند یک انسان مجازات یا به زندان منتقل کنیم. این حرف هیچ معنای خاصی ندارد.» 
دکتر جان داناهر استاد حقوق دانشگاه NUI Galway بر این باور است که در مقطع فعلی نباید درباره شخصیت حقوقی روبات‌ها صحبت کنیم. در آینده به‌دلیل تبعیضات اجتماعی و شغلی که ممکن است از جانب الگوریتم‌های هوشمند رخ دهد، سلب مسئولیت از سازندگان را به همراه خواهد داشت. اما دیدگاه‌های متفاوتی نیز در این زمینه وجود دارد. یووال نوآ حراری نویسنده کتاب:
 Sapiens: A Brief History of Humankind and Homo Deus: A Brief History of Tomorrow 
می‌گوید: «حتی اگر هوش مصنوعی هیچ‌گاه به سطحی از آگاهی و درک کامل دست پیدا نکند، باز هم به‌لحاظ یک سری موارد سیاسی، اقتصادی و بین‌المللی باید برای آن شخصیت و حقوق قائل شد. درست به همان شکل که برای شرکت‌ها و سازمان‌ها تعریف مشخص و قوانین مشخصی داریم، هوش مصنوعی این پتانسیل را دارد تا بر سازمان‌ها و حتی کشورها تسلط پیدا کند.»

مفهوم زندان برای روبات‌ها معنای خاصی ندارد 

تخلفات روبات‌ها و هوش مصنوعی تنها در ارتباط با جرایم خشن خطرناک نیستند. روبات‌ها و الگوریتم‌های هوشمند در آینده می‌توانند از کارت اعتباری شما برای خرید کالای قاچاق استفاده کنند. این یک داستان‌بافی ساده‌انگارانه نیست. چندی پیش دو طراح در کشور انگلستان روباتی را طراحی کردند که به‌صورت تصادفی تصمیم گرفت از وب تاریک محصولاتی را خریداری کند. به نظر شما این روبات به‌دنبال خرید چه چیزی بود؟ این روبات تقریباً همه چیز را خریداری می‌کرد. اکنون سازندگان این روبات مقصر خریدهای او هستند یا خود تصمیم گرفته است اقلام غیرقانونی را خریداری کند؟ شاید کمی خنده‌دار به نظر برسد روباتی را به زندان بفرستیم و برای او حکم حبس ابد یا 30 سال زندان در نظر بگیریم، به‌واسطه آنکه هیچ‌گاه پیر نشده و دل‌بستگی خاصی ندارد. (شکل 4)


شکل 4

مهم‌تر از این مسئله این امکان وجود دارد که روبات‌های زندان‌بان نیز تحت تأثیر روبات‌های مجرم قرار بگیرند. اگر روباتی جرمی را مرتکب شود، به‌معنای آن است که از الگوریتم قوی‌تری استفاده می‌کند که می‌تواند بر اوضاع مسلط شود. شاید بهترین راهکار تنبیه یک روبات این باشد که کدهای آن ‌را به گونه‌ای بازنویسی کرد که دومرتبه مرتکب جرمی نشود.

از نظر تکنولوژی در زمینه هوش مصنوعی عقب هستیم

احسان امینیان عضو هیأت علمی دانشگاه آزاد گفت: از لحاظ علمی شاید همان کتاب هایی که در کشورهای پیشرفته درباره هوش مصنوعی تدریس شده، اینجا نیز تدریس می شود اما از نظر تکنولوژی از آنها عقب هستیم، هوش مصنوعی به عنوان یکی از مسائل مهم در دنیای امروز به شمار می آید که در تکنولوژی و زندگی همه مردم دنیا نقش پررنگی را ایفا می کند.


«احسان امینیان» عضو هیأت علمی دانشگاه آزاد که از سال 88 به عضویت هیأت علمی درآمده است و به عنوان نفر اول کنکور دکتری در رشته هوش مصنوعی پذیرفته شد.

روابط عمومی دانشکده خبر، گفتگویی با این نخبه داشته که در ادامه می خوانید:

*در مقایسه با کشورهایی مانند ژاپن که در زمینه الکترونیک و هوش مصنوعی فعالیت می کنند سطح و رتبه ایران در مقایسه با این کشورها چطور است؟

از لحاظ علمی شاید همان کتاب هایی که در کشورهای پیشرفته تدریس می شود اینجا نیز تدریس می شود اما از نظر تکنولوژی از آنها عقب هستیم ولی از نظر مفهومی هیچ عقب ماندگی به کشور پیشرفته نداریم ولی وقتی به مرحله تولید می رسد به دلایل نبود زیرساخت و بودجه لازم ما عقب می مانیم.

از نظر تکنولوژی در زمینه هوش مصنوعی عقب هستیم

*هوش مصنوعی به جایی رسیده که در هالیوود هم فیلم هایی ساخته می شود که تحت تاثیر ربات ها قرار دارد این تاثیرات چه خطراتی و چه مزایایی برای جهانیان دارد؟

کسی نمی داند آینده دقیقا به چه سمتی می رود شاید اطلاعات ما به آن اندازه کافی نباشد شاید الان مراکزی در جاهای مختلف دنیا مانند آمریکا باشد که از سطح بالاتری از هوش مصنوعی به کار بگیرند. البته هوش مصنوعی غیرقابل انکار است همچنان که فعالیت های مختلفی توسط قدرت های بزرگ در زمینه هوش مصنوعی صورت می گیرد که از دید جهانیان مخفی می ماند.

*هوش چقدر می تواند وسعت پیدا کند؟

از لحاظ گستردگی و اینکه چقدر پیشرفت می کند در ژاپن روبات هایی داریم که خانگی و یا در بیمارستان به کار گرفته می شوند. این ربات ها می توانند خوب را از بد و یا درست را از نادرست تشخیص بدهند. چیزی که ما تلاش می کنیم برای این است که رباتی را بسازند که به هوشمندی انسان باشد.

*می توان پروتکلی تعریف کرد که ربات حد و حدودی را داشته باشند و به انسان صدمه ای نزند؟

می توان این کار را انجام داد چون انسان آنقدر توانایی دارد که این کارها را انجام دهد. از نظر مهار ربات ها هیچ مشکلی نداریم، مشکل کنترل انسانهاست که نمی توان انسان ها را کنترل کرد که رباتی را بسازد که یادگیری بی نهایت داشته باشد.

*چقدر زمان می برد که در کشورمان بتوانیم شهروند ربات داشته باشیم؟

اگر اراده ای در مدیریت وجود داشته باشد این امر در ظرف مدت کوتاهی انجام خواهد شد ولی بعید می دانم که زیاد به این مسأله در کشور ورود کنند.

*آیا با توجه به اینکه از لحاظ نظامی نیز فواید خوبی برای کشور فراهم شده است مسئولین با این طرح مخالفت خواهند کرد؟

مسئولین مخالف نیستند. در بخش زیادی از بیسیم های موشکی تا هوش مصنوعی مورد استفاده قرار می گیرد. در کارهای سازمانی توجه می شود عدم تمایل سرمایه گذاران روی این بخش باعث شده که فعلا در خصوص شهروند ربات تصمیمی گرفته نشده است. خطر ریسک پذیری باعث شده که این اتفاق نیفتد. این طرح ها هزینه بر هستند و باید با فکر انجام شود که سرمایه عظیمی تلف نشود.

*چه راهکاری می توان تعریف کرد که سرمایه گذاران به این سمت بیشتر بیایند و در خصوص پروژه های هوش مصنوعی سرمایه گذاری کنند؟

با حمایت از شرکت های دانش بنیان می توانیم به این هدف دست پیدا کنیم. در چند سال گذشته حرکت های بسیار خوبی صورت گرفته که امیدوارکننده است. از نظر علمی مشکلی وجود ندارد فقط باید سرمایه گذاران را جذب کرد. باید سعی کنیم محصولات علمی را صنعتی کنیم.

*از کجا ایده هوش مصنوعی به وجود آمد و این تصمیم گرفته شد که در خیلی از حوزه ها از آن استفاده شود؟

شیرینی و کنجکاوی که در این بخش وجود دارد باعث شد که خیلی زود در همه دنیا مورد علاقه قرار بگیرد. ما نباید هوش مصنوعی را فقط درباره ربات ها و حوزه تکنیکال فرض کنیم. همین گوگل حاصل یک هوش مصنوعی است.

*آیا شرکت هایی مانند گوگل می توانند از ابزاری که دارند سوء استفاده کنند؟

در واقع این شرکت ها به کاربران خود تعهد می دهند که اطلاعات آنها را فاش نکنند. امروزه گوگل بیشتر از هر کسی به همه اطلاعات شخصی دسترسی دارند. یکی از اهداف طرح هوش مصنوعی جمع آوری اطلاعات است. چیزی که در ظاهر مشخص است این شرکت ها متعهد می شوند که اطلاعات را نفروشند.

برای نخستین بار در جهان؛ اعطای تابعیت سعودی به یک روبات زن!

دولت سعودی نخستین کشوری در جهان است که به یک روبات تابعیت کشور خود را اعطا کرده است. این اقدام در حالی است که بر اساس آمارها عربستان سعودی یکی از بدترین کشورها در زمینه وضعیت حقوق و آزادی های مدنی و اجتماعی است.

دولت عربستان سعودی برای نخستین بار در جهان، به یک روبات انسان نمای زن به نام "سوفیا" تابعیت سعودی اعطا کرد.

به گزارش عصر ایران به نقل از وب سایت "دیلی میرور" در کشوری که مساله حقوق زنان به عنوان یکی از قابل مناقشه ترین موضوعات حقوق بشری است، اعطای تابعیت سعودی به یک روبات انسان نمای زن، تعجب بسیاری از ناظران را برانگیخته است.

این اقدام دولت سعودی در راستای برنامه های بلندپروازانه دولت جدید سعودی در اعمال اصلاحات بنیادی اجتماعی و اقتصادی صورت می گیرد که در راستای آن تا کنون محدودیت اتومبیلرانی برای زنان برداشته شده و برای نخستین بار آوازخوانی زنان از تلویزیون دولتی سعودی پخش شده است.

دولت سعودی نخستین کشوری است که به یک روبات تابعیت خود را داده است.

اعطای تابعیت به "سوفیا" بحث های داغی را در فضای مجازی و شبکه های اجتماعی سعودی و جهان برانگیخته است. بسیاری به طنز و شوخی نوشته اند این روبات انسان نما با دریافت تابعیت سعودی بسیار بیش از زنان سعودی از حق و حقوق برخوردار خواهد بود.

دولت سعودی با اعطای تابعیت به سوفیا در نظر دارد این کشور را به عنوان یکی از پایگاه های اصلی توسعه هوش مصنوعی در خاورمیانه تبدیل کند که در راستای برنامه بلندپروازانه "عربستان 2030 " است.

محمد بن سلمان ولیعهد جوان سعودی با تهیه برنامه بلندپروازانه توسعه اقتصادی و اجتماعی "دورنمای عربستان 2030 "درنظر دارد از وابستگی به نفت کاسته و توسعه ای همه جانبه و متوازن را به پیش ببرد.

مراسم اعطای تابعیت به سوفیا دیروز در جریان یک کنفرانس تجاری در ریاض به این روبات انسان نما برگزار شد.

سوفیا پس از اعلام اعطای تابعیت سعودی در سخنانی دریافت این حق را مایه افتخار خود دانست و از آن استقبال کرد.

سوفیا

برای نخستین بار در جهان؛ اعطای تابعیت سعودی به یک روبات زن!

دولت سعودی در حالی به سوفیا تابعیت کشور خود را اعطا کرده که بر اساس آمارها این کشور یکی از بدترین کشورها (در جمع یکی از 10 بدترین کشور) در زمینه وضعیت حقوق و آزادی های اجتماعی و  مدنی است.

سه وزارت جدید به نام های هوش مصنوعی، علوم پیشرفته و امنیت غذایی در کابینه جدید امارات

وزیر زن در کابینه جدید امارات/ ایجاد وزارت هوش مصنوعی

نخست وزیر امارات مرحله جدید را اینگونه نامگذاری کرد: مهارت های آینده، علوم آینده و تکنولوژی آینده.

کابینه جدید امارات معرفی شد. در این کابینه 31 وزیر حضور دارند که 9 نفر آنها (حدود یک سوم) خانم هستند.

به گزارش عصرایران، در این کابینه سه وزارت جدید به نام های هوش مصنوعی، علوم پیشرفته و امنیت غذایی ایجاد شده است.
شیخ محمد بن راشد نخست وزیر و حاکم دبی با اعلام کابینه جدید، گفت که طرح اکتشاف مریخ نیز زیر نظر وزارت علوم پیشرفته ادامه خواهد یافت.

"ساره امیری" 30 ساله به عنوان وزیر مشاور در امور علوم پیشرفته منصوب شده است.


دولت امارات قبل از این هم با ایجاد وزارت های خوشبختی و تسامح، توجه جهانیان را به خود جلب کرده بود.
نخست وزیر امارات، خبر تشکیل کابینه جدید و تغییرات وزیران را در توئیتر اعلام کرد.

در کابینه قبلی هم از میان 29 وزیر، 8 وزیر خانم بودند.
نخست وزیر امارات در توئیتر نوشت که در حمایت از تغییر و به روز سازی با هدف برآورده ساختن چشم اندازهای بلندمدت کابینه جدید اعلام می شود.
او مرحله جدید را اینگونه نامگذاری کرد: مهارت های آینده، علوم آینده و تکنولوژی آینده.

همچنین یک جوان 27 ساله به نام عمر بن سلطان نیز به عنوان وزیر مشاور در امور هوش مصنوعی منصوب شد.
نخست وزیر امارات در این باره در توئیتر نوشت: موج جهانی آینده، هوش مصنوعی است. می خواهیم کشوری باشیم که بیش از دیگران آماده آن باشیم.

وزارت امنیت غذایی نیز به یک خانم به نام مریم المهیری سپرده شده است.
نوره بنت محمد الکعبی دیگر وزیر کابینه نیز مسؤولیت وزارت فرهنگ را برعهده گرفته است.

 

کابینه جدید امارات: یک سوم وزیران، خانم هستند/ ایجاد 3 وزارت جدید هوش مصنوعی، امنیت غذایی و علوم پیشرفته

Google's Latest Self-Learning AI Is Like an "Alien Civilization Inventing Its Own Mathematics

Google's Latest Self-Learning AI Is Like an "Alien Civilization Inventing Its Own Mathematics"


Okay, that's pretty awesome.

PETER DOCKRILL
19 OCT 2017

An AI that vanquished humanity at perhaps the most complex traditional game on Earth was inconceivably smart. But not smart enough to survive its own replacement by an even more awesome, alien intelligence.

Google's DeepMind researchers have just announced the next evolution of their seemingly indomitable artificial intelligence – AlphaGo Zero – which has dispensed with what may have been the most inefficient resource in its ongoing quest for knowledge: humans.

Zero's predecessor, dubbed simply AlphaGo, was described as "Godlike" by one of the crestfallen human champions it bested at the ancient Chinese board game, Go, but the new evolution has refined its training arsenal by eradicating human teachings from its schooling entirely.

The AlphaGo versions that kicked our butts at Go in a series of contests this year and last year first learned to play the game by analysing thousands of human amateur and professional games, but AlphaGo Zero is entirely self-taught, learning by 100 percent independent experimentation.

AlphaGo20Zero20Training20TimeDeepMind

In a new study, the researchers report how that uncanny self-reliance sharpened Zero's intelligence to devastating effect: in 100 games against Zero, a previous AlphaGo incarnation – which cleaned the floor with us in 2016 – didn't pick up a single win. Not one.

Even more amazingly, that trumping came after just three days of self-play training by AlphaGo Zero, in which it distilled the equivalent of thousands of years of human knowledge of the game.

"It's like an alien civilization inventing its own mathematics," computer scientist Nick Hynes MIT told Gizmodo.

"What we're seeing here is a model free from human bias and presuppositions. It can learn whatever it determines is optimal, which may indeed be more nuanced that our own conceptions of the same."

After 21 days of self-play, Zero had progressed to the standard of its most powerful predecessor, known as AlphaGo (Master), which is the version that beat world number one Ke Jie this year, and in subsequent weeks it eclipsed that level of performance.

Aside from the self-reliance, the team behind AlphaGo Zero ascribe its Go dominance to an improved, single neural network (former versions used two in concert), and more advanced training simulations.

But just because the AI is racing ahead at such an awesome – if disquieting – pace, it doesn't necessarily mean Zero is smarter or more capable than humans in other fields away from this complex but constrained board game.

"AI fails in tasks that are surprisingly easy for humans," computational neuroscientist Eleni Vasilaki from Sheffield University in the UK told The Guardian.

"Just look at the performance of a humanoid robot in everyday tasks such as walking, running, and kicking a ball."

That may be true, but allow us our moment of silenced awe as we witness the birth of this astonishingly powerful synthetic way of thinking.

It might not do what humans can do, but it can do so many things we can't, too.

According to DeepMind, those capabilities will one day soon help Zero - or its inevitable, evolving heirs - figure out things like how biological mechanisms operate, how energy consumption can be reduced, or how new kinds of materials fit together.

Welcome to a bright new future, which clearly isn't ours alone.



The findings are reported in Nature.