مطلب پیشنهادی
روباتها بهزودی همه صنایع را تصرف میکنند
اما در ادامه، این آسانسور از کار یکنواختی که از صبح تا شب انجام میدهد خسته میشود و بهجای آنکه تنها در مسیر عمودی به حرکت خود ادامه دهد، به چپ و راست حرکت میکند تا بهنوعی اعتراض وجودی (Existential Protest) خود را به تصویر بکشد. درست است که ما هنوز چیزی بهنام آسانسور هوشمند در اختیار نداریم، اما این حرف بهمعنای آن نیست که شرکتهای بزرگ عرصه فناوری در این زمینه بیکار بودهاند. ممکن است این شرکتها نمونههای اولیهای از چنین آسانسورهایی را طراحی کرده باشند، اما ما از وجود آنها بیخبر هستیم. اگر به پیرامون خود نگاه کنیم، شاهدیم که الگوریتمهای پیچیده قادرند در حل مسائل و حتی پیشبینی وقوع جرایم به ما کمک کنند. نزدیک به یک ماه پیش در زمان نگارش این مقاله اولین روبات وکیل جهان کار خود را بهشکل گسترده در ایالات متحده آغاز کرد. چتباتی که بهمنظور مشاوره دادن به مردم در زمینه مشکلات حقوقی طراحی شده است. اما با ورود به سال 2040 شاهد حضور الگوریتمها و روباتهایی بهمراتب پیچیدهتر و کارآمدتر خواهیم بود. روباتهایی که نهتنها در زمینه پیگیری پروندهها و بررسی جرایم کارآمد خواهند بود، بلکه خود این توانایی را خواهند داشت تا جرایمی را مرتکب شوند. در آن زمان، قوانین ما چگونه قادر خواهند بود به جرایم الگوریتمهای هوشمند رسیدگی کنند؟ راه چارهای برای این مشکل وجود دارد یا از هماکنون باید به عصری سلام گوییم که بر پایه ترس و وحشت پایهگذاری خواهد شد؟ آیا بهتر نیست برنامهریزی دقیق و جامعی را برای مشکلی که ممکن است در آینده به یک چالش اصلی تبدیل شود ارائه کنیم؟ برای دستیابی به چنین پاسخهایی باید ابتدا به فکر تعریف شخصیت هوش مصنوعی باشیم.
اگر
اخبار مرتبط با هوش مصنوعی را دنبال کرده باشید، بهخوبی اطلاع دارید که
هوش مصنوعی کمتر از 50 سال دیگر یا شاید زودتر از این بازه زمانی به مغز
متفکر بسیاری از ماشینها تبدیل خواهد شد. امروزه تعداد سلولهای عصبی یک
شبکه عمیق از تعداد سلولهای عصبی موجود در مغز موجوداتی همچون زنبور عسل
یا سوسک بیشتر است و جالبتر آنکه این روند افزایش تعداد سلولهای عصبی
نهتنها متوقف نشده است، بلکه یک ماهیت تصاعدی به خود گرفته است. امروزه
الگوریتمهای هوشمندی همانند آنچه گوگل طراحی کرده است قادرند الگوریتمهای
زیستی را در مقیاس بزرگ شبیهسازی و حتی کارکردهای مغز انسان را نیز
شبیهسازی کنند. امروزه دانشمندان روی پروژههایی در حال کار هستند تا شعور
و آگاهی انسان را به درون شبکههای عمیق عصبی وارد کنند.
به طور
مثال، در پروژهای بهنام OpenWorm دانشمندان بهدنبال آن هستند تا سیستم
اعصاب مرکزی کرم الگانس را بازطراحی کنند. این کرم از آن جهت انتخاب شده
است که ما موفق شدهایم سیستم عصبی این موجود را به طور کامل نقشهبرداری و
تحلیل کنیم. سال گذشته میلادی از 175 متخصص برتر حوزه هوش مصنوعی این سؤال
پرسیده شد که نظر آنها در ارتباط با هوش مصنوعی چیست؟ در این نظرسنجی
عدهای اعلام داشتند تا سال 2040 هوش مصنوعی همتراز با هوش انسانی خواهد
شد. 90 درصد این افراد نیز اعلام داشتند تا سال 2075 این اتفاق رخ خواهد
داد. این حرف بهمعنای آن است که تا پیش از رسیدن به این سالها هوش مصنوعی
از هوش حیوانی پیشی خواهد گرفت و به همین دلیل است که این فرضیه مطرح شده
است که همان گونه که ما برای حیوانات حقوقی قائل هستیم، برای هوش مصنوعی
نیز باید چنین حقوقی را در نظر بگیریم. به این ترتیب، باید ابزارهایی همچون
آسانسورهای هوشمند را ملزم کنیم مطابق با قوانین وضع شده تنها در حالت
عمومی حرکت کنند. (شکل 1)
شکل 1
بیل تامسون نویسنده نامآشنای حوزه فناوری چند سال قبل گفت: «اگر بهدنبال آن باشیم تا هوش مصنوعی کاملاً مطیع را توسعه دهیم، بهطوری که همیشه فرمانبر باشد، در عمل هیچگاه موفق نخواهیم شد هوش مصنوعی مستقلی را طراحی کنیم.»
بسیاری از کارشناسان حوزه فناوری بر این باورند که درباره هوش مصنوعی و خطرات آن کمی اغراق شده است. به طوری که هوش مصنوعی آن گونه که در فیلمها به آن پرداخته شده است، هیچگاه قادر نخواهد بود جوامع بشری را در معرض تهدید جدی قرار دهد. اما واقعیت این است که فناوری میتواند به یک ماهیت ترسناک تبدیل شود. بهویژه زمانی که با ماهیتی روبهرو میشویم که جدید و قدرتمند بوده و با سؤالات مبهم بسیاری احاطه شده است. در حالی که فیلمهایی همچون نابودگر و غرب وحشی بیشتر بر جنبه سرگرمی هوش مصنوعی متمرکز بودند، اما دورنمایی اجمالی از آینده و خطراتی را برای ما به تصویر کشیدهاند که ممکن است در آینده ما وارث آن باشیم. تا به امروز موضوعات مختلفی در ارتباط با هوش مصنوعی مورد بررسی قرار گرفته است و کارشناسان راهکارهای بازدارندگی مختلفی را در ارتباط با این فناوری پیشنهاد دادهاند، اما در این میان نباید از نقش قانون و کارکرد آن در این زمینه غافل شویم. با وجود اطلاعرسانیهای متعدد و هشدارهای مختلف هنوز هم کارشناسان حوزه فناوری درباره چالشها و خطراتی که در آینده از جانب روباتهای پیشرفته ممکن است ما را در معرض تهدید قرار دهند، دیدگاههای متفاوتی دارند. اما واقعیت این است که فناوریهای مستقلی که قادرند بهطور مستقیم به ما آسیب وارد کنند، در عصر کنونی نیز پیرامون ما قرار دارند. از پهپادهای نظامی گرفته تا روباتهای مجری قانون همواره این احتمال وجود دارد که این ابزارهای هوشمند مرتکب اشتباهی ناخواسته شوند. به طوری که ممکن است یک فرد مظنون را به قتل برسانند و در ادامه مشخص شود شخص مذکور بیگناه بوده است. در همه این موارد روباتها ضمن آنکه به مردم آسیب وارد میکنند بهواسطه خطاهای نرمافزاری یا سهلانگاری اپراتور مسئول مرتکب عملی متضاد با هنجارهای جامعه میشوند. به عبارت دقیقتر، این روباتها یک جرم را مرتکب میشوند.
جمله معروفی در این زمینه وجود دارد که میگوید: «هر جا فرد خطاکاری وجود داشته باشد، یک فرد مدعی نیز حضور دارد.» اما اگر روزگاری روباتی اشتباهی را مرتکب شود، چه کسی را باید مقصر بدانیم؟ ممکن است در مقطع کنونی بهدلیل بیش از حد انتزاعی بودن این موضوع بتوانیم از کنار آن راحت عبور کنیم. اما نباید از این موضوع غافل شویم که چندی پیش روباتی بهخاطر خرید مواد مخدر دستگیر شد، اما بدون هیچگونه اتهامی آزاد شد. ماشین خودرانی که شرکت تسلا آن را طراحی کرده بود، باعث مرگ راننده وسیله نقلیه شد. اما سازمان ملی ایمنی ترافیک حکم خاصی در این خصوص صادر نکرد. ممکن است در مقطع فعلی مواردی که به آنها اشاره شد جزء موضوعات خاص و نادر باشند، اما زمانی که چنین فناوریهایی همهگیر شوند و چنین اتفاقاتی رخ دهد، چه کسی مسئول بروز چنین مشکلاتی خواهد بود؟
نقش قانون را در ارتباط با روباتها از زوایای مختلفی میتوان مورد بررسی قرار داد. اما قانون مرتبط با روباتها درنهایت باید به گونهای به تصویب برسد که انتظارات آحاد جامعه را برآورده سازد. در جوامع بشری زمانی که به فردی حمله میشود، شخص مذکور از فرد مهاجم شکایت میکند و انتظار دارد فرد خاطی به سزای اعمال خود برسد. امروزه رانندگان وسایل نقلیه خودشان تصمیم میگیرند چه زمانی سرعت وسیله نقلیه را افزایش دهند یا از محدوده سرعت مطمئنه عبور کنند. در چنین شرایطی اگر مرتکب تخلفی شویم، از دیدگاه قانون ما مقصر هستیم. اما زمانی که مالک یک ماشین خودران میشوید و تصمیمگیریها بر عهده ماشین قرار میگیرد، همه چیز متفاوت میشود. اگر ماشین به طور ناخواسته با سرعتی مافوق تصور به حرکت ادامه دهد و خسارتهایی را به بار آورد، چه کسی مقصر است؟ مالک ماشین؟ سازندهای که ماشین را ساخته است؟ توسعهدهندهای که الگوریتم هوشمند را نوشته است؟ و... امروزه قانون به دستیاران شخصی همچون آلکسا، سیری یا کورتانا یا چتباتهای هوشمند بهعنوان یک شخص واقعی نگاه نمیکند، زیرا این الگوریتم های هوشمند در حال حاضر قادر نیستند آسیب جدی به ما وارد کنند یا جرمی مرتکب شوند. اما اگر فرزندان پیشرفتهتر این دستیاران شخصی در آینده آسیبهای واقعی به ما وارد کنند، چه اتفاقی رخ خواهد داد؟
برای آنکه بتوانیم به این پرسش پاسخ دهیم، ابتدا باید به دو سؤال پیشنیاز به این پرسش پاسخ دهیم. زمانی که روباتها عملی انجام میدهند که باعث آسیب مردم میشود یا بهنوعی ضرر و زیانی را بارِ آنها میکند، چه کسی مسئول است؟ دوم آنکه در زمینه وقوع جرم ما همواره بهدنبال انگیزه و نیت انجام عمل هستیم. اگر یک روبات یا در حالت کلیتر یک ماشین هوشمند خود بهتنهایی مرتکب جرمی شود، قانون باید چگونه به این جرم رسیدگی کند؟ اگر ماشینها به وکلایی نیاز داشته باشند، این وکلا چگونه باید نیت جرم را تشریح یا آن را رد کنند؟ آیا قوانین امروزی حاکم بر جوامع بشری میتوانند به چنین جرائمی رسیدگی کنند؟ (البته اگر فرض کنیم وکلای روباتهای خطاکار خود یک الگوریتم هوشمند نباشند!)
امروزه
ماشینهای خودران تنها در صورتی میتوانند در جادهها به تردد بپردازند که
یک عامل انسانی پشت فرمان نشسته باشد. این قانونی است که برای امنیت مردم
تصویب شده است. اما زمانی که ماشینها به طور کامل خودکار شوند، باید
قوانین جامعتری وضع شود تا نحوه تعامل انسان و ماشین را مورد بررسی قرار
دهند. مشخص است روزگاری که هوش مصنوعی بر هوش انسانی غلبه کند، از کنترل ما
خارج خواهد شد. در چنین هنگامی دیگر ما کنترلی بر ماشینهای خودران
نخواهیم داشت و همواره از بابت خساراتهایی که ممکن است به بار آورند در
هراس خواهیم بود. در آن زمان خواهیم گفت چگونه میتوانیم ماشینهای خودران
را مجازات کنیم؟ ممکن است در فیلمها و داستانهای کمیک با دورنمایی از
خطرات هوش مصنوعی آشنا شویم، اما تدوین قانونی در ارتباط با تخطی هوش
مصنوعی از دستورالعملها موضوعی نیست که با نگاه به چند فیلم بتوان آن را
نگارش و تصویب کرد. آیا روباتها روزی این توانایی را خواهند داشت تا جرمی
را مرتکب شوند؟ پاسخ این پرسش مثبت است. اگر یک روبات انسانی را به قتل
برساند، در واقع یک جرم را از دید ما مرتکب شده است. اما از دید یک روبات
او یک عنصر مادی را حذف کرده است. در نتیجه بهلحاظ فنی باید بگوییم روبات
تنها نیمی از یک جرم را مرتکب شده است، بهواسطه آنکه اثبات اینکه انگیزه
او از انجام این عمل چه بوده است کاملاً پیچیده خواهد بود. این پیچیدگی را
هماکنون نیز میتوانیم مشاهده کنیم؛ زمانی که مهندسان هوش مصنوعی گوگل با
صراحت اعلام میدارند بهدرستی نمیدانند الگوریتم هوشمند آنها بر مبنای
چه قاعدهای یک راه حل را پیشنهاد داده است.
در نتیجه به این پرسش
اساسی میرسیم که چگونه میتوانیم از انگیزه و نیت یک روبات پیش از وقوع یک
جرم اطلاع پیدا کنیم؟ ممکن است امروزه در زمینه ساخت روباتهای انساننما
با محدودیتهایی روبهرو باشیم، اما بدون تردید امروزه الگوریتمهایی را
مشاهده میکنیم که در بعضی موارد بهشکلی تبعیضآمیز با مردم برخورد
میکنند. (شکل 2) (برای اطلاع در این خصوص به پرونده ویژه خرداد ماه
ماهنامه شبکه مدیریت الگوریتم/ شورش الگوریتمی مراجعه کنید.)
شکل 2
به طور مثال، فرض کنید روباتی همچون نابودگر فردی را به قتل برساند. در چنین موردی نباید بهدنبال اثبات جرم باشیم، بلکه باید بهدنبال نیت و انگیزه باشیم. در این حالت به پرسشی چالشیتر میرسیم که چگونه میتوانیم از روباتها همانند انسانها بازجویی کنیم؟ آیا باید به درون لایههای مختلف شبکه عصبی آنها برویم و کدهای شرکت سازنده را مورد بررسی قرار دهیم؟ اما پرسشی بدیهیتری نیز وجود دارد. اساساً مغز و ذهن روبات چگونه بهسمت ارتکاب جرمی همچون جنایت متمایل میشود؟ وکلا چگونه میتوانند ثابت کنند که یک روبات برای دفاع از خود مرتکب قتل شده است یا برعکس روبات تا چه اندازه بهعمد این کار را انجام داده است. اگر بهدنبال آن هستیم تا بر مشکلات و چالشهایی که در آینده ممکن است از جانب هوش مصنوعی ما را تهدید کند فائق آییم، چارهای نداریم جز اینکه در ابتدا برای این عاملهای هوشمند حقوق و هویت قانونی در نظر بگیریم.
در مقطع فعلی در بسیاری از کشورها دستگاه قضا با ابزارهای غیرهوشمند روبهرو است و ترجیح میدهد اوضاع بر همین منوال باشد. در حال حاضر، زمانی که فردی با سلاح گرم مرتکب جرمی میشود، قوانین فرد خاطی را مجرم میدانند نه خود اسلحه را. زمانی که سلاحی بهواسطه یک نقص فنی در دستان صاحب خود منفجر میشود، شرکت سازنده مورد بازخواست قرار میگیرد. چنین موضوعی درباره روباتها نیز صادق است. اگر به دهه 80 میلادی بازگردیم، به شرکتی برخورد میکنیم که یک روبات آموزشدهنده تنیس بهنام Athlone را ساخته بود. این روبات با عملکرد خشنی که از خود نشان داد، خبرساز شد و کار به دادگاه کشید. در آن زمان قاضی اعلام کرد این امکان وجود ندارد که بتوان از روباتها شکایت کرد، در نتیجه مدیران شرکت مقصر اصلی این پرونده هستند. مشابه چنین پروندهای در سال 2009 و این بار برای یک راننده رقم خورد. رانندهای از طریق سامانه موقعیتیاب به جادهای کوهستانی میرسد و گم میشود، به طوری که درنهایت برای بازگشت از نیروهای پلیس کمک میگیرد. زمانی که راننده بهدلیل عملکرد ضعیف فناوری موقعیتیاب شکایت میکند، دادگاه راننده را به کمتوجهی در رانندگی متهم میکند. (شکل 3)
شکل 3
واقعیت
این است که فناوریهایی که در گذشته مورد استفاده قرار میدادیم، با
فناوریهایی که در زمان حال و آینده مورد استفاده قرار میدهیم تفاوتهای
بسیاری دارند. دستگاههای هوشمندی همچون ماشینهای خودران یا روباتها دیگر
همچون گذشته ابزارهای دردست انسانها نیستند. این ابزارها قادرند بهصورت
مستقل عمل و تصمیمگیری کنند. این دستگاهها با استناد به الگوریتمهای
هوشمند دادهها را جمعآوری میکنند و بر مبنای دانشی که به دست میآورند
فعالیتی را انجام میدهند. در نتیجه در زمان بروز پیامد ناگواری نمیتوان
با صراحت سازنده را مقصر دانست.
دیوید ولادک استاد حقوق دانشگاه
واشنگتن میگوید: «با توجه به اینکه امروزه افراد و شرکتهای مختلفی در
پیشبرد هوش مصنوعی ایفاگر نقش هستند، بهسختی میتوان یک فرد یا سازمان
خاصی را مسئول بروز پیشامدی دانست. با توجه به اینکه امروزه اکثر
سامانههای هوشمصنوعی بهشکلی کاملاً بسته آماده عرضه میشوند، ما در عمل
قادر نیستیم مکانیسمی را که این سامانهها بر مبنای آن کار میکنند تحلیل
کنیم.» شان بایرن استاد حقوق دانشگاه فلوریدا در این ارتباط میگوید:
«امروزه هوش مصنوعی بهدلیل نبود قوانین صریح و روشنی در این زمینه، این
شانس را دارد تا مدیر عامل شرکتی با مسئولیت محدود شود. در این حالت هوش
مصنوعی صاحب یک شخصیت حقوقی میشود و اگر چنین باشد، به بحث مالیات گرفتن
از هوش مصنوعی میرسیم. در نتیجه باید بگوییم صحبتهای آقای بیل گیتس
درخصوص دریافت مالیات از روباتها رنگ واقعیت به خود خواهد گرفت. اما به
این نکته توجه داشته باشید که اگر به هوش مصنوعی شخصیت حقوقی بدهید، این
احتمال وجود دارد که سازندگان آن در ساخت آن جانب احتیاط را کمتر رعایت
کنند، بهدلیل اینکه بهخوبی میدانند اگر مشکلی به وجود آید، دیگر آنها
مقصر شناخته نخواهند شد. همچنین، ما نمیتوانیم هوش مصنوعی را همانند یک
انسان مجازات یا به زندان منتقل کنیم. این حرف هیچ معنای خاصی ندارد.»
دکتر
جان داناهر استاد حقوق دانشگاه NUI Galway بر این باور است که در مقطع
فعلی نباید درباره شخصیت حقوقی روباتها صحبت کنیم. در آینده بهدلیل
تبعیضات اجتماعی و شغلی که ممکن است از جانب الگوریتمهای هوشمند رخ دهد،
سلب مسئولیت از سازندگان را به همراه خواهد داشت. اما دیدگاههای متفاوتی
نیز در این زمینه وجود دارد. یووال نوآ حراری نویسنده کتاب:
Sapiens: A Brief History of Humankind and Homo Deus: A Brief History of Tomorrow
میگوید:
«حتی اگر هوش مصنوعی هیچگاه به سطحی از آگاهی و درک کامل دست پیدا نکند،
باز هم بهلحاظ یک سری موارد سیاسی، اقتصادی و بینالمللی باید برای آن
شخصیت و حقوق قائل شد. درست به همان شکل که برای شرکتها و سازمانها تعریف
مشخص و قوانین مشخصی داریم، هوش مصنوعی این پتانسیل را دارد تا بر
سازمانها و حتی کشورها تسلط پیدا کند.»
تخلفات روباتها و هوش مصنوعی تنها در ارتباط با جرایم خشن خطرناک نیستند. روباتها و الگوریتمهای هوشمند در آینده میتوانند از کارت اعتباری شما برای خرید کالای قاچاق استفاده کنند. این یک داستانبافی سادهانگارانه نیست. چندی پیش دو طراح در کشور انگلستان روباتی را طراحی کردند که بهصورت تصادفی تصمیم گرفت از وب تاریک محصولاتی را خریداری کند. به نظر شما این روبات بهدنبال خرید چه چیزی بود؟ این روبات تقریباً همه چیز را خریداری میکرد. اکنون سازندگان این روبات مقصر خریدهای او هستند یا خود تصمیم گرفته است اقلام غیرقانونی را خریداری کند؟ شاید کمی خندهدار به نظر برسد روباتی را به زندان بفرستیم و برای او حکم حبس ابد یا 30 سال زندان در نظر بگیریم، بهواسطه آنکه هیچگاه پیر نشده و دلبستگی خاصی ندارد. (شکل 4)
شکل 4
مهمتر از این مسئله این امکان وجود دارد که روباتهای زندانبان نیز تحت تأثیر روباتهای مجرم قرار بگیرند. اگر روباتی جرمی را مرتکب شود، بهمعنای آن است که از الگوریتم قویتری استفاده میکند که میتواند بر اوضاع مسلط شود. شاید بهترین راهکار تنبیه یک روبات این باشد که کدهای آن را به گونهای بازنویسی کرد که دومرتبه مرتکب جرمی نشود.