واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering
واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering

ببینید| ربات انسان نمایی که همچون انسان‌ها می‌رقصد

شرکت رباتیک بوستون دینامیک از سال ۱۹۸۳ در حال کار کردن بر روی روبات‌ها و توسعه فناوری‌های رباتیک است و اطلس آخرین نسخه ربات‌های این شرکت است.

«اطلس» که یک ربات انسان‌نما فوق‌العاده پیشرفته است، توسط شرکت رباتیک بوستون دینامیک ساخته شده است.

این یک ربات دو پا است که نزدیک به ۱۸۳ سانتی متر قد و ۸۱/۶ کیلوگرم وزن دارد.

اطلس قادر به انجام کار‌های مختلف از جمله راه رفتن، دویدن و پریدن است.

آخرین نسخه ربات‌های بوستون دینامیک می‌توانند با ریتم بیشتری نسبت به بسیاری از انسان‌ها برقصند.

شرکت رباتیک بوستون دینامیک از سال ۱۹۸۳ در حال کار کردن بر روی روبات‌ها و توسعه فناوری‌های رباتیک است و اطلس آخرین نسخه ربات‌های این شرکت است.

دانلود فیلم

دیدگاه رئیس مایکروسافت درباره پیشرفت هوش مصنوعی چین

هشدار رئیس مایکروسافت درباره پیشرفت هوش مصنوعی چین
یکی از بزرگ‌ترین چالش‌هایی که آسیا با آن دست‌و‌پنجه نرم می‌کند، کمبود نیروی کار است. اسمیت می‌گوید که هوش مصنوعی می‌تواند معضل کمبود نیروی کار را از بین ببرد.
رئیس مایکروسافت می‌گوید چین به رقیب اصلی سرویس‌های هوش مصنوعی نظیر ChatGPT تبدیل خواهد شد.
برد اسمیت، رئیس مایکروسافت، گفته است نهادهای تحقیقاتی و شرکت‌های چینی در آینده‌ای نزدیک رقبای قدرتمندی برای سرویس ChatGPT تولید خواهند کرد. مایکروسافت بزرگ‌ترین سرمایه‌گذار در OpenAI است، شرکتی که به‌عنوان خالق ChatGPT شناخته می‌شود.
اسمیت معتقد است که چین در رقابت هوش مصنوعی کم‌کاری نمی‌کند و در تلاش است به بازیگری بزرگ در این حوزه تبدیل شود. از نگاه اسمیت، OpenAI و مایکروسافت به‌همراه گوگل و آکادمی هوش مصنوعی پکن در خط مقدم توسعه‌ی چت‌بات‌ها هستند. اسمیت می‌گوید وضعیت بازار هوش مصنوعی مولد «به‌شدت رقابتی است» و فاصله‌ی بین سازمان‌های برتر به تقریباً چند ماه می‌رسد،‌ نه چند سال.
 
هوش مصنوعی مولد، همان فناوری به‌کاررفته در ChatGPT، توانایی تولید متن و تصویر دارد و می‌تواند همچون انسان با شما حرف بزند. با این‌حال بسیاری از مردم نگرانند که شغل‌شان توسط این فناوری اشغال شود. همچنین تحلیلگران نگران افزایش اطلاعات گمراه‌کننده و نقض کپی‌رایت هستند.
 
بر اساس گزارش Nikkei Asia، برد اسمیت می‌گوید راهکار رفع این نگرانی‌ها توقف توسعه‌ی هوش مصنوعی نیست بلکه باید تلاش کنیم که از محصولات فعلی بهره بگیریم و آن‌ها را بهبود دهیم. اسمیت می‌گوید هوش مصنوعی همچون سایر فناوری‌ها می‌تواند در عین تبدیل شدن به ابزاری کاربردی، به‌عنوان سلاح مورد استفاده قرار بگیرد. او در سخنانش حملات سایبری هوش مصنوعی را مثال زد.
 
یکی از بزرگ‌ترین چالش‌هایی که آسیا با آن دست‌و‌پنجه نرم می‌کند، کمبود نیروی کار است. اسمیت می‌گوید که هوش مصنوعی می‌تواند معضل کمبود نیروی کار را از بین ببرد.
 
به عقیده‌ی اسمیت، افرادی که در سن کار هستند باید از تعداد بیشتری از افراد بازنشسته‌ای که وابسته به رشد اقتصادی هستند حمایت کنند. در همین راستا باید منابع جدیدی برای رشد بهره‌وری یافت شود.
 
اسمیت می‌گوید مایکروسافت مشغول استفاده از هوش مصنوعی است تا حملات سایبری جدید را به‌صورت بلادرنگ شناسایی و آن‌ها را رهگیری کند.

چند مطلب درباره آشنایی با هوش مصنوعی و آینده کاربردش

موتور جستجوی جدید گوگل/ تغییر بنیادین در دنیای اینترنت
دیجیاتو نوشت: همکاری مایکروسافت و OpenAI برای آوردن هوش مصنوعی به موتور جستجوی بینگ ظاهراً باعث شده است تا گوگل به سراغ یک موتور جستجوی جدید برود.
 
گوگل مشغول توسعه یک موتور جستجوی کاملاً جدید مبتنی بر هوش مصنوعی است. همچنین این شرکت روی ویژگی‌های هوش مصنوعی جدیدی برای موتور جستجوی فعلی‌اش کار می‌کند.
 
براساس گزارش نیویورک تایمز، گوگل در مراحل اولیه توسعه این سرویس جستجوی جدید است؛ سرویسی که می‌خواهد خواسته‌های کاربران را پیش‌بینی کند و تجربه بسیار شخصی‌سازی‌شده‌تری ارائه کند. هیچ برنامه زمانی مشخصی برای این موتور جستجوی مبتنی بر هوش مصنوعی گوگل وجود ندارد، بااین‌حال این کمپانی تحت اسم رمز «مگی» (Magi) روی مجموعه‌ای از قابلیت‌های هوش مصنوعی جدید برای موتور جستجوی فعلی‌اش کار می‌کند.
 قابلیت‌های هوش مصنوعی موتور جستجوی گوگل
 در میان ویژگی‌های مدنظر گوگل، یک چت‌بات قرار دارد که می‌تواند به سؤالات مهندسی نرم‌افزار پاسخ دهد و کد اسنیپت تولید کند. گوگل همچنین مشغول آزمایش قابلیتی است که به کاربران اجازه می‌دهد از طریق گفت‌وگو با چت‌بات، به‌دنبال موسیقی باشند. ظاهراً گوگل بیش از 160 نفر را مسئول توسعه این چت‌بات کرده است.
 
یکی دیگر از ویژگی‌های جدید که در مراحل توسعه قرار دارد، قابلیتی به نام «Searchalong» برای گوگل کروم است. این ویژگی به یک چت‌بات اجازه می‌دهد تا محتوای درون صفحه وب را بخواند و به شما اطلاعات متنی بدهد.
 
GIFI و Tivoli Tutor از دیگر قابلیت‌های جدید مدنظر گوگل هستند که به کاربران اجازه می‌دهند از Google Image Search برای ساخت تصاویر و گفت‌وگو با یک چت‌بات برای یادگیری زبان جدید استفاده کنند. بد نیست به این موضوع اشاره کنیم که بسیاری از این ویژگی‌ها در گذشته توسط خود گوگل به نمایش گذاشته شده‌اند یا اینکه در پلتفرم‌های دیگری مانند دولینگو وجود دارند.
 
گفته می‌شود گوگل ماه آینده میلادی از Magi برای موتور جستجوی فعلی‌اش رونمایی می‌کند و سپس در پاییز با ویژگی‌های جدیدتری روبه‌رو می‌شویم. این احتمال وجود دارد که در جریان رویداد I/O 2023 در 20 اردیبهشت‌ماه، گوگل از پروژه مگی رونمایی کند. این ویژگی‌ها ظاهراً ابتدا در اختیار یک میلیون کاربر آمریکایی قرار می‌گیرد و تا پایان 2023، 30 میلیون کاربر به آن‌ها دسترسی پیدا می‌کنند.


گوگل در حال ساخت موتور جستجوی جدید مبتنی‌بر هوش مصنوعی است

گروه فناوری: با داغ‌تر شدن رقابت هوش مصنوعی، گوگل خطرات جدیدی احساس می‌کند و طبق گزارش‌های متعدد اکنون در حال کار روی موتور جست‌وجوی جدید مبتنی‌بر هوش مصنوعی است.
گیزموچاینا می‌گوید، غول فناوری اهل مانتین‌ویوو در حال ساخت موتور جست‌وجوی جدیدی است که بر پایه‌ی هوش مصنوعی کار می‌کند و به‌عنوان به‌روزرسانی پلتفرم جست‌وجوی کنونی آن در نظر گرفته خواهد شد.
اسناد داخلی گوگل نشان می‌دهند این شرکت پروژه‌ای به‌ نام Magi دارد که هدف آن به‌روزرسانی موتور جست‌وجوی کنونی با فناوری جدید است و درحال‌حاضر حدود ۱۶۰ کارمند روی آن کار می‌کنند.
ظاهراً گوگل قصد دارد ماه آینده از Magi رونمایی کند و انتظار داریم پاییز سال جاری ویژگی‌های دیگری به این پلتفرم اضافه شود. غول جست‌وجوی اینترنت در رویداد بعدی I/O خود جزئیات بیشتری درمورد برنامه‌هایش ارائه خواهد داد. طبق گزارش‌های اخیر، Magi ابتدا دردسترس یک میلیون کاربر ایالات‌ متحده قرار خواهد گرفت و تا پایان سال ۳۰ میلیون کاربر دیگر می‌توانند از آن بهره ببرند.

خبر توسعه‌ی موتور جست‌وجوی مبتنی‌بر هوش مصنوعی جدید گوگل در حالی منتشر می‌شود که زمزمه‌هایی درمورد جایگزینی احتمالی موتور جست‌وجوی بینگ به‌جای گوگل در محصولات سامسونگ مطرح شده است.
مایکروسافت اخیراً از هوش مصنوعی در بینگ و سایر خدمات و محصولاتش استفاده کرده است و طی ماه‌های گذشته همواره در سرتیتر خبرهای فناوری حضور دارد. این شرکت با سرمایه‌گذاری چند میلیارد دلاری در استارتاپ OpenAI از فناوری‌های هوش مصنوعی آن بهره می‌برد.


آینده بشریت و هوش مصنوعی؛ نوش دارو یا هیولای فرانکشتاین؟

آینده بشریت و هوش مصنوعی؛ نوش دارو یا هیولای فرانکشتاین؟
ساختن تسلیحات هسته‌ای برای شرکت‌های فناوری به تنهایی قانونی نیست با این وجود، غول‌های فناوری در رقابت برای توسعه سیستم‌هایی هستند که خودشان اذعان دارند احتمالا خطرناک‌تر از خود تسلیحات هسته‌ای خواهند بود. پیشرفت در هوش مصنوعی به طرز خارق العاده‌ای سریع رخ داده و تقریبا هیچ توجهی به مقررات ایمنی صورت نمی‌گیرد.
در نامه سرگشاده‌ای درخواست شده آزمایش‌های مرتبط با هوش مصنوعی ۶ ماه متوقف شود. افرادی، چون "ایلان ماسک" مدیرعامل تسلا، "استیو وزنیاک" بنیانگذار اپل و "یووال نوح هراری" نویسنده و دانشمند علوم سیاسی از امضاکنندگان این نامه هستند. هدف نامه این است که به شرکت‌های هوش مصنوعی و تدوین‌کنندگان پادمان‌ها مهلتی قانونی بدهند تا از جامعه در برابر خطرات احتمالی فناوری محافظت کنند.
 به گزارش فرارو به نقل از مدرن دیپلماسی؛ هوش مصنوعی مبتنی بر شبکه عصبی نیرو‌های رقیب را در هر زمینه دیگری از جمله ترجمه، بازی‌های ویدئویی و حتی شطرنج درهم شکسته است. سیستم‌های یادگیری ماشین بسیار توانمند شده‌اند و محققان ادعا می‌کنند که آن سیستم‌ها مقیاس پذیر هستند.
اصطلاح مقیاس‌پذیر به این واقعیت اشاره دارد که هرچه پول و داده‌های بیش‌تری وارد شبکه عصبی شما شود، بزرگ‌تر خواهد شد و زمان بیش‌تری برای آموزش و عملکرد بهتر صرف می‌شود. حتی با وجود این که شرکت‌های بزرگ فناوری اکنون عملیات‌های چند میلیون دلاری را برای سیستم‌های خود انجام می‌دهند هیچ کس به درک محدودیت‌ها و خطرات احتمالی آن نزدیک نشده است.
 "ری کورزویل" آینده پژوه، پیشگویی کرده که رایانه‌ها تا سال ۲۰۲۹ همان سطح هوش انسان‌ها را خواهند داشت. او می‌گوید: "۲۰۲۹ تاریخی است که من پیش بینی کرده ام که هوش مصنوعی آزمایش تورینگ معتبر را پشت سر بگذارد و در نتیجه به سطوح انسانی دست یابد. من تاریخ ۲۰۴۵ را برای منحصر به فرد بودن تعیین کرده ام زمانی که با ادغام با هوشی که ایجاد کرده‌ایم، هوش موثر خود را یک میلیارد برابر می‌کنیم".
 هوش مصنوعی با پیشرفت‌های بی‌سابقه‌ در فناوری باعث بهبود وضعیت مردم می‌شود همچنین بر معنای واقعی انسان بودن در قرن بیست و یکم نیز تأثیر می‌گذارد.
 بدون شک جنبه‌های روشنی در آینده هوش مصنوعی وجود دارد از جمله پزشکی دقیق که می‌تواند ژنتیک افراد را بهبود بخشد و تشخیص برای درمان بیماری را دقیق‌تر، در دسترس‌تر و مقرون به صرفه‌تر سازد.
 دستیار‌های مجازی مانند سیری، الکسا و سایر برنامه‌ها فعالیت‌های پیش پا افتاده برای انسان‌ها انجام می‌دهند که به سبک زندگی آرام‌تر کمک می‌کنند. نرم افزاری مانند چت جی پی تی با پاسخ دادن به شیوه‌ای شبیه انسان و حل پرسش‌های پیچیده به پردازش داده‌ها و زبان کمک می‌کند.
 جنبه تاریک هوش مصنوعی، خطرات اجتناب ناپذیر خاصی را القا می‌کند از جمله نظارت انبوه، سوء استفاده از داده‌ها و از بین رفتن حریم خصوصی دیجیتال.
 چنین نظارت دیجیتالی‌ای در حال حاضر در سیستم اعتبار اجتماعی چین انجام می‌شود که نظارت را به تمام بخش‌های زندگی شهروندان گسترش می‌دهد.
 نیروی جنگ مدرن با تکنیک‌های خودکار یکی دیگر از نگرانی‌های اصلی است، زیرا روش‌های برتری در جنگ توسط فناوری پیشرفته دیکته می‌شود.
 یکی از مهم‌ترین نگرانی‌های مربوط به ظهور هوش مصنوعی، توانایی آن در جایگزینی مشاغل انسانی است. کارایی و دقت مدل‌های ماشینی به راحتی می‌تواند از هوش انسانی پیشی بگیرد. پیشرفت‌های تکنولوژیکی در هوش مصنوعی از زمان اختراع نرم افزاری مانند چت جی پی تی توسط شرکت Open AI تحت حمایت مایکروسافت، بسیار زیاد شده و آن شرکت اخیرا چت جی پی تی و جی پی تی -۴ را منتشر کرده؛ دو چت بات تولید متن که باعث ایجاد جنون در بین متخصصان هوش مصنوعی می‌شوند.
 چت بات‌های به ظاهر بی ضرر به منظور  پاسخ‌های انسان‌گونه، الگوبرداری شده اند که بسیاری را غافلگیر کرده، زیرا غول‌های بزرگ فناوری در سراسر جهان در حال رقابت برای ساخت هوش مصنوعی مولد هستند.
 دانشمندان، محققان و مدیران عامل شرکت‌های فناوری متوجه این وضعیت نگران کننده شده اند و در نامه سرگشاده توقف ۶ ماهه به این موضوع اشاره شده است.
 در این نامه سرگشاده آمده است که پویایی فعلی هوش مصنوعی خطرناک می‌باشد، زیرا آزمایشگاه‌های هوش مصنوعی در یک مسابقه غیرقابل کنترل برای توسعه سیستم‌های یادگیری قرار دارند که هیچ کس حتی سازندگان نمی‌توانند آن را درک، پیش بینی یا کنترل کنند. آنان خواستار مهلت قانونی ۶ ماهه شده اند تا به شرکت‌های هوش مصنوعی زمان داده شود، اقداماتی را برای محافظت از جامعه در برابر خطرات احتمالی فناوری تدوین کنند.
 نویسندگان نامه نوشته اند اگر تعلیق ۶ ماهه امکان پذیر نباشد دولت‌ها باید وارد عمل شده و این تعلیق را اجرا نمایند. تهدید بالقوه هوش مصنوعی شامل سوء استفاده از داده‌ها و موتور‌های اطلاعات نادرست است که حریم خصوصی را نقض می‌کنند. در نتیجه مردم با دریافت اطلاعات جعلی و ساختگی گمراه خواهند شد.
 این مدل‌ها و نرم‌افزار‌های هوش مصنوعی توسط نیروی کاری پشتیبانی و ساخته می‌شوند که تحت شرایط نامناسب کار می‌کنند. طبق گزارش‌ها تحقیقات نشریه "تایم" نشان می‌دهد که Open AI از کارگران کنیایی مهاجر با درآمد کمتر از ۲ دلار در ساعت برای ساخت چت جی پی تی استفاده کرده است. برخی از فعالان عرصه فناوری در مورد تهدیدات امنیتی بیشتر هم هشدار داده اند.
 این دستیاران دیجیتالی که با وب ارتباط دارند ایمیل‌ها را می‌خوانند و می‌نویسند و می‌توانند فرصت‌های جدیدی را در اختیار هکر‌ها قرار دهند و اطلاعات شخصی و همچنین اسرار دولتی محرمانه را به خطر بیاندازند. دستکاری و بهره برداری از نرم افزار‌ها برای دسترسی به داده‌های ذخیره شده برای هکر‌ها کار آسانی می‌باشد، زیرا نرم افزار‌های هوش مصنوعی فاقد پروتکل‌های حفاظتی کافی هستند.
هیچ حد و مرزی برای نبوغ انسانی وجود ندارد. هوش مصنوعی یکی از این اختراعات است و می‌تواند و احتمالا به طور غیرقابل درکی مخرب خواهد بود. هوش مصنوعی بسیار خطرناک می‌باشد، زیرا ممکن است روزی فرا برسد که دیگر در کنترل ما نباشد، چراکه فاقد آگاهی انسانی است و این امکان وجود دارد که کاری انجام دهد که با اهداف انسانی هماهنگ نباشد یا یک تهدید وجودی باشد.
ساختن تسلیحات هسته‌ای برای شرکت‌های فناوری به تنهایی قانونی نیست با این وجود، غول‌های فناوری در  رقابت برای توسعه سیستم‌هایی هستند که خودشان اذعان دارند احتمالا خطرناک‌تر از خود تسلیحات هسته‌ای خواهند بود. پیشرفت در هوش مصنوعی به طرز خارق العاده‌ای سریع رخ داده و تقریبا هیچ توجهی به مقررات ایمنی صورت نمی‌گیرد.
 تنها زمان نشان خواهد داد که آیا پیشرفت‌های هوش مصنوعی در سالیان آینده نوشدارویی برای مشکلات جهانی خواهد بود یا هیولای فرانکشتاینی که وجود بشر را تهدید می‌کند.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
با وجود گذشت دهه‌ها از ساخت اولین سیستم‌های هوش مصنوعی، ما هنوز درک درستی از عملکرد این فناوری نداریم و احتمالاً هرگز نخواهیم داشت.

دیجیاتو نوشت*: «جک دی کوان»، ریاضی‌دان و زیست‌شناسی نظری در سال 1956 در سفری یک‌ساله به لندن به ملاقات «ویلفرد تیلور» و «دستگاه یادگیری» عجیب‌وغریب او رفت. او از دیدن دستگاه بزرگ و پیچیده‌ای که پیش رویش قرار داشت، شگفت‌زده شده بود. کوان تنها می‌توانست بایستد و عملکرد این ماشین را تماشا کند که ظاهراً داشت یک طرح حافظه را شبیه‌سازی می‌کرد؛ به‌عبارت دیگر این دستگاه می‌توانست یاد بگیرد که چگونه رابطه میان داده‌ها را بیابد و اطلاعات استخراج کند.

دستگاه تیلور شاید در ظاهر شبیه مجموعه بزرگی از مدارها بود که به هم لحیم و با مقدار زیادی سیم به یکدیگر متصل شده بودند، اما آن‌چه کوان می‌دید نمونه اولیه‌ای از یک شبکه عصبی بود؛ سیستمی که در نهایت پس از چند دهه به پیشرفته‌ترین فناوری‌های هوش مصنوعی از جمله ChatGPT تبدیل شد. فناوری زیربنایی ChatGPT همین شبکه عصبی اما پیشرفته‌تر است.

کوان و تیلور در سال 1956 می‌ایستادند و عملکرد این دستگاه را تماشا می‌کردند، اما نمی‌دانستند که این ماشین چگونه کارهای خود را انجام می‌دهد. پاسخ معمای مغز ماشینی تیلور در جایی میان «نورون‌های آنالوگ»، در رابطه میان حافظه ماشینی و از آن مهم‌تر، در این حقیقت وجود داشت که این عملکردهای خودکار را نمی‌توان به‌طور کامل توضیح داد.

عبارت شبکه عصبی دربرگیرنده دامنه وسیعی از سیستم‌هاست. به‌گفته شرکت آی‌بی‌ام، شبکه‌های عصبی‌های – که با عنوان شبکه‌های عصبی مصنوعی (ANN) یا شبکه‌های عصبی شبیه‌سازی‌شده (SNN) هم شناخته می‌شوند – زیرمجموعه‌ای از مبحث یادگیری ماشینی هستند و در دل الگوریتم‌های یادگیری عمیق قرار می‌گیرند. نکته مهم این‌جاست که این عبارت و شکل پیاده‌سازی آن با الهام از مغز انسان ساخته شده است و شیوه ارسال سیگنال توسط نورون‌های زیستی به یکدیگر را شبیه‌سازی می‌کند.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
شبکه‌های عصبی آینده هوش مصنوعی هستند
در مراحل ابتدایی شاید تردیدهایی درباره ارزش این سیستم‌ها وجود داشت، اما با گذشت سال‌ها، سیستم‌های هوش مصنوعی بیشتر و بیشتر به‌سمت شبکه‌های عصبی حرکت کردند. حالا گفته می‌شود که این شبکه‌ها آینده هوش مصنوعی را شکل خواهند داد. این فناوری پیچیدگی‌های زیادی را برای ما و آن‌چه ما را تعریف می‌کند، به‌وجود می‌آورند. اخیراً زمزمه‌هایی را در این رابطه شنیده‌ایم. گروهی از فعالان فناوری ازجمله ایلان ماسک خواستار توقف شش‌ماهه توسعه مدل‌های هوش مصنوعی شده‌اند تا درباره این پیچیدگی‌ها اطمینان بیشتری پیدا کنند.

البته ساده‌لوحانه است اگر این شبکه‌های عصبی را صرفاً به‌عنوان ابزارهای هیجان‌انگیز و داغ در نظر بگیریم. این فناوری مدت‌هاست که به زندگی ما وارد شده است. در سال 1989 گروهی از محققان آزمایشگاه AT&T Bell از روش انتشار معکوس استفاده کردند تا سیستمی را برای شناسایی کدهای پستی دست‌نویس آموزش بدهند. در همین اواخر، مایکروسافت از نسخه جدید بینگ پرده برداشت که با کمک هوش مصنوعی می‌تواند به کمک‌خلبان شما برای وبگردی تبدیل شود.

هوش مصنوعی با تکیه بر حجم عظیمی از داده‌ها برای یافتن الگوها می‌تواند برای انجام کارهایی مثل تشخیص سریع تصاویر استفاده شود. در نتیجه، برای مثال امروز سیستم‌های تشخیص چهره را داریم. همین ویژگی در تشخیص الگوها باعث به‌وجود آمدن ابزارهای دیگری مثل ابزارهای پیش‌بینی قیمت سهام شده است.

شبکه‌های عصبی شیوه درک و ارتباطات ما را هم تغییر می‌دهند. برای مثال سرویس گوگل ترنسلیت که توسط تیم گوگل Brain توسعه داده شده است، نمونه دیگری از این شبکه‌ها به‌حساب می‌آید. از طرفی، مردم دیگر نمی‌خواهند با کامپیوترها شطرنج یا شوگی بازی کنند. کامپیوترها تسلط بالایی بر قوانین دارند و با کمک شبکه‌های عصبی می‌توانند همه استراتژی‌ها و حرکات ممکن را به‌خاطر بیاورند و بسیار بهتر از انسان‌ها این بازی‌ها را انجام دهند.

ولی گستره قابلیت‌های این فناوری فقط به همین موارد محدود نمی‌شود. اگر جست‌وجوی ساده‌ای به‌دنبال پتنت‌های مربوط به شبکه‌های عصبی داشته باشید، به 135,828 نتیجه می‌رسید. با این سرعت بالای توسعه، احتمال این که ما بتوانیم یک روز اثر واقعی هوش مصنوعی را متوجه شویم، کم و کمتر می‌شود.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
لایه‌های اسرارآمیز ناشناختگی
توجه به تاریخ شبکه‌های عصبی نکته مهمی را درباره تصمیم‌گیری‌های خودکار به ما یادآوری می‌کند، تصمیم‌گیری‌هایی که حال حاضرمان را تعریف می‌کنند یا احتمالاً بر آینده‌مان اثر بزرگ‌تری خواهند گذاشت. همین تصمیم‌گیری‌های خودکار به ما نشان می‌دهد که احتمالاً با گذشت زمان درک کمتری نسبت به هوش مصنوعی و آثار آن پیدا خواهیم کرد.

هوش مصنوعی نه یک جعبه سیاه، بلکه چیزی است که ریشه آن به هدف و طراحی این سیستم‌ها برمی‌گردد. انسان همواره به‌دنبال چیزهای غیرقابل‌توضیح بوده است. هرچه یک سیستم ناشناخته‌تر باشد، تصور می‌شود که اصیل‌تر و پیشرفته‌تر است. مسئله فقط این نیست که این سیستم‌ها دارند پیچیده‌تر می‌شوند یا مالکیت‌های فکری جلوی دسترسی به سازوکارهای آن‌ها را می‌گیرد (هرچند مورد دوم بی‌تأثیر هم نیست). در عوض باید گفت کسانی که این فناوری را توسعه می‌دهد علاقه و اشتیاق خاصی نسبت به «ناشناختگی» دارند.

این رازآلودگی حتی در فرم و گفتمان شبکه‌های عصبی نهادینه شده است. این سیستم‌ها دارای لایه‌های عمیق زیادی هستند – که نام یادگیری عمیق از همین‌جا می‌آید – و در این اعماق لایه‌های مخفیانه‌ای وجود دارند که اسرارآمیزتر به‌نظر می‌رسند. اسرار این سیستم‌ها با فاصله زیادی از لایه‌های سطح در اعماق این سیستم‌ها قرار دارد.

احتمالش بالاست که هرچه اثر هوش مصنوعی در زندگی ما بیشتر شود، درک ما از چرایی و چگونگی این فناوری کمتر شود. امروزه افراد زیادی در تلاشند تا هوش مصنوعی را قابل‌درک کنند. ما می‌خواهیم بدانیم این فناوری چگونه کار می‌کند و تصمیم‌گیری‌های خود را انجام می‌دهد. اتحادیه اروپا از ریسک‌های غیرقابل‌پذیرش و کاربردهای خطرناک هوش مصنوعی نگران است. ازاین‌رو، آن‌ها مشغول کار روی قانون جدیدی برای هوش مصنوعی هستند که می‌خواهد استانداردهایی را برای توسعه ایمن، قابل‌اطمینان و اخلاقی این فناوری تدوین کند.

این قوانین جدید براساس نیاز به توضیح‌پذیری تنظیم می‌شوند، و درخواست می‌کنند که سیستم‌های هوش مصنوعیِ پرریسک مستندات مناسب، شفافیت، داده‌های قابل ردیابی، نظارت انسانی و دقت بالایی داشته باشند. این پیش‌نیازها می‌تواند ریسک خطرات این فناوری را کاهش دهد. وجود قوانین نه‌فقط برای ابزارهایی مثل سیستم‌های خودران اتومبیل‌ها بلکه برای تمام سیستم‌های آینده ضروری است، چون می‌توانند حقوق بشر را تهدید کنند.

این اقدامات بخشی از فراخوانی عمومی به‌منظور افزایش شفافیت در حوزه هوش مصنوعی است تا فعالیت‌ها در این زمینه قابل بررسی، حساب‌رسی و ارزیابی باشد. مثال دیگری که در این زمینه می‌توان زد سیاست‌های Royal Society در زمینه هوش مصنوعیِ توضیح‌پذیر است. این انجمن می‌گوید روزبه‌روز افراد بیشتری در سراسر دنیا خواستار شکلی از توضیح‌پذیری برای هوش مصنوعی هستند تا بتوان اصول اخلاقی را در طراحی و پیاده‌سازی این سیستم‌ها به کار گرفت.

بااین‌حال، داستان شبکه‌های عصبی به ما نشان می‌دهد که احتمالاً هر سال از این هدف دورتر خواهیم شد.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
الهام‌گرفته از مغز انسان
شبکه‌های عصبی شاید سیستم‌های پیچیده‌ای باشند، اما چند اصل مشخص دارند. این شبکه‌ها با الگوبرداری از مغز انسان ساخته می‌شوند، یعنی سعی می‌کنند شکل‌های بیولوژیکی و فکری مغز را کپی یا شبیه‌سازی کنند. آن‌طور که آی‌بی‌ام می‌گوید، این سیستم‌ها از نظر ساختار و طراحی از لایه‌هایی از گره‌ها (Node) ساخته شده‌اند که شامل یک لایه ورودی، یک یا چند لایه مخفی و یک لایه خروجی است.

در این ساختار هر گره یا نورون مصنوعی به نورون‌های دیگر وصل شده است. از آن‌جایی که این نورون‌ها برای تولید خروجی نیازمند ورودی و اطلاعات هستند، با اتکا بر داده‌های تمرینی آموزش می‌بینند و در طول زمان دقت خود را افزایش می‌دهند. این جزئیات فنی اهمیت دارد، اما تمایل به مدل‌سازی این سیستم‌ها با الگوبرداری از پیچیدگی مغز انسان نیز مهم است.

آگاهی از جاه‌طلبی پشت این سیستم‌ها، در درک تأثیر این جزئیات فنی بر عملکرد سیستم‌ها نقش حیاتی دارد. «تیوو کوهونن»، متخصص شبکه‌های عصبی در مصاحبه‌ای در سال 1993 نتیجه‌گیری کرده بود که رویایش ساخت یک سیستم «خود-سامان‌ده» است که بتواند شبیه سیستم عصبی ما عمل کند. به‌عنوان مثال کوهونن می‌گفت چگونه سیستمی که بر خودش نظارت دارد و خودش را مدیریت می‌کند، می‌تواند به‌عنوان دستگاهی برای نظارت بر سایر ماشین‌ها استفاده شود. او باور داشت که با این سازوکار می‌شود در یک نگاه متوجه شد که وضعیت سیستم‌های پیچیده چگونه است.

هدف کلی داشتن سیستمی بود که بتواند خود را با وضعیت محیطش انطباق بدهد. چنین سیستمی می‌تواند فوری و خودکار عمل کند و شبیه سیستم عصبی انسان باشد. رویای متخصصانی مثل کوهونن این بود که سیستم‌ها بتوانند بدون نیاز به دخالت انسان کار کنند. پیچیدگی‌ها و ناشناختگی‌های مغز، سیستم عصبی و جهان واقعی خیلی زود بر طراحی و توسعه شبکه‌های عصبی هم اثر گذاشت.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
شبیه‌سازی مغز، لایه به لایه
حتماً متوجه شده‌اید که وقتی درباره شبکه‌های عصبی حرف می‌زنیم، همیشه بخشی از این معادله به پیچیدگی مغز انسان مربوط می‌شود، چرا که منبع الهام اصلی این سیستم‌ها بوده است. مغز هنوز یکی از ناشناخته‌های بزرگ جهان است و با این وجود به‌عنوان الگوی عملکرد شبکه‌های عصبی انتخاب شده است. بنابراین طبیعی است که درک این سیستم‌ها هم کار دشواری باشد.

«کارور مید»، مهندس رایانش عصبی در همین باره مبحث جالبی را پیرامون مفهومی موسوم به «کوه یخ شناختی» مطرح می‌کند. او می‌گوید ما فقط از نوک کوه یخ خودآگاهی اطلاع داریم و فقط همان قسمت کوچک را می‌بینیم. در نتیجه، بخش بسیار بزرگ‌تری وجود دارد که در زیر سطح آب ناشناخته باقی مانده است.

«جیمز اندرسون» که در سال 1998 چند وقتی بود روی شبکه‌های عصبی کار می‌کرد، متوجه شد که در بحث تحقیقات پیرامون مغز، بزرگ‌ترین چیزی که می‌دانیم صرفاً نوعی آگاهی است، آگاهی از این که ما واقعاً نمی‌دانیم در جهان چه اتفاقاتی در جریان است.

«ریچارد واترز»، خبرنگار فناوری نشریه فایننشال تایمز در سال 2018 در یادداشتی نوشت که چگونه شبکه‌های عصبی براساس نظریه‌ای پیرامون نحوه عملکرد مغز انسان مدل‌سازی شده‌اند و داده‌ها را از طریق لایه‌هایی از نورون‌های مصنوعی عبور می‌دهند تا به یک الگوی قابل‌تشخیص برسند.

واترز می‌گفت این موضوع مشکلی را به‌وجود می‌آورد، چون برخلاف مدارهای منطقی که در برنامه‌های نرم‌افزاری سنتی به کار گرفته می‌شدند، هیچ راهی برای ردیابی این روندهای جدید وجود ندارد و نمی‌توان دقیقاً گفت که کامپیوتر چطور به این پاسخ‌ها رسیده است. واترز نتیجه گرفته بود که این خروجی‌ها را نمی‌توان معکوس کرد. استفاده از این شیوه مدل‌سازی از مغز، یعنی عبوردادن داده‌ها از میان تعداد زیادی لایه، به‌معنای این است که نمی‌توان به‌راحتی مسیر به‌دست‌آمدن پاسخ را ردیابی کرد. چندلایه‌بودن سیستم یکی از دلایل اصلی این مشکل است.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
هدف اصلی هوش مصنوعی انطباق‌پذیری است
دانشمندانی مثل مید و کوهونن می‌خواستند سیستمی بسازند که ذاتاً بتواند خود را با جهان اطرافش انطباق بدهد. چنین سیستمی می‌تواند با توجه به شرایط پاسخ‌های متفاوت ارائه کند. مید به‌روشنی باور داشت که ارزش شبکه‌های عصبی به همین توانمندی در رسیدن به انطباق‌پذیری است. او همچنین می‌گفت که دستیابی به این امکان هدف اصلی آن‌هاست. او معتقد بود که این انطباق‌پذیری به‌خاطر ماهیت جهان ما لازم است، چون همه‌چیز در آن تغییر می‌کند.

به این مسئله باید به‌طور خاص رسیدگی می‌شد، چون مید باور داشت که این موضوع مدت‌ها پیش توسط سیستم عصبی آنها انجام شده بود. این دو متخصص نه‌تنها با تصویری از مغز و ناشناخته‌های آن کار می‌کردند، بلکه آن را با بینشی از «جهان واقعی» و تردیدها، ناشناخته‌ها و تغییرات آن ترکیب می‌کردند. مید اعتقاد داشت که این سیستم‌ها باید بتوانند بدون دریافت دستورالعمل‌های جدید به شرایط گوناگون پاسخ بدهند و خود را با آن‌ها منطبق کنند.

در همان حوالی زمانی در دهه 1990، «استفن گروسبرگ»، متخصص سیستم‌های شناختی که در زمینه ریاضیات، روانشناسی و مهندسی زیست‌پزشکی کار کرده بود، هم باور داشت که انطباق‌پذیری چیزی است که در درازمدت اهمیت بسیاری پیدا می‌کند. گروسبرگ در حین مدل‌سازی شبکه‌های عصبی با خود فکر کرد که مهم‌ترین نکته این است که چطور روش‌های اندازه‌گیری بیولوژیکی و سیستم‌های کنترلی ما طراحی شده‌اند تا به‌شکلی سریع و پایدار در لحظه خود را با جهانی که به سرعت در حال تغییر است، انطباق بدهند.

همان‌طور که بالاتر درباره رویای کوهونن درباره یک سیستم «خود-سامان‌ده» گفتیم، فهم «جهان واقعی» تبدیل به زمینه اصلی برای تبیین پاسخ‌ها و انطباق‌هایی می‌شود که درون این سیستم‌ها کارگذاری خواهند شد. حال این که چگونه این جهان را درک و تصور کنیم، بدون شک بر نحوه طراحی سیستم‌هایی با قابلیت انطباق‌پذیری اثر خواهد گذاشت.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟
لایه‌های مخفی هوش مصنوعی
با افزایش تعداد لایه‌ها، یادگیری عمیق به عمق‌های جدیدی رسید. «لری هاردستی»، نویسنده علوم کامپیوتر، می‌گوید شبکه‌های عصبی با اطلاعاتی آموزش داده می‌شود که به لایه پایینی آن‌ها – یعنی لایه ورودی – داده می‌شود و از لایه‌های بعدی می‌گذرد و به روش‌های پیچیده با یکدیگر ترکیب می‌شود تا در نهایت به شکلی بسیار متفاوت به لایه خروجی برسد.

هرچه تعداد لایه‌ها بیشتر باشد، تحولات عظیم‌تر می‌شود و فاصله میان ورودی و خروجی افزایش می‌یابد. توسعه پردازشگرهای گرافیکی (GPU) امکان ایجاد شبکه‌های یک‌لایه در دهه 1960 و شبکه‌های سه‌لایه در دهه 1980 را فراهم کرد. امروزه شبکه‌هایی با 10، 15 و حتی 50 لایه داریم.

شبکه‌های عصبی دارند عمیق‌تر می‌شوند. به‌گفته هاردستی، همین افزودن لایه‌هاست که کلمه «عمیق» را در «یادگیری عمیق» به‌وجود آورده است. این مسئله اهمیت دارد، چون در حال حاضر یادگیری عمیق پشت بهترین سیستم‌ها در تقریباً هر حوزه‌ای از تحقیقات پیرامون هوش مصنوعی است.

اما این معما حتی از این هم پیچیده‌تر می‌شود. با افزایش لایه‌ها در شبکه‌های عصبی، پیچیدگی آن‌ها بیشتر شده است. این مسئله همچنین به چیزی منجر شده که ما از آن با عنوان «لایه‌های مخفی» یاد می‌کنیم. بحث پیرامون بهترین تعداد لایه‌های مخفی در شبکه‌های عصبی همچنان ادامه دارد. «بئاتریس فازی»، تئوریسین رسانه‌ای می‌گوید به‌خاطر نحوه عملکرد شبکه‌های عصبی عمیق، و اتکا بر لایه‌های عصبی مخفی که میان اولین لایه نورون‌ها (لایه ورودی) و آخرین لایه آن‌ها (لایه خروجی) قرار گرفته‌اند، تکنیک‌های یادگیری عمیق اغلب حتی برای توسعه‌دهندگان آن‌ها غیرشفاف و غیرقابل‌فهم هستند.

با افزایش تعداد لایه‌ها (مشتمل بر لایه‌های مخفی) توضیح‌پذیری این سیستم‌ها کمتر می‌شود. «کاترین هیلز»، متفکر برجسته حوزه رسانه در این باره می‌گوید محدودیت‌هایی پیرامون میزان فهمی که می‌توانیم درباره این سیستم‌ها داشته باشیم، وجود دارد و این مسئله تحت‌تأثیر شبکه لایه‌های مخفی و الگوریتم‌های یادگیری عمیق است.

چرا انسان‌ها هرگز هوش مصنوعی را درک نخواهند کرد؟

در جست‌وجوی توضیح‌ناپذیر
تمام این پیشرفت‌ها بخشی از چیزی است که «تاینا بوچر»، جامعه‌شناس فناوری از آن با عنوان «مشکل ناشناخته» نام می‌برد. «هری کالینز»، محقق هوش مصنوعی می‌گوید هدف شبکه‌های عصبی این است که احتمالاً توسط یک انسان نوشته شوند اما در ادامه به حیات مستقل خود ادامه دهند. بااین‌حال، او می‌گوید شیوه دقیق عملکرد این برنامه‌ها می‌تواند به‌شکل یک معما باقی بماند. این موضوع متأثر از همان رویای دیرینه ساخت سیستم‌های خود-سامان‌ده است.

گفتنی است که ناشناخته‌ها و ناشناختنی‌ها از همان ابتدا به‌عنوان یکی از اصول بنیادین این سیستم‌ها دنبال شده‌اند. پس این احتمال وجود دارد که هر چه اثر هوش مصنوعی در زندگی ما بیشتر شود، فهم ما از چرایی و چگونگی این سیستم‌ها کمتر شود.

بااین‌وجود، همان‌طور که گفتیم خیلی‌ها نمی‌خواهند این مسئله را بپذیرند. بشر می‌خواهد بداند هوش مصنوعی چطور کار می‌کند، چطور تصمیم‌های خود را می‌گیرد و این تصمیم‌ها چه تأثیری بر ما خواهد داشت. اما وقتی حرف از هوش مصنوعی توضیح‌پذیر و شفاف به میان می‌آید، داستان شبکه‌های عصبی به ما یادآوری می‌کند که به احتمال زیاد هر چه جلوتر برویم، فاصله ما با این هدف بیشتر خواهد شد.

*منبع: BBC


هوش مصنوعی نولان؛ موضوع بدهید، فیلم‌نامه تحویل بگیرید!

هوش مصنوعی نولان؛ موضوع بدهید، فیلم‌نامه تحویل بگیرید!
این هوش مصنوعی در مراحل اولیه‌ی خود قرار دارد و ممکن است در ساخت فیلمنامه برای شما، کمی باگ داشته باشد.

مگ‌تک نوشت: دنیای هوش‌های مصنوعی، هرروز غافلگیری‌های عجیبی برای ما دارد و هرچه می‌گذرد بیش از پیش کاربران را شگفت‌زده می‌کند. این‌بار نوبت سینما و علاقه‌مندان به دنیای هنر است که از قدرت هوش مصنوعی لذت ببرند و یا حتی بترسند!

هوش مصنوعی نولان، یک ربات هوش مصنوعی است که از شما موضوع و عنوان فیلمنامه را دریافت می‌کند و سپس یک فیلمنامه از موضوعی که شما درخواست کرده‌اید تحویل‌تان می‌دهد. این ربات هوش مصنوعی حتی قادر است تا از کلمات و جمله‌هایی که برای شما در فیلمنامه نوشته است، یک تصویر بسازد.

البته لازم به ذکر است که این هوش مصنوعی در مراحل اولیه‌ی خود قرار دارد و ممکن است در ساخت فیلمنامه برای شما، کمی باگ داشته باشد. اما قطعا به وجود آمدن چنین رباتی قطعا در آینده می‌تواند دنیای فیلم و سینما را تحت تاثیر قرار دهد و از نویسندگان فیلمنامه بی نیاز کند.

ضمنا هنوز مشخص نیست که این هوش مصنوعی ارتباطی به کریستوفر نولان کارگردان بزرگ سینما دارد یا فقط یک ادای احترام به این فیلم‌ساز مطرح و افسانه‌ای است؟

ارزیابیهایی درباره برخی پیآوردهای هوش مصنوعی 2

محتمل‌ترین نتیجه هوش مصنوعی فوق‌العاده هوشمند: همه خواهیم مرد!
"الیزر یودکوفسکی" می‌گوید بشریت برای زنده ماندن از رویارویی با هوش مصنوعی بسیار هوشمندتر آماده نیست.
یک محقق برجسته هوش مصنوعی هشدار داد که متوقف کردن توسعه سیستم‌های هوش مصنوعی پیشرفته در سراسر جهان و مجازات شدید افرادی که این مهلت قانونی را نقض می‌کنند تنها راه نجات بشریت از انقراض است.
 
به گزارش فرارو به نقل از راشاتودی؛ "الیزر یودکوفسکی" یکی از بنیانگذاران موسسه تحقیقاتی هوش ماشینی (MIRI) روز چهارشنبه در مقاله‌ای نظری برای نشریه "تایم" توضیح داد که چرا طوماری را امضا نکرده است که از تمام آزمایشگاه‌های هوش مصنوعی می‌خواهد که فورا حداقل برای شش ماه آموزش سیستم‌های هوش مصنوعی قوی‌تر از جی پی تی -۴ (یک مدل زبان بزرگ چند وجهی است که اوایل ماه جاری توسط Open AI منتشر شد) را متوقف کنند.
 
یودکوفسکی استدلال کرد که نامه امضا شده توسط افرادی مانند ایلان ماسک و استیو وزنیاک مدیر اپل برای حل مشکلی که به دلیل توسعه سریع و کنترل نشده هوش مصنوعی ایجاد می‌شود بسیار ناچیز است.
 
 
محتمل‌ترین نتیجه هوش مصنوعی فوق‌العاده هوشمند: همه خواهیم مرد!
الیزر یودکوفسکی؛ محقق برجسته هوش مصنوعی
 
او نوشت: "محتمل‌ترین نتیجه ساخت یک هوش مصنوعی فوق العاده هوشمند تحت هر چیزی که از راه دور مانند شرایط کنونی باشد این است که به معنای واقعی کلمه همه روی زمین خواهند مرد".
 
او استدلال کرد که زنده ماندن از رویارویی با یک سیستم کامپیوتری که "نه برای ما و نه به طور کلی برای زندگی حساس" است به "دقت و آمادگی و بینش‌های علمی جدید" نیاز دارد که بشر در حال حاضر فاقد آن می‌باشد و بعید به نظر می‌رسد در آینده قابل پیش بینی نیز به آن دست یابد.
 
یودکووسکی هشدار داد: "یک هوش مصنوعی به اندازه کافی هوشمند برای مدت طولانی در رایانه محصور نخواهد شد". او توضیح داد که این واقعیت که امکان ارسال رشته‌های DNA به آزمایشگاه‌ها برای تولید پروتئین وجود دارد احتمالا به هوش مصنوعی این امکان را می‌دهد که اشکال حیات مصنوعی را بسازد یا مستقیما به سمت تولید مولکولی پسا بیولوژیکی حرکت کند و به جهان راه یابد.
 
به گفته این محقق یک مهلت نامعلوم و جهانی برای دوره‌های آموزشی اصلی جدید هوش مصنوعی باید فورا معرفی شود. او تاکید کرد: "هیچ استثنایی نمی‌تواند وجود داشته باشد از جمله برای دولت‌ها یا ارتش‌ها".
 
یودوفسکی تاکید کرده که قرارداد‌های بین‌المللی باید امضا شوند تا سقفی در مورد میزان قدرت محاسباتی که هر فردی ممکن است از آن در آموزش چنین سیستم‌هایی استفاده کند تعیین شود.
 
او در مقاله اشاره کرده که تهدید هوش مصنوعی به قدری زیاد است که باید "در دیپلماسی بین المللی به صراحت اعلام شود که جلوگیری از سناریو‌های انقراض توسط هوش مصنوعی اولویتی بالاتر از جلوگیری از تبادل کامل هسته‌ای است".

ببینید | چرا هوش مصنوعی ترسناک شده است؟!
هوش مصنوعی وسیله‌ای است برای رشد و پیشرفت، اما مثل همه فناوری‌های دیگر سکه‌ای است که روی دیگری هم دارد و می‌تواند بسیار خطرناک باشد.

به زودی درک هوش مصنوعی برای انسان غیرممکن خواهد شد

به زودی درک هوش مصنوعی برای انسان غیرممکن خواهد شد
وقتی صحبت از هوش مصنوعی قابل توضیح و شفاف به میان می‌آید داستان شبکه‌های عصبی به ما می‌گوید که احتمالا در آینده به جای نزدیک شدن از آن هدف دور خواهیم شد.
 "جک دی کُوان" ریاضیدان و زیست شناس نظری در سال ۱۹۵۶ میلادی در جریان یک سفر یک ساله به لندن و در اوایل دهه ۲۰ زندگی اش با "ویلفرد تیلور" ملاقات کرد و ماشین یادگیری تازه او را از نزدیک مشاهده نمود. او در بدو ورود از مشاهده "بانک عظیم ماشین یادگیری" که با آن مواجه شده بود گیج شد.

به گزارش فرارو به نقل از کانورسیشن؛ کوان تنها می‌توانست بایستد و ماشینی که خود در حال انجام کارش بود را تماشا کند کاری که به نظر می‌رسید انجام می‌داد اجرای یک "طرح حافظه انجمنی" بود به نظر می‌رسید که می‌توانست یاد بگیرد که چگونه اتصالات را پیدا کند و داده‌ها را مورد بازیابی قرار دهد.
شاید شبیه بلوک‌های مدار ناهمواری به نظر می‌رسید که با دست در انبوهی از سیم‌ها و جعبه‌ها به هم لحیم شده‌اند، اما چیزی که کوان شاهد آن بود یک شکل مشابه اولیه از یک شبکه عصبی به نظر می‌رسید یک پیشرو برای پیشرفته‌ترین هوش مصنوعی امروزی از جمله چت جی پی تی (Chat GPT) که به دلیل توانایی در تولید محتوای نوشتار در پاسخ به تقریبا هر دستوری بسیار مورد بحث قرار گرفته است. فناوری زیربنایی چت جی پی تی یک شبکه عصبی است.
 همان طور که کوان و تیلور ایستاده بودند و کار ماشین را تماشا می‌کردند واقعا نمی‌دانستند که چگونه این کار را انجام می‌دهد. پاسخ به مغز ماشین مرموز تیلور را می‌توان جایی در "نورون‌های آنالوگ" در ارتباط‌های ایجاد شده توسط حافظه دستگاه آن و مهم‌تر از همه در این واقعیت یافت که عملکرد خودکار آن را واقعا نمی‌توان به طور کامل توضیح داد. دهه‌ها به طول می‌انجامد تا این سیستم‌ها هدف خود را پیدا کنند و آن قدرت باز شود.
 
اصطلاح "شبکه عصبی" طیف گسترده‌ای از سیستم‌ها را در بر می‌گیرد، اما به طور مرکزی به گفته IBM این شبکه‌های عصبی هم چنین به عنوان شبکه‌های عصبی مصنوعی (ANN) یا شبکه‌های عصبی شبیه سازی شده (SNN) شناخته می‌شوند که زیرمجموعه‌ای از یادگیری ماشین هستند و در قلب الگوریتم‌های یادگیری عمیق قرار دارند. مهم این است که خود این اصطلاح و شکل و ساختار آن از مغز انسان الهام گرفته شده و از روشی که نورون‌های بیولوژیکی به یکدیگر سیگنال می‌دهند تقلید می‌کند.
 
ممکن است در مراحل اولیه شک و تردیدی در مورد ارزش آن وجود داشته باشد، اما با گذشت سال‌ها مُدهای هوش مصنوعی به شدت به سمت شبکه‌های عصبی حرکت کرده اند. اکنون اغلب تصور می‌شود که آن‌ها آینده هوش مصنوعی هستند. آن‌ها پیامد‌های بزرگی برای ما و معنای انسان بودن دارند. ما اخیرا پژواک این نگرانی‌ها را شنیده‌ایم و درخواست‌هایی به منظور توقف توسعه‌های جدید هوش مصنوعی برای یک دوره شش ماهه به منظور کسب اطمینان از پیامد‌های آن مطرح شده اند.
 
مطمئنا اشتباه است که شبکه عصبی را صرفا به عنوان ابزار‌های جدید براق و چشم نواز رد کنیم. آنان در حال حاضر به خوبی در زندگی ما جا افتاده‌اند. برخی در عملی بودن خود قدرتمند هستند. اطلاعیه اخیر مایکروسافت مبنی بر آن که جستجو‌های موتور جستجوی بینگ با مجهز شدن به هوش مصنوعی تقویت می‌شود و این که آن را به کمک خلبانی برای وب تبدیل می‌کند نشان می‌دهد که چگونه چیز‌هایی که ما کشف کرده و درک می‌کنیم محصول این نوع اتوماسیون (خودکاری شدن) هستند.
 
هوش مصنوعی با استفاده از داده‌های گسترده برای یافتن الگو‌ها می‌تواند به طور مشابه برای انجام کار‌هایی مانند تشخیص تصویر با سرعت آموزش داده شود. برای مثال، آن را در تشخیص چهره ادغام می‌کند. این توانایی در شناسایی الگو‌ها منجر به کاربرد‌های بسیار دیگری مانند پیش بینی بازار‌های سهام شده است.
 
شبکه‌های عصبی نحوه تفسیر و ارتباط ما را نیز تغییر می‌دهند. گوگل ترنسلیت (مترجم گوگل ) که توسط تیم مغز گوگل توسعه یافته است یکی دیگر از برنامه‌های برجسته شبکه عصبی است.
 
لایه‌های مرموز "ناشناختنی"
نگاهی به تاریخچه شبکه‌های عصبی به ما نکته مهمی در مورد تصمیمات خودکاری که زمانه فعلی ما را تعریف می‌کنند یا تصمیماتی که احتمالا تاثیر عمیق تری در آینده خواهند داشت را می‌گویند. حضور آن‌ها هم چنین می‌گوید که ما احتمالا تصمیمات و تاثیرات هوش مصنوعی را در طول زمان حتی کمتر درک می‌کنیم. این سیستم‌ها صرفا جعبه‌های سیاه نیستند آن صرفا قطعات مخفی یک سیستم نیستند که قابل مشاهده یا درک نباشند.
 این چیزی متفاوت است چیزی که ریشه در اهداف و طراحی خود این سیستم‌ها دارد. یک تعقیب طولانی مدت وجود دارد. هرچه غیر شفاف‌تر باشد سیستم معتبرتر و پیشرفته‌تر تصور می‌شود. این صرفا در مورد پیچیده‌تر شدن سیستم‌ها یا محدود کردن دسترسی به کنترل مالکیت معنوی نیست (اگرچه این موارد بخشی از آن هستند). در عوض، می‌توان گفت اخلاقی که آن‌ها را هدایت می‌کند علاقه‌ای خاص و نهفته به "ناشناخته ماندن" دارد.
 این رمز و راز حتی در قالب و گفتمان شبکه عصبی رمزگذاری شده است. آن‌ها دارای لایه‌های عمیق انباشته شده هستند از این رو عبارت یادگیری عمیق و در درون آن اعماق "لایه‌های پنهان" حتی اسرارآمیزتر هستند. اسرار این سیستم‌ها در اعماق زیر سطح قرار دارند.
 
این احتمال وجود دارد که هر چه تاثیر هوش مصنوعی در زندگی ما بیش‌تر باشد کمتر متوجه چگونگی و چرایی آن شویم. امروزه فشاری قوی برای قابل توضیح شدن هوش مصنوعی وجود دارد. ما می‌خواهیم بدانیم هوش مصنوعی چگونه کار می‌کند و چگونه به تصمیمات و نتایج می‌رسد.
 
اتحادیه اروپا به قدری نگران "خطرات غیرقابل قبول" و حتی برنامه‌های کاربردی "خطرناک" است که در حال حاضر در حال پیشبرد قانون جدید هوش مصنوعی با هدف تعیین "استاندارد جهانی" برای "توسعه هوش مصنوعی ایمن، قابل اعتماد و اخلاقی" می‌باشد. اتحادیه اروپا در این باره نگرانی دارد که سیستم‌هایی که در آینده ظهور می‌کنند پیامد‌هایی برای حقوق بشر داشته باشند.
 
این بخشی از فراخوان‌های گسترده‌تر برای شفافیت در حوزه هوش مصنوعی است تا بتوان فعالیت‌های آن را بررسی، ممیزی و ارزیابی کرد. مثال دیگر، جلسه توجیهی انجمن سلطنتی بریتانیا در مورد هوش مصنوعی قابل توضیح است که در آن اشاره شده که "مناظره‌های مرتبط با سیاستگذاری در سراسر جهان به طور فزاینده‌ای نیاز به نوعی توضیح پذیری هوش مصنوعی دارند".
 با این وجود، داستان شبکه‌های عصبی به ما می‌گوید که احتمالا در آینده به جای نزدیک‌تر شدن از آن هدف دورتر خواهیم شد.
 
با الهام از مغز انسان
 این شبکه‌های عصبی ممکن است سیستم‌های پیچیده‌ای باشند، اما برخی از اصول اصلی را دارند. آن‌ها با الهام از مغز انسان به دنبال کپی یا شبیه سازی اشکال تفکر بیولوژیکی و انسانی هستند. از نظر ساختار و طراحی همانطور که IBM نیز توضیح می‌دهد از "لایه‌های گره، حاوی یک لایه ورودی، یک یا چند لایه پنهان و یک لایه خروجی" تشکیل شده اند و هرگره یا نورون مصنوعی به گره یا نورون مصنوعی دیگری متصل می‌شود. از آنجایی که آن‌ها برای ایجاد خروجی‌ها به ورودی‌ها و اطلاعات نیاز دارند "به داده‌های آموزشی برای یادگیری و بهبود دقت خود در طول زمان متکی هستند".
 این جزئیات فنی مهم هستند، اما تمایل به مدل سازی این سیستم‌ها بر اساس پیچیدگی‌های مغز انسان نیز اهمیت دارد. درک جاه طلبی پشت این سیستم‌ها برای درک آن چه که این جزئیات فنی به همراه دارند حیاتی می‌باشد.
 
"تئو کوهونن" دانشمند شبکه عصبی در مصاحبه‌ای در سال ۱۹۹۳ میلادی به این نتیجه رسیده بود که یک سیستم "خودسازمانده" "رویای من است" که "چیزی شبیه به آن چه که سیستم عصبی ما به طور غریزی انجام می‌دهد" خواهد بود. برای مثال کوهونن این تصور را مطرح کرد که چگونه یک سیستم "خودسازماندهی" سیستمی که خود را نظارت و مدیریت می‌کند "می تواند به عنوان یک تابلوی نظارت برای هر ماشینی در هر هواپیما یا هر نیروگاه هسته‌ای استفاده شود". او فکر می‌کرد که این بدان معناست که در آینده "شما می‌توانید بلافاصله ببینید که سیستم در چه شرایطی قرار دارد".
 
هدف اصلی این بود که سیستمی داشته باشیم که بتواند با محیط اطراف خود سازگار شود. آن رویا این بود که سیستم‌هایی بتوانند بدون نیاز به دخالت زیاد انسان خود را مدیریت کنند و این که پیچیدگی‌ها و ناشناخته‌های مغز سیستم عصبی و دنیای واقعی به زودی به توسعه و طراحی شبکه‌های عصبی می‌رسند.
 
چیزی عجیب در مورد آن با این وجود، با بازگشت به سال ۱۹۵۶ میلادی و آن ماشین یادگیری عجیب این رویکرد عملی که تیلور هنگام ساخت آن اتخاذ کرده بود بلافاصله توجه کوان را به خود جلب کرد. کوان در مصاحبه‌ای گفت که تیلور کار را براساس تئوری و روی رایانه انجام نداده در عوض با استفاده از ابزار‌هایی که در دست داشته در واقع با استفاده از سخت افزار کار را انجام داده بود. این یک چیز مادی بود ترکیبی از قطعات شاید حتی یک ابزار. کوان خاطرنشان می‌کند که "همه کار‌ها با مدار‌های آنالوگ انجام شد چندین سال به طول انجامید تا تیلور آن را بسازد و با آن بازی کند". در واقع، یک مورد آزمون و خطا بود. قابل درک است که کوان می‌خواست با آن چه می‌دید کنار بیاید.
 
او سعی کرد از تیلور بخواهد که این ماشین یادگیری را برایش توضیح دهد. با این وجود، شفاف سازی‌ای صورت نگرفت و کوان نتوانست تیلور را وادار به توضیح درباره چگونگی کار کند. نورون‌های آنالوگ یک راز باقی ماندند. کوان فکر کرد مشکل شگفت انگیزتر این بود که تیلور "واقعا خود نمی‌دانست که چه اتفاقی در حال رخ دادن است".
 
در مصاحبه‌ای در اواسط دهه ۱۹۹۰ میلادی کوان با فکر کردن به ماشین تیلور فاش ساخت که شما نمی‌توانید کاملا بفهمید که چگونه کار می‌کند. این نتیجه گیری نشان می‌دهد که چگونه ناشناخته‌ها عمیقا در شبکه‌های عصبی جاسازی شده است. غیر قابل توضیح بودن این سیستم‌های عصبی حتی از مراحل اساسی و رشدی که قدمت آن به حدود هفت دهه قبل می‌رسد نیز وجود داشته و این رمز و راز امروزه باقی مانده است و می‌توان آن را در اشکال پیشرفته هوش مصنوعی یافت. غیرقابل درک بودن عملکرد تداعی‌های ایجاد شده توسط دستگاه تیلور کوان را به این فکر واداشت که آیا چیزی در مورد آن وجود دارد؟
 
تقلید از مغز لایه به لایه
 شاید پیش‌تر متوجه شده باشید که هنگام بحث در مورد منشاء شبکه‌های عصبی تصویر مغز و پیچیدگی‌هایی که این شبکه‌ها برمی انگیزد هرگز دور از دسترس نیست. مغز انسان به عنوان نوعی الگو برای این سیستم‌ها عمل می‌کند. در مراحل اولیه به ویژه مغز هنوز یکی از ناشناخته‌های بزرگ و الگویی برای نحوه عملکرد شبکه عصبی شد.
 
بنابراین، سیستم‌های آزمایشی جدید بر اساس چیزی که عملکرد آن تا حد زیادی ناشناخته بود مدل‌سازی شدند. "کارور مید" مهندس محاسبات عصبی به طرز آشکاری از مفهوم "کوه یخ شناختی" که برای او جذابیت خاصی پیدا کرده بود صحبت کرده است. این تنها نوک کوه یخ آگاهی است که ما از آن آگاه هستیم و قابل مشاهده است. مقیاس و شکل بقیه بخش‌های کوه یخی در زیر سطح ناشناخته‌ای باقی مانده اند.
 
"جیمز اندرسون" که برای مدتی روی شبکه‌های عصبی کار می‌کرد در سال ۱۹۹۸ میلادی خاطرنشان ساخت که وقتی نوبت به تحقیق روی مغز می‌شود "به نظر می‌رسد کشف اصلی ما آگاهی از این است که واقعا نمی‌دانیم چه اتفاقی رخ می‌دهد".
 
"ریچارد واترز" روزنامه نگار حوزه فناوری در گزارش مفصلی در "فایننشال تایمز" در سال ۲۰۱۸ میلادی اشاره کرد که چگونه شبکه‌های عصبی "بر اساس نظریه‌ای درباره نحوه عملکرد مغز انسان مدل سازی می‌شوند و داده‌ها را از لایه‌هایی از نورون‌های مصنوعی منتقل می‌کنند تا زمانی که یک الگوی قابل شناسایی ظاهر شود".
 
واترز پیشنهاد کرد که این مشکلی را ایجاد می‌کند، زیرا برخلاف مدار‌های منطقی به کار رفته در یک برنامه نرم افزاری سنتی هیچ راهی برای ردیابی این فرآیند برای شناسایی دقیق این که چرا یک رایانه به یک پاسخ خاص می‌رسد وجود ندارد. نتیجه گیری واترز آن است که این نتایج را نمی‌توان حذف کرد. استفاده از این نوع مدل از مغز که داده‌ها را از لایه‌های زیادی می‌گیرد به این معنی است که پاسخ به راحتی قابل ردیابی نیست. چند لایه بودن بخش خوبی از دلیل این امر است.
 
اقتباس کل بازی است
 راز عمیق‌تر می‌شود. همان طور که لایه‌های شبکه‌های عصبی انباشته شده‌اند پیچیدگی آن‌ها افزایش یافته است. هم‌چنین منجر به رشد لایه‌های پنهان در این اعماق شده است. بحث در مورد تعداد بهینه لایه‌های پنهان در یک شبکه عصبی ادامه دارد.
 
به دلیل نحوه عملکرد یک شبکه عصبی عمیق با تکیه بر لایه‌های عصبی پنهان که بین اولین لایه نورون‌ها (لایه ورودی) و آخرین لایه (لایه خروجی) قرار گرفته اند تکنیک‌های یادگیری عمیق هستند و حتی برای برنامه نویسانی که در ابتدا آن‌ها را تنظیم کرده اند اغلب مبهم یا ناخوانا هستند.
 
"کاترین هیلز" متفکر برجسته و میان رشته‌ای رسانه‌های نوین با بیان نکته‌ای مشابه خاطرنشان کرد که محدودیت‌هایی برای "تا چه اندازه می‌توانیم درباره سیستم بدانیم"؟ وجود دارد نتیجه‌ای که مربوط به "لایه پنهان" در شبکه عصبی و الگوریتم‌های یادگیری عمیق است.
 
به دنبال چیز‌های غیرقابل توضیح روی هم رفته این تحولات طولانی بخشی از چیزی است که "تاینا بوچر" جامعه شناس فناوری آن را "مشکل ناشناخته" نامیده است.
 
"هری کالینز" با گسترش تحقیقات تاثیرگذار خود در مورد دانش علمی در زمینه هوش مصنوعی اشاره کرده که هدف شبکه‌های عصبی این است که احتمالا در ابتدا توسط یک انسان تولید می‌شوند، اما به محض اینکه برنامه نوشته شود زندگی خود را می‌کنند و نحوه عملکرد برنامه دقیقا می‌تواند مرموز باقی بماند. این وضعیت بازتاب آن رویا‌های دیرینه در مورد یک سیستم خودسازمانده است.
 
این احتمال وجود دارد که هر چه تاثیر هوش مصنوعی در زندگی مان بیش‌تر شود کمتر متوجه چگونگی و چرایی آن شویم. با این وجود، بیان این موضوع در روزگار کنونی خوشایند نیست. ما می‌خواهیم بدانیم هوش مصنوعی چگونه کار می‌کند و چگونه به تصمیمات و نتایجی که بر ما تاثیر می‌گذارد می‌رسد.
 
همان‌طور که پیشرفت‌های هوش مصنوعی به شکل گیری دانش و درک ما از جهان، آن چه کشف می‌کنیم، نحوه رفتار با ما، نحوه یادگیری، مصرف و تعامل ما، ادامه می‌دهد، انگیزه برای درک آن بیش‌تر می‌شود. وقتی صحبت از هوش مصنوعی قابل توضیح و شفاف به میان می‌آید داستان شبکه‌های عصبی به ما می‌گوید که احتمالا در آینده به جای نزدیک شدن از آن هدف دور خواهیم شد.