واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering
واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering

ارزیابیهایی درباره برخی پیآوردهای هوش مصنوعی 2

محتمل‌ترین نتیجه هوش مصنوعی فوق‌العاده هوشمند: همه خواهیم مرد!
"الیزر یودکوفسکی" می‌گوید بشریت برای زنده ماندن از رویارویی با هوش مصنوعی بسیار هوشمندتر آماده نیست.
یک محقق برجسته هوش مصنوعی هشدار داد که متوقف کردن توسعه سیستم‌های هوش مصنوعی پیشرفته در سراسر جهان و مجازات شدید افرادی که این مهلت قانونی را نقض می‌کنند تنها راه نجات بشریت از انقراض است.
 
به گزارش فرارو به نقل از راشاتودی؛ "الیزر یودکوفسکی" یکی از بنیانگذاران موسسه تحقیقاتی هوش ماشینی (MIRI) روز چهارشنبه در مقاله‌ای نظری برای نشریه "تایم" توضیح داد که چرا طوماری را امضا نکرده است که از تمام آزمایشگاه‌های هوش مصنوعی می‌خواهد که فورا حداقل برای شش ماه آموزش سیستم‌های هوش مصنوعی قوی‌تر از جی پی تی -۴ (یک مدل زبان بزرگ چند وجهی است که اوایل ماه جاری توسط Open AI منتشر شد) را متوقف کنند.
 
یودکوفسکی استدلال کرد که نامه امضا شده توسط افرادی مانند ایلان ماسک و استیو وزنیاک مدیر اپل برای حل مشکلی که به دلیل توسعه سریع و کنترل نشده هوش مصنوعی ایجاد می‌شود بسیار ناچیز است.
 
 
محتمل‌ترین نتیجه هوش مصنوعی فوق‌العاده هوشمند: همه خواهیم مرد!
الیزر یودکوفسکی؛ محقق برجسته هوش مصنوعی
 
او نوشت: "محتمل‌ترین نتیجه ساخت یک هوش مصنوعی فوق العاده هوشمند تحت هر چیزی که از راه دور مانند شرایط کنونی باشد این است که به معنای واقعی کلمه همه روی زمین خواهند مرد".
 
او استدلال کرد که زنده ماندن از رویارویی با یک سیستم کامپیوتری که "نه برای ما و نه به طور کلی برای زندگی حساس" است به "دقت و آمادگی و بینش‌های علمی جدید" نیاز دارد که بشر در حال حاضر فاقد آن می‌باشد و بعید به نظر می‌رسد در آینده قابل پیش بینی نیز به آن دست یابد.
 
یودکووسکی هشدار داد: "یک هوش مصنوعی به اندازه کافی هوشمند برای مدت طولانی در رایانه محصور نخواهد شد". او توضیح داد که این واقعیت که امکان ارسال رشته‌های DNA به آزمایشگاه‌ها برای تولید پروتئین وجود دارد احتمالا به هوش مصنوعی این امکان را می‌دهد که اشکال حیات مصنوعی را بسازد یا مستقیما به سمت تولید مولکولی پسا بیولوژیکی حرکت کند و به جهان راه یابد.
 
به گفته این محقق یک مهلت نامعلوم و جهانی برای دوره‌های آموزشی اصلی جدید هوش مصنوعی باید فورا معرفی شود. او تاکید کرد: "هیچ استثنایی نمی‌تواند وجود داشته باشد از جمله برای دولت‌ها یا ارتش‌ها".
 
یودوفسکی تاکید کرده که قرارداد‌های بین‌المللی باید امضا شوند تا سقفی در مورد میزان قدرت محاسباتی که هر فردی ممکن است از آن در آموزش چنین سیستم‌هایی استفاده کند تعیین شود.
 
او در مقاله اشاره کرده که تهدید هوش مصنوعی به قدری زیاد است که باید "در دیپلماسی بین المللی به صراحت اعلام شود که جلوگیری از سناریو‌های انقراض توسط هوش مصنوعی اولویتی بالاتر از جلوگیری از تبادل کامل هسته‌ای است".

ببینید | چرا هوش مصنوعی ترسناک شده است؟!
هوش مصنوعی وسیله‌ای است برای رشد و پیشرفت، اما مثل همه فناوری‌های دیگر سکه‌ای است که روی دیگری هم دارد و می‌تواند بسیار خطرناک باشد.

به زودی درک هوش مصنوعی برای انسان غیرممکن خواهد شد

به زودی درک هوش مصنوعی برای انسان غیرممکن خواهد شد
وقتی صحبت از هوش مصنوعی قابل توضیح و شفاف به میان می‌آید داستان شبکه‌های عصبی به ما می‌گوید که احتمالا در آینده به جای نزدیک شدن از آن هدف دور خواهیم شد.
 "جک دی کُوان" ریاضیدان و زیست شناس نظری در سال ۱۹۵۶ میلادی در جریان یک سفر یک ساله به لندن و در اوایل دهه ۲۰ زندگی اش با "ویلفرد تیلور" ملاقات کرد و ماشین یادگیری تازه او را از نزدیک مشاهده نمود. او در بدو ورود از مشاهده "بانک عظیم ماشین یادگیری" که با آن مواجه شده بود گیج شد.

به گزارش فرارو به نقل از کانورسیشن؛ کوان تنها می‌توانست بایستد و ماشینی که خود در حال انجام کارش بود را تماشا کند کاری که به نظر می‌رسید انجام می‌داد اجرای یک "طرح حافظه انجمنی" بود به نظر می‌رسید که می‌توانست یاد بگیرد که چگونه اتصالات را پیدا کند و داده‌ها را مورد بازیابی قرار دهد.
شاید شبیه بلوک‌های مدار ناهمواری به نظر می‌رسید که با دست در انبوهی از سیم‌ها و جعبه‌ها به هم لحیم شده‌اند، اما چیزی که کوان شاهد آن بود یک شکل مشابه اولیه از یک شبکه عصبی به نظر می‌رسید یک پیشرو برای پیشرفته‌ترین هوش مصنوعی امروزی از جمله چت جی پی تی (Chat GPT) که به دلیل توانایی در تولید محتوای نوشتار در پاسخ به تقریبا هر دستوری بسیار مورد بحث قرار گرفته است. فناوری زیربنایی چت جی پی تی یک شبکه عصبی است.
 همان طور که کوان و تیلور ایستاده بودند و کار ماشین را تماشا می‌کردند واقعا نمی‌دانستند که چگونه این کار را انجام می‌دهد. پاسخ به مغز ماشین مرموز تیلور را می‌توان جایی در "نورون‌های آنالوگ" در ارتباط‌های ایجاد شده توسط حافظه دستگاه آن و مهم‌تر از همه در این واقعیت یافت که عملکرد خودکار آن را واقعا نمی‌توان به طور کامل توضیح داد. دهه‌ها به طول می‌انجامد تا این سیستم‌ها هدف خود را پیدا کنند و آن قدرت باز شود.
 
اصطلاح "شبکه عصبی" طیف گسترده‌ای از سیستم‌ها را در بر می‌گیرد، اما به طور مرکزی به گفته IBM این شبکه‌های عصبی هم چنین به عنوان شبکه‌های عصبی مصنوعی (ANN) یا شبکه‌های عصبی شبیه سازی شده (SNN) شناخته می‌شوند که زیرمجموعه‌ای از یادگیری ماشین هستند و در قلب الگوریتم‌های یادگیری عمیق قرار دارند. مهم این است که خود این اصطلاح و شکل و ساختار آن از مغز انسان الهام گرفته شده و از روشی که نورون‌های بیولوژیکی به یکدیگر سیگنال می‌دهند تقلید می‌کند.
 
ممکن است در مراحل اولیه شک و تردیدی در مورد ارزش آن وجود داشته باشد، اما با گذشت سال‌ها مُدهای هوش مصنوعی به شدت به سمت شبکه‌های عصبی حرکت کرده اند. اکنون اغلب تصور می‌شود که آن‌ها آینده هوش مصنوعی هستند. آن‌ها پیامد‌های بزرگی برای ما و معنای انسان بودن دارند. ما اخیرا پژواک این نگرانی‌ها را شنیده‌ایم و درخواست‌هایی به منظور توقف توسعه‌های جدید هوش مصنوعی برای یک دوره شش ماهه به منظور کسب اطمینان از پیامد‌های آن مطرح شده اند.
 
مطمئنا اشتباه است که شبکه عصبی را صرفا به عنوان ابزار‌های جدید براق و چشم نواز رد کنیم. آنان در حال حاضر به خوبی در زندگی ما جا افتاده‌اند. برخی در عملی بودن خود قدرتمند هستند. اطلاعیه اخیر مایکروسافت مبنی بر آن که جستجو‌های موتور جستجوی بینگ با مجهز شدن به هوش مصنوعی تقویت می‌شود و این که آن را به کمک خلبانی برای وب تبدیل می‌کند نشان می‌دهد که چگونه چیز‌هایی که ما کشف کرده و درک می‌کنیم محصول این نوع اتوماسیون (خودکاری شدن) هستند.
 
هوش مصنوعی با استفاده از داده‌های گسترده برای یافتن الگو‌ها می‌تواند به طور مشابه برای انجام کار‌هایی مانند تشخیص تصویر با سرعت آموزش داده شود. برای مثال، آن را در تشخیص چهره ادغام می‌کند. این توانایی در شناسایی الگو‌ها منجر به کاربرد‌های بسیار دیگری مانند پیش بینی بازار‌های سهام شده است.
 
شبکه‌های عصبی نحوه تفسیر و ارتباط ما را نیز تغییر می‌دهند. گوگل ترنسلیت (مترجم گوگل ) که توسط تیم مغز گوگل توسعه یافته است یکی دیگر از برنامه‌های برجسته شبکه عصبی است.
 
لایه‌های مرموز "ناشناختنی"
نگاهی به تاریخچه شبکه‌های عصبی به ما نکته مهمی در مورد تصمیمات خودکاری که زمانه فعلی ما را تعریف می‌کنند یا تصمیماتی که احتمالا تاثیر عمیق تری در آینده خواهند داشت را می‌گویند. حضور آن‌ها هم چنین می‌گوید که ما احتمالا تصمیمات و تاثیرات هوش مصنوعی را در طول زمان حتی کمتر درک می‌کنیم. این سیستم‌ها صرفا جعبه‌های سیاه نیستند آن صرفا قطعات مخفی یک سیستم نیستند که قابل مشاهده یا درک نباشند.
 این چیزی متفاوت است چیزی که ریشه در اهداف و طراحی خود این سیستم‌ها دارد. یک تعقیب طولانی مدت وجود دارد. هرچه غیر شفاف‌تر باشد سیستم معتبرتر و پیشرفته‌تر تصور می‌شود. این صرفا در مورد پیچیده‌تر شدن سیستم‌ها یا محدود کردن دسترسی به کنترل مالکیت معنوی نیست (اگرچه این موارد بخشی از آن هستند). در عوض، می‌توان گفت اخلاقی که آن‌ها را هدایت می‌کند علاقه‌ای خاص و نهفته به "ناشناخته ماندن" دارد.
 این رمز و راز حتی در قالب و گفتمان شبکه عصبی رمزگذاری شده است. آن‌ها دارای لایه‌های عمیق انباشته شده هستند از این رو عبارت یادگیری عمیق و در درون آن اعماق "لایه‌های پنهان" حتی اسرارآمیزتر هستند. اسرار این سیستم‌ها در اعماق زیر سطح قرار دارند.
 
این احتمال وجود دارد که هر چه تاثیر هوش مصنوعی در زندگی ما بیش‌تر باشد کمتر متوجه چگونگی و چرایی آن شویم. امروزه فشاری قوی برای قابل توضیح شدن هوش مصنوعی وجود دارد. ما می‌خواهیم بدانیم هوش مصنوعی چگونه کار می‌کند و چگونه به تصمیمات و نتایج می‌رسد.
 
اتحادیه اروپا به قدری نگران "خطرات غیرقابل قبول" و حتی برنامه‌های کاربردی "خطرناک" است که در حال حاضر در حال پیشبرد قانون جدید هوش مصنوعی با هدف تعیین "استاندارد جهانی" برای "توسعه هوش مصنوعی ایمن، قابل اعتماد و اخلاقی" می‌باشد. اتحادیه اروپا در این باره نگرانی دارد که سیستم‌هایی که در آینده ظهور می‌کنند پیامد‌هایی برای حقوق بشر داشته باشند.
 
این بخشی از فراخوان‌های گسترده‌تر برای شفافیت در حوزه هوش مصنوعی است تا بتوان فعالیت‌های آن را بررسی، ممیزی و ارزیابی کرد. مثال دیگر، جلسه توجیهی انجمن سلطنتی بریتانیا در مورد هوش مصنوعی قابل توضیح است که در آن اشاره شده که "مناظره‌های مرتبط با سیاستگذاری در سراسر جهان به طور فزاینده‌ای نیاز به نوعی توضیح پذیری هوش مصنوعی دارند".
 با این وجود، داستان شبکه‌های عصبی به ما می‌گوید که احتمالا در آینده به جای نزدیک‌تر شدن از آن هدف دورتر خواهیم شد.
 
با الهام از مغز انسان
 این شبکه‌های عصبی ممکن است سیستم‌های پیچیده‌ای باشند، اما برخی از اصول اصلی را دارند. آن‌ها با الهام از مغز انسان به دنبال کپی یا شبیه سازی اشکال تفکر بیولوژیکی و انسانی هستند. از نظر ساختار و طراحی همانطور که IBM نیز توضیح می‌دهد از "لایه‌های گره، حاوی یک لایه ورودی، یک یا چند لایه پنهان و یک لایه خروجی" تشکیل شده اند و هرگره یا نورون مصنوعی به گره یا نورون مصنوعی دیگری متصل می‌شود. از آنجایی که آن‌ها برای ایجاد خروجی‌ها به ورودی‌ها و اطلاعات نیاز دارند "به داده‌های آموزشی برای یادگیری و بهبود دقت خود در طول زمان متکی هستند".
 این جزئیات فنی مهم هستند، اما تمایل به مدل سازی این سیستم‌ها بر اساس پیچیدگی‌های مغز انسان نیز اهمیت دارد. درک جاه طلبی پشت این سیستم‌ها برای درک آن چه که این جزئیات فنی به همراه دارند حیاتی می‌باشد.
 
"تئو کوهونن" دانشمند شبکه عصبی در مصاحبه‌ای در سال ۱۹۹۳ میلادی به این نتیجه رسیده بود که یک سیستم "خودسازمانده" "رویای من است" که "چیزی شبیه به آن چه که سیستم عصبی ما به طور غریزی انجام می‌دهد" خواهد بود. برای مثال کوهونن این تصور را مطرح کرد که چگونه یک سیستم "خودسازماندهی" سیستمی که خود را نظارت و مدیریت می‌کند "می تواند به عنوان یک تابلوی نظارت برای هر ماشینی در هر هواپیما یا هر نیروگاه هسته‌ای استفاده شود". او فکر می‌کرد که این بدان معناست که در آینده "شما می‌توانید بلافاصله ببینید که سیستم در چه شرایطی قرار دارد".
 
هدف اصلی این بود که سیستمی داشته باشیم که بتواند با محیط اطراف خود سازگار شود. آن رویا این بود که سیستم‌هایی بتوانند بدون نیاز به دخالت زیاد انسان خود را مدیریت کنند و این که پیچیدگی‌ها و ناشناخته‌های مغز سیستم عصبی و دنیای واقعی به زودی به توسعه و طراحی شبکه‌های عصبی می‌رسند.
 
چیزی عجیب در مورد آن با این وجود، با بازگشت به سال ۱۹۵۶ میلادی و آن ماشین یادگیری عجیب این رویکرد عملی که تیلور هنگام ساخت آن اتخاذ کرده بود بلافاصله توجه کوان را به خود جلب کرد. کوان در مصاحبه‌ای گفت که تیلور کار را براساس تئوری و روی رایانه انجام نداده در عوض با استفاده از ابزار‌هایی که در دست داشته در واقع با استفاده از سخت افزار کار را انجام داده بود. این یک چیز مادی بود ترکیبی از قطعات شاید حتی یک ابزار. کوان خاطرنشان می‌کند که "همه کار‌ها با مدار‌های آنالوگ انجام شد چندین سال به طول انجامید تا تیلور آن را بسازد و با آن بازی کند". در واقع، یک مورد آزمون و خطا بود. قابل درک است که کوان می‌خواست با آن چه می‌دید کنار بیاید.
 
او سعی کرد از تیلور بخواهد که این ماشین یادگیری را برایش توضیح دهد. با این وجود، شفاف سازی‌ای صورت نگرفت و کوان نتوانست تیلور را وادار به توضیح درباره چگونگی کار کند. نورون‌های آنالوگ یک راز باقی ماندند. کوان فکر کرد مشکل شگفت انگیزتر این بود که تیلور "واقعا خود نمی‌دانست که چه اتفاقی در حال رخ دادن است".
 
در مصاحبه‌ای در اواسط دهه ۱۹۹۰ میلادی کوان با فکر کردن به ماشین تیلور فاش ساخت که شما نمی‌توانید کاملا بفهمید که چگونه کار می‌کند. این نتیجه گیری نشان می‌دهد که چگونه ناشناخته‌ها عمیقا در شبکه‌های عصبی جاسازی شده است. غیر قابل توضیح بودن این سیستم‌های عصبی حتی از مراحل اساسی و رشدی که قدمت آن به حدود هفت دهه قبل می‌رسد نیز وجود داشته و این رمز و راز امروزه باقی مانده است و می‌توان آن را در اشکال پیشرفته هوش مصنوعی یافت. غیرقابل درک بودن عملکرد تداعی‌های ایجاد شده توسط دستگاه تیلور کوان را به این فکر واداشت که آیا چیزی در مورد آن وجود دارد؟
 
تقلید از مغز لایه به لایه
 شاید پیش‌تر متوجه شده باشید که هنگام بحث در مورد منشاء شبکه‌های عصبی تصویر مغز و پیچیدگی‌هایی که این شبکه‌ها برمی انگیزد هرگز دور از دسترس نیست. مغز انسان به عنوان نوعی الگو برای این سیستم‌ها عمل می‌کند. در مراحل اولیه به ویژه مغز هنوز یکی از ناشناخته‌های بزرگ و الگویی برای نحوه عملکرد شبکه عصبی شد.
 
بنابراین، سیستم‌های آزمایشی جدید بر اساس چیزی که عملکرد آن تا حد زیادی ناشناخته بود مدل‌سازی شدند. "کارور مید" مهندس محاسبات عصبی به طرز آشکاری از مفهوم "کوه یخ شناختی" که برای او جذابیت خاصی پیدا کرده بود صحبت کرده است. این تنها نوک کوه یخ آگاهی است که ما از آن آگاه هستیم و قابل مشاهده است. مقیاس و شکل بقیه بخش‌های کوه یخی در زیر سطح ناشناخته‌ای باقی مانده اند.
 
"جیمز اندرسون" که برای مدتی روی شبکه‌های عصبی کار می‌کرد در سال ۱۹۹۸ میلادی خاطرنشان ساخت که وقتی نوبت به تحقیق روی مغز می‌شود "به نظر می‌رسد کشف اصلی ما آگاهی از این است که واقعا نمی‌دانیم چه اتفاقی رخ می‌دهد".
 
"ریچارد واترز" روزنامه نگار حوزه فناوری در گزارش مفصلی در "فایننشال تایمز" در سال ۲۰۱۸ میلادی اشاره کرد که چگونه شبکه‌های عصبی "بر اساس نظریه‌ای درباره نحوه عملکرد مغز انسان مدل سازی می‌شوند و داده‌ها را از لایه‌هایی از نورون‌های مصنوعی منتقل می‌کنند تا زمانی که یک الگوی قابل شناسایی ظاهر شود".
 
واترز پیشنهاد کرد که این مشکلی را ایجاد می‌کند، زیرا برخلاف مدار‌های منطقی به کار رفته در یک برنامه نرم افزاری سنتی هیچ راهی برای ردیابی این فرآیند برای شناسایی دقیق این که چرا یک رایانه به یک پاسخ خاص می‌رسد وجود ندارد. نتیجه گیری واترز آن است که این نتایج را نمی‌توان حذف کرد. استفاده از این نوع مدل از مغز که داده‌ها را از لایه‌های زیادی می‌گیرد به این معنی است که پاسخ به راحتی قابل ردیابی نیست. چند لایه بودن بخش خوبی از دلیل این امر است.
 
اقتباس کل بازی است
 راز عمیق‌تر می‌شود. همان طور که لایه‌های شبکه‌های عصبی انباشته شده‌اند پیچیدگی آن‌ها افزایش یافته است. هم‌چنین منجر به رشد لایه‌های پنهان در این اعماق شده است. بحث در مورد تعداد بهینه لایه‌های پنهان در یک شبکه عصبی ادامه دارد.
 
به دلیل نحوه عملکرد یک شبکه عصبی عمیق با تکیه بر لایه‌های عصبی پنهان که بین اولین لایه نورون‌ها (لایه ورودی) و آخرین لایه (لایه خروجی) قرار گرفته اند تکنیک‌های یادگیری عمیق هستند و حتی برای برنامه نویسانی که در ابتدا آن‌ها را تنظیم کرده اند اغلب مبهم یا ناخوانا هستند.
 
"کاترین هیلز" متفکر برجسته و میان رشته‌ای رسانه‌های نوین با بیان نکته‌ای مشابه خاطرنشان کرد که محدودیت‌هایی برای "تا چه اندازه می‌توانیم درباره سیستم بدانیم"؟ وجود دارد نتیجه‌ای که مربوط به "لایه پنهان" در شبکه عصبی و الگوریتم‌های یادگیری عمیق است.
 
به دنبال چیز‌های غیرقابل توضیح روی هم رفته این تحولات طولانی بخشی از چیزی است که "تاینا بوچر" جامعه شناس فناوری آن را "مشکل ناشناخته" نامیده است.
 
"هری کالینز" با گسترش تحقیقات تاثیرگذار خود در مورد دانش علمی در زمینه هوش مصنوعی اشاره کرده که هدف شبکه‌های عصبی این است که احتمالا در ابتدا توسط یک انسان تولید می‌شوند، اما به محض اینکه برنامه نوشته شود زندگی خود را می‌کنند و نحوه عملکرد برنامه دقیقا می‌تواند مرموز باقی بماند. این وضعیت بازتاب آن رویا‌های دیرینه در مورد یک سیستم خودسازمانده است.
 
این احتمال وجود دارد که هر چه تاثیر هوش مصنوعی در زندگی مان بیش‌تر شود کمتر متوجه چگونگی و چرایی آن شویم. با این وجود، بیان این موضوع در روزگار کنونی خوشایند نیست. ما می‌خواهیم بدانیم هوش مصنوعی چگونه کار می‌کند و چگونه به تصمیمات و نتایجی که بر ما تاثیر می‌گذارد می‌رسد.
 
همان‌طور که پیشرفت‌های هوش مصنوعی به شکل گیری دانش و درک ما از جهان، آن چه کشف می‌کنیم، نحوه رفتار با ما، نحوه یادگیری، مصرف و تعامل ما، ادامه می‌دهد، انگیزه برای درک آن بیش‌تر می‌شود. وقتی صحبت از هوش مصنوعی قابل توضیح و شفاف به میان می‌آید داستان شبکه‌های عصبی به ما می‌گوید که احتمالا در آینده به جای نزدیک شدن از آن هدف دور خواهیم شد.


ارزیابیهایی درباره برخی پیآوردهای هوش مصنوعی برای انسانها

پیش‌بینی بانک آمریکایی: هوش مصنوعی روی ۳۰۰ میلیون شغل اثر می‌گذارد
گلدمن ساکس، شرکت سرمایه‌گذاری آمریکایی، در یادداشتی تحلیلی از احتمال اثرگذاری هوش مصنوعی بر ۳۰۰ میلیون شغل خبر داده است.

گلدمن ساکس، شرکت سرمایه‌گذاری آمریکایی، در یادداشتی تحلیلی از احتمال اثرگذاری هوش مصنوعی بر ۳۰۰ میلیون شغل خبر داده است. مدیران گلدمن ساکس در یادداشتی خطاب‌به سرمایه‌گذاران نوشته‌اند اگر وعده‌های مربوط‌به هوش مصنوعی مولد رنگ حقیقت به خود بگیرند، «اختلال قابل‌توجه» در بازار نیروی کار رخ خواهد داد. به گفته‌ی گلدمن ساکس، دو‌سوم از شغل‌های آمریکا در معرض تأثیرپذیری از سیستم‌های خودکار مبتنی‌بر هوش مصنوعی هستند و وظایف کاری بالغ‌بر ۵۰ درصد از این شغل‌ها را می‌توان با هوش مصنوعی جایگزین کرد.

گلدمن ساکس، شرکت سرمایه‌گذاری آمریکایی، در یادداشتی تحلیلی از احتمال اثرگذاری هوش مصنوعی بر ۳۰۰ میلیون شغل خبر داده است.

پیشرفت‌های اخیر در حوزه‌ی هوش مصنوعی باعث شده مردم نگران امنیت شغلی خود شوند و آن‌طور که به‌نظر می‌رسد، این نگرانی کاملا درست است. گلدمن ساکس، شرکت سرمایه‌گذاری بزرگ آمریکایی، در گزارشی جدید گفته است که فناوری هوش مصنوعی مولد بالغ‌بر ۳۰۰ میلیون شغل را تحت تأثیر قرار می‌دهد.

مدیران گلدمن ساکس در یادداشتی خطاب‌به سرمایه‌گذاران نوشته‌اند اگر وعده‌های مربوط‌به هوش مصنوعی مولد رنگ حقیقت به خود بگیرند، «اختلال قابل‌توجه» در بازار نیروی کار رخ خواهد داد. به گفته‌ی گلدمن ساکس، دو‌سوم از شغل‌های آمریکا در معرض تأثیرپذیری از سیستم‌های خودکار مبتنی‌بر هوش مصنوعی هستند و وظایف کاری بالغ‌بر ۵۰ درصد از این شغل‌ها را می‌توان با هوش مصنوعی جایگزین کرد.

تحلیلگران معتقدند با وجود آثار گسترده‌ی هوش مصنوعی بر بازار نیروی کار، اکثر شغل‌ها و صنایع تا حدی در معرض اتوماسیون قرار می‌گیرند، به‌همین‌دلیل پیش‌بینی می‌شود که هوش مصنوعی به‌جای جایگزینی، مکمل آن‌ها شود.

ممکن است در نهایت هفت درصد از شغل‌های آمریکا به‌طور کامل با هوش مصنوعی جایگزین شوند، ۶۳ درصد از هوش مصنوعی به‌عنوان مکمل بهره بگیرند و ۳۰ درصد از هوش مصنوعی متأثر نشوند.

گلدمن ساکس می‌گوید هوش مصنوعی مولد که توانایی تولید انواع محتوا را دارد، نمایانگر «پیشرفتی عظیم با آثار احتمالا بزرگ بر اقتصاد کلان» است. استفاده‌ی گسترده از هوش مصنوعی ممکن است ارزش نهایی کالاها و خدمات سراسر دنیا را در ۱۰ سال آینده به‌میزان هفت درصد افزایش دهد.

فناوری هوش مصنوعی مولد از زمان انتشار عمومی ChatGPT در اواخر سال گذشته‌ی میلادی، به‌شدت در معرض توجه قرار گرفته است. ChatGPT چت‌باتی قدرتمند است که می‌تواند متن و شعر و کد بنویسد. مایکروسافت از فناوری استفاده‌شده در ChatGPT برای تقویت برخی از سرویس‌هایش نظیر موتور جست‌وجوی بینگ استفاده کرده است.

رشد انفجاری ChatGPT باعث شده است شماری از بزرگ‌ترین شرکت‌های حوزه‌ی فناوری سرمایه‌گذاری سنگینی در این حوزه انجام دهند. مایکروسافت ۱۰ میلیارد دلار در شرکت خالق ChatGPT سرمایه‌گذاری کرد و گوگل پروژه‌های هوش مصنوعی را در بالاترین اولویت قرار داد.

گلدمن ساکس در یادداشت جدیدش به مطالعه‌ای اشاره کرد که نشان می‌دهد ۶۰ درصد از شغل‌های امروز در سال ۱۹۴۰ وجود نداشتند. این شرکت می‌گوید یک‌چهارم از تمامی وظایف کاری انجام‌شده در ایالات متحده و اروپا ممکن است به دست هوش مصنوعی بیفتد.

در آمریکا، مشاغل اداری و حقوقی و معماری و مهندسی در بیشترین خطر اتوماسیون هستند. شغل‌هایی که کمتر در معرض هوش مصنوعی قرار می‌گیرند شامل مواردی مثل نظافت، نصب و تعمیر محصولات و کارهای ساختمانی است.

منبع: زومیت





انسان‌ها به‌دست هوش‌مصنوعی حذف می‌شوند؟

انسان‌ها به‌دست هوش‌مصنوعی حذف می‌شوند؟
گروه علمی: «جفری هینتون»، پدرخوانده هوش مصنوعی باور دارد که هوش مصنوعی به‌سرعت درحال پیشرفت است و پیش‌بینی کرده که احتمال حذف انسان‌ها در آینده‌ای نزدیک توسط نسل جدید از این فناوری، یک احتمال غیرممکن نیست.
جفری هینتون، دانشمند کامپیوتر انگلیسی، بیشتر به عنوان «پدرخوانده هوش مصنوعی» شناخته می‌شود. کار اصلی او بر روی شبکه‌های عصبی با تقلید از فرآیندهای شناخت انسان، پایه‌های مدل‌های یادگیری ماشین امروزی را شکل داد. او خلق این فناوری را به اختراع برق یا چرخ تشبیه کرده است. او که در گوگل و دانشگاه تورنتو کار می‌کند، می‌گوید توسعه هوش جامع مصنوعی سریع‌تر از آن‌چه تصورش را می‌کنید، درحال پیشروی است.
 
جفری هینتون درباره آینده هوش مصنوعی نسل جدید پیش‌بینی می‌کند: «تا همین چند وقت پیش فکر می‌کردم 20 تا 50 سال دیگر زمان لازم است تا به هوش مصنوعی همه‌کاره برسیم. حالا معتقدم احتمالاً 20 سال یا کمتر زمان لازم داریم.» او همچنین در پاسخ به این سؤال که آیا هوش مصنوعی می‌تواند بشریت را از بین ببرد یا نه، گفت: «فکر می‌کنم غیرقابل‌تصور نیست. تنها همین را می‌گویم.»
هنوز برای کنترل هوش مصنوعی دیر نیست
هوش جامع مصنوعی یا AGI به سیستمی اشاره می‌کند که بتواند مانند انسان‌ها همه فعالیت‌های ذهنی را در بر بگیرد. چنین سیستمی هنوز به‌وجود نیامده است، اما با ظهور ابزارهای جدید هوش مصنوعی از جمله ChatGPT، این بحث دوباره داغ شده است. هینتون باور دارد که کامپیوترها درنهایت می‌توانند قابلیت تفکر و ایده‌پردازی پیدا کنند تا خودشان را بهبود ببخشند.

به بیان دیگر AGI اصطلاحی است که هوش مصنوعی بالقوه‌ای را توصیف می‌کند که می‌تواند سطوح هوش انسانی یا فوق‌انسانی را نشان دهد. یک AGI به جای اینکه آشکارا تخصصی باشد، قادر به یادگیری و فکر کردن به تنهایی برای حل طیف وسیعی از مشکلات است.

در حال حاضر، نشانه‌های AGI اغلب برای تقویت قابلیت‌های مدل‌های فعلی مورد استفاده قرار می‌گیرد. اما صرف نظر از غوغای صنعت که از ورود آن استقبال می‌کند یا اینکه واقعاً چه مدت ممکن است تا AGI برای ما طلوع کند، هینتون می‌گوید که اکنون باید به دقت عواقب آن را در نظر بگیریم که ممکن است شامل یک مسئله جزئی در تلاش برای نابود کردن بشریت باشد.
 
پدرخوانده هوش مصنوعی گفته است که متخصصان باید درباره این مسئله فکر کنند و ببینند که چطور می‌توانند چنین سیستم‌هایی را تحت کنترل در بیاورند. با این حال، او تاکید داشته است که بیشتر نگرانی‌های مردم پیرامون خودآگاهی هوش مصنوعی در آینده نزدیک محقق نخواهد شد. هینتون می‌گوید: «فکر می‌کنم خیلی منطقی است که مردم نگران چنین مسائلی باشند، ولی چنین اتفاقاتی در یک یا دو سال آینده رخ نخواهد داد.» البته او اعتقاد دارد که حرف‌زدن و فکرکردن پیرامون این موضوعات برای همه مفید است.
همچنین، بر اساس دیدگاه هینتون، بشریت هنوز اندکی فضای تنفسی دارد تا اینکه اوضاع کاملاً از کنترل خارج شود، زیرا مدل‌های کنونی در دسترس عموم، جای کار بیشتری دارند. از سوی دیگر نیز «سم آلتمن»، مدیرعامل OpenAI هم چندی پیش درباره توسعه ChatGPT و هوش مصنوعی همچنین در این باره گفته بود: «باید در این مسیر مراقب باشیم. فکر می‌کنم مردم باید خوشحال باشند که ما کمی در این باره واهمه داریم.»

هینتون نیز پیش‌بینی می‌کند که «ما به سمت سیستم‌هایی حرکت می‌کنیم که می‌توانند دیدگاه‌های مختلف جهان را درک کنند که ترسناک است، زیرا به این معنی است که هر کسی که از هوش مصنوعی بهره می‌برد می‌تواند از آن استفاده کند و جهان‌بینی ویژه خود را ایجاد کند.» با این حال، هینتون معتقد است که مسئله واقعی در افق این است که فناوری هوش مصنوعی که ما در حال حاضر داریم یا «AGI» می‌تواند در انحصار دولت‌ها و شرکت‌های تشنه قدرت قرار گیرد که شاید نتایج مثبتی به دنبال نداشته باشد.





زمانی که نتوانیم میان انسان و ماشین تفاوت قائل شویم چه خواهد شد؟
یک خبر خوب نیز وجود دارد. اگر یک سیستم هوش مصنوعی برای تقلید از ذهن ما ساخته شده باشد می‌تواند پس از مرگ مان به تعامل با عزیزان مان ادامه دهد. اگر پیشرفت‌های آینده در زیست شناسی این امکان را فراهم سازد که بدن مان را ترمیم کنیم تا از پوسیدگی جلوگیری شود ما می‌توانیم برای همیشه زندگی کنیم.

 منبع: هیل
ترجمه: فرارو

  آوی لوب، رئیس پروژه گالیله و مدیر موسس ابتکار عمل سیاه چاله دانشگاه هاروارد و مدیر موسسه تئوری و محاسبات در مرکز اخترفیزیک هاروارد -اسمیتسونین و رئیس سابق بخش نجوم در دانشگاه هاروارد می‌باشد. او عضو سابق شورای مشاوران رئیس جمهور امریکا و رئیس سابق هیئت فیزیک و نجوم آکادمی‌های ملی بوده است.

پروفسور لوب نویسنده کتاب "فراز زمینی: اولین نشانه حیات هوشمند فراتر از زمین" است که از پرفروش‌ترین کتاب‌ها بوده است. کتاب جدید او با عنوان "بین ستاره‌ای" در آگوست سال ۲۰۲۳ میلادی چاپ خواهد شد. پروژه گالیله تحت هدایت او به این موضوع اختصاص دارد که انسان‌ها دیگر نمی‌توانند وجود احتمالی تمدن‌های فناوری فرازمینی را نادیده بگیرند و علم نباید به طور جزمی توضیحات بالقوه فرازمینی را به دلیل انگ اجتماعی رد کند. برخلاف سایر پروژه‌های مشابه هدف پروژه گالیله جستجوی اجسام فیزیکی و نه سیگنال‌های الکترومغناطیسی مرتبط با تجهیزات تکنولوژیکی فرازمینی است.

  معنای انسان بودن اغلب با ویژگی‌های متافیزیکی مانند "آگاه بودن"، داشتن "روح" و اعمال "اراده آزاد" همراه است. با این وجود، اگر یک سیستم هوش مصنوعی مانند نسخه بهبود یافته چت جی پی تی (Chat GPT) دارای ویژگی‌های مشابهی در بازی تقلید "آلن تورینگ" ریاضیدان باشد آن گاه چیز جدیدی در مورد واقعیت خواهیم آموخت.

بدون فرصت گفتگو برای تمایز انسان از ماشین آشکار خواهد شد که کیفیت‌های متافیزیکی پدیده‌های نوظهوری هستند، زیرا ساختار پیچیده سیلیکون در رایانه می‌تواند ساختار پیچیده‌ای از مولکول‌های آلی در مغز انسان را تقلید کند.

به عبارت دیگر، در آن صورت هیچ تفاوت اساسی‌ای بین تعاملات "من – تو" و "من – آن" که یک قرن پیش توسط "مارتین بوبر" فیلسوف تعریف شده بود وجود نخواهد داشت. در آن صورت هر دو معادل تعاملات "من – هوش مصنوعی" و "هوش مصنوعی – هوش مصنوعی" خواهند بود، زیرا هوش مصنوعی صرفا از دنیای مادی ساخته شده است.

این بدان معناست که وقتی بدن ما می‌میرد کل هویت ما می‌میرد. به عبارت دیگر، مرگ مانند جدا کردن یک سیستم هوش مصنوعی از منبع تغذیه آن است. با این وجود، یک خبر خوب نیز وجود دارد. اگر یک سیستم هوش مصنوعی برای تقلید از ذهن ما ساخته شده باشد می‌تواند پس از مرگ مان به تعامل با عزیزان مان ادامه دهد. اگر پیشرفت‌های آینده در زیست شناسی این امکان را فراهم سازد که بدن مان را ترمیم کنیم تا از پوسیدگی جلوگیری شود ما می‌توانیم برای همیشه زندگی کنیم. اگر بتوانیم بدن خود را در دنیای واقعی که در حین زندگی ما را احاطه کرده است زنده کنیم چرا رویای بقای "روح" خود را در دنیای بعدی داشته باشیم؟

این درک هشیارانه در مورد مادی گرایی یک مزیت اضافی در آموزش فروتنی به ما دارد. به ارث بردن بدن مان از والدین مانند گرفتن خودرو از یک نمایندگی است. ما صرفا می‌توانیم به نحوه استفاده از آن افتخار کنیم و نه به توانایی‌های آن خودرو. هیچ مبنایی برای افتخار کردن به آی کیو یا ضریب هوشی مان وجود ندارد همان گونه که افتخار کردن به تعداد دور در دقیقه‌ای که موتور خودروی خریداری شده مان نشان می‌دهد امری منطقی نیست.

تنها قضاوت ارزشی باید بر اساس این باشد که آیا انسان‌ها توانایی‌های خود را برای ترویج خیر یا شر به کار می‌گیرند؟ مشابه این که آیا افراد انرژی هسته‌ای را برای منافع یا سرنوشت جامعه مهار می‌کنند؟

با در نظر گرفتن مرگ قریب الوقوع مان وجود ما شکلی گذرا از ماده است. با این وجود، اگر اصول راهنمای مان حفظ شود می‌تواند مهم باشد.

ارزش آن را دارد که بررسی‌های علمی در این راستا صورت گیرند: اگر بشریت به جای صرف ۲ تریلیون دلار در سال برای هزینه‌های نظامی هزینه برای کاوش در فضا را انتخاب می‌کرد طول عمر بهتری داشتیم. همین بودجه به ما این امکان را می‌دهد که ظرف مدت کم‌تر از یک قرن به هر ستاره در کهکشان راه شیری یک کاوشگر بفرستیم که افزایشی یک میلیاردی در مقایسه با نرخ فعلی که با ارسال پنج کاوشگر بین ستاره‌ای در طول پنج دهه از وویجر ۱ و ۲ گرفته تا پایونیر ۱۰ و ۱۱ و نیوهورایزنز نشان داده شده است.

اکثر ستارگان خورشید مانند میلیارد‌ها سال پیش از خورشید شکل گرفته اند یک تاخیر زمانی بسیار بیش‌تر از زمانی که موشک‌های شیمیایی برای عبور از دیسک راه شیری نیاز دارند. اگر تنها یکی از ده‌ها میلیارد منظومه زمین - خورشید در کهکشان راه شیری باعث ایجاد یک تمدن فناوری صلح آمیز فضاپیمایی شود و اگر آن تمدن کاوشگر‌هایی را با هزینه سالانه ۲ تریلیون دلار به مدت یک میلیون سال به فضا پرتاب کند در آن صورت ۱۰۰۰۰ شئی از این تمدن دیدنی در منظومه شمسی وجود خواهد داشت.

دستگاه‌های کاربردی "بقای شایسته‌ترین ها" را در فرآیند انتخاب داروینی بین ستاره‌ای دنبال می‌کنند که ممکن است همان گونه که ریاضیدانانی، چون "جان فون نویمان" و "فریمن دایسون" پیش بینی کرده اند خود همانند سازی تکنولوژیکی باشد.

ماشین‌های صلح‌جو احتمالا با مدت زمانی طولانی‌تر زنده می‌مانند، زیرا در مقایسه با انواع تهاجمی اغلب توسط درگیری‌های فیزیکی آسیب نمی‌بینند. پیشرفت علمی آن را از زنجیره نفس انسانی رها خواهد ساخت که ترجیح می‌دهد وجود موجودات ذی شعور فرازمینی را ادعایی خارق العاده فرض کند.

دستگاه‌های بین‌ستاره‌ای کاربردی ممکن است حاوی مغز‌های هوش مصنوعی باشند که فرستنده‌های خود را بازتاب می‌دهند. این سیستم‌های هوش مصنوعی در تمثیل افلاطون از غار که در حدود ۳۸۰ قبل از میلاد مسیح در جمهوری نوشته شده است قرار می‌گیرند.

در این گفتگوی باستانی بین سقراط و برادر افلاطون آن فیلسوف یونانی گروهی از مردم را توصیف می‌کند که در طول زندگی خود به دیوار غار بسته شده اند مشابه روشی که ما توسط گرانش در سطح زمین محدود شده ایم. زندانیان سایه‌هایی را تماشا می‌کنند که بر روی دیوار خالی از اشیا دیده می‌شوند. آنان هیچ گاه پشت سرشان را نگاه نکردند و پشت شان آتشی روشن است و در جلوی آتش مجسمه‌هایی قرار دارند که هنگامی که حرکت می‌کنند سایه ٔشان بر دیوار رو به رو می‌افتد. این استعاره برای اوموآموا نخستین جرم میان ستاره‌ای شناخته شده‌ای که مسیر حرکت آن از منظومه خورشیدی می‌گذرد و توسط خورشید روشن می‌شود کافیست. به گفته سقراط در این گفتگو فیلسوف به دنبال درک سطوح بالاتر واقعیت است. معادل مدرن آن دانشمندی است قصد دارد ماهیت اجرام بین ستاره‌ای را دریابد همانند کاری که من در پروژه گالیله هاروارد انجام می‌دهم.

در عین حال، تمثیل افلاطون ادعا می‌کند که سایر زندانیان غار حتی تمایلی به ترک زندان خود ندارند، زیرا آنان زندگی بهتری را نمی‌شناسند. این نشان دهنده واکنش فعلی شکاکان به جستجوی علمی برای کشف اشیاء تکنولوژیکی فرازمینی است.

از آنجایی که علم و فناوری مدرن ما تنها یک قرن قدمت دارد این احتمال وجود دارد که کاوشگر‌های هوش مصنوعی فرازمینی بسیار پیشرفته‌تر از گجت‌هایی (یا ابزارک به وسایل الکترونیکی یا مکانیکی کوچکی گفته می‌شود که برای کاربرد‌های خاصی طراحی شده اند و به آسان‌تر شدن زندگی کمک می‌کنند) باشند که امروز می‌توانیم بسازیم. برخورد ما با آن یک تجربه یادگیری خواهد بود و با احساس فروتنی مناسب به ما این امکان را می‌دهد که جهشی کوانتومی به سمت آینده تکنولوژیکی خود داشته باشیم.

علاقه دولت ایالات متحده به پدیده‌های هوایی ناشناس (UAP) به عنوان یک موضوع امنیت ملی علاقه علمی به اجرام فرازمینی را تحسین می‌کند. با ساقط کردن بالن‌ها یا پهپاد‌های کشور‌های متخاصم دولت از شلوغی اشیاء ساخته شده توسط انسان در آسمان ما می‌کاهد و بررسی این که آیا کاوشگر‌های فرازمینی در آنجا وجود دارد یا خیر را برای دانشمندان آسان‌تر می‌کند.

در مجموع، با فرض اینکه واقعیت فیزیکی شناخته شده تمام انواع هوش را به تصویر می‌کشد ما باید بتوانیم کاوشگر‌های هوش مصنوعی فرازمینی را با استفاده از آشکارساز‌ها بر اساس فیزیکی که می‌شناسیم شناسایی نماییم. داده‌های پروژه گالیله که ما آپلود و تجزیه و تحلیل آن را آغاز کرده ایم در سالیان آینده در دسترس عموم قرار خواهد گرفت. منتظر نتایج باشید، زیرا ما "تمثیل غار" افلاطون را به واقعیت تبدیل می‌کنیم.


دیدگاههای تازه گفته بیل گیتس درباره هوش مصنوعی

چرا ChatGPT را احمق جلوه می‌دهید؟!

چرا ChatGPT را احمق جلوه می‌دهید؟!
گروه علمی: بیل گیتس مردم را سرزنش می‌کند که چرا هوش مصنوعی بینگ(Bing) شرکت مایکروسافت را احمق نشان می‌دهند، چرا که وی معتقد است این کاربران هستند که هوش مصنوعی را تحریک می‌کنند تا اشتباه کند و چیزهای دیوانه‌وار بگوید.به گزارش ایسنا، بیل گیتس، یکی از بنیانگذاران شرکت مایکروسافت به هوش مصنوعی ابراز اطمینان کرده و می‌گوید که هیچ تهدیدی برای انسان نیست.
 
این میلیاردر فناور می‌گوید: افراد زیادی وجود دارند که در تلاش هستند تا هوش مصنوعی را احمق نشان دهند، اما [هوش مصنوعی] خوب است و هیچ تهدیدی در مورد آن وجود ندارد.پیش از این، چندین کاربر نسبت به پاسخ‌های چت‌بات هوش مصنوعی ChatGPT در موتور جستجوی «بینگ» مایکروسافت پس از پاسخ دادن به پرسش‌ها به شیوه‌ای نگران‌کننده و دیوانه‌وار ابراز نگرانی کردند. در عین حال، مایکروسافت پس از مطرح شدن شکایات، ربات خود را آموزش داد تا مشکل برطرف شود.
به گفته مایکروسافت، اگر کاربران برای مدت طولانی با Bing صحبت کنند، ممکن است تحریک شود و پاسخ‌های غیرمنتظره بدهد.بیل گیتس در این مصاحبه خاطرنشان کرد که «بینگ» همچنان اشتباه می‌کند و چیزهای احمقانه می‌گوید، اما برای این کار شما باید کمی آن را تحریک کنید.
نقش بزرگ هوش مصنوعی
بیل گیتس فکر می‌کند که اگرچه پیش‌بینی می‌شود هوش مصنوعی منجر به جابجایی‌های زیادی در نیروی کار شود، اما همچنین موجب افزایش کارایی خواهد شد و نقش مهمی در منابع انرژی تجدیدپذیر خواهد داشت.
طبق گفته وی، طی دو سال آینده پیش‌بینی می‌شود که دقت و قابلیت‌های هوش مصنوعی به سرعت افزایش یابد.

گیتس مشارکت فعال خود در خدمات‌دهی شرکت OpenAI به مایکروسافت را فاش کرد که به کسب و کارها امکان می‌دهد از فناوری ChatGPT و سایر قابلیت‌های هوش مصنوعی استفاده کنند. وی می‌گوید: هوش مصنوعی نقش بزرگی ایفا خواهد کرد و من بسیار درگیر هوش مصنوعی توسعه یافته توسط مایکروسافت و OpenAI هستم.
وی افزود: در مورد این ایده که رایانه‌ها قادر به خواندن و نوشتن شوند، هیچ کس نمی‌دانست که چه زمانی به وجود می‌آید و اکنون فرا رسیده است.

ایجاد کنترل بیشتر توسط مایکروسافت
شرکت مایکروسافت به تازگی اعلام کرده است که قابلیت‌های جدیدی را برای ربات هوش مصنوعی خود معرفی می‌کند، از جمله این که کاربران می‌توانند نوع شخصیتی را که می‌خواهند با آن ارتباط برقرار کنند، انتخاب کنند. پس از انتشار ChatGPT  توسط شرکت OpenAI ، رقابت در عرصه راه‌اندازی و توسعه ربات‌های گفتگوگر افزایش یافته است و تقریباً همه شرکت‌های دیجیتال برتر سکوهای رسانه‌های اجتماعی خود را با هوش مصنوعی، ابزارگذاری (مجهز) کرده‌اند.

ظهور کامپیوترهای برپایه سلولهای مغز انسان

ظهور کامپیوترهای مبتنی بر مغز انسان

ظهور کامپیوترهای مبتنی بر مغز انسان
گروه علمی: هوش مصنوعی همه‌جا حضور دارد. این فناوری در برنامه‌های بهره‌وری، بازی‌های ویدیویی، نوشتن مقالات و حتی طراحی تراشه‌های کامپیوتری مورد استفاده قرار می‌گیرد. درحال‌حاضر هوش مصنوعی به‌عنوان نیرویی غیرقابل توقف در نظر گرفته می‌شود اما دانشمندان دانشگاه جان هاپکینز اعتقاد دارند فناوری دیگری وجود دارد که می‌تواند بر آن غلبه کند.
فناوری موردنظر دانشمندان دانشگاه جان هاپکینز، هوش ارگانوئیدی یا OI نامیده می‌شود و برای ایجاد محاسبات شبیه مغز انسان از سلول‌های واقعی مغز انسان بهره می‌برد. OI از ارگانوئیدها یا خوشه‌های بافت زنده‌ی رشدیافته از سلول‌های بنیادی که رفتاری مشابه اندام‌ها دارند بهره می‌برد و به‌عنوان سخت‌افزار بیولوژیکی، سیستم‌های الگوریتمی را نیز تقویت می‌کند. به گفته‌ی محققان جان هاپکینز این فناوری می‌تواند یادگیری پیشرفته‌تر را نسبت‌ به کامپیوترهای معمولی آسان‌تر کند و همین امر باعث ایجاد بازخوردی غنی‌تر و تصمیم‌گیری بهتر نسبت‌ به هوش مصنوعی خواهد شد.

محققان با انتشار مقاله‌ای در مجله‌ی Frontiers in Science یک زیست‌کامپیوتر ساخته‌شده با ارگانوئید مغز را توصیف کرده‌اند که در محیط آزمایشگاهی ساخته شده است. این فناوری به‌لطف بهره‌گرفتن از شکل حجیم‌تر ارگانوئیدهای مغز نسبت‌ به بافت‌های مسطح بین نورون‌ها، سیناپس‌های بیشتری دارد. اکستریم‌تِک می‌نویسد این تیم به‌دنبال راهکاری برای برقراری ارتباط با ارگانوئیدها و ارسال و دریافت اطلاعات از آن‌ها هستند. تیم تحقیقاتی برای دستیابی به هدف خود آزمایشی را روی دستگاه رابط مغز و کامپیوتر انجام می‌دهد. پوسته‌ی انعطاف‌پذیر این دستگاه از الکترودهای کوچک برای دریافت سیگنال از ارگانوئید و ارسال سیگنال به آن‌ها استفاده می‌کند.
درحال‌حاضر هوش OI جان هاپکینز برای ارائه‌ی نتایج موردنظر محققان بسیار کوچک است. ارگانوئیدهای کنونی حدود ۵۰ هزار سلول را درخود جای می‌دهند، درحالی‌که برای کسب نتیجه‌ی دلخواه، باید نزدیک به ۱۰ میلیون سلول را در خود نگه دارند. هنگامی‌ که این ارگانوئیدها به چنین سطحی از سلول‌ها دست یابند، تقریباً حاوی ۱۲۵ تریلیون سیناپس خواهند بود که هرکدام از آن‌ها می‌توانند ۴٫۷ بیت اطلاعات را در خود ذخیره کنند. در مقام مقایسه، سریع‌ترین ابررایانه‌ی جهان ۵۸ میلیارد ترانزیستور دارد که هرکدام از آن‌ها ۴ بیت اطلاعات را ذخیره می‌کنند.

استفاده از سلول‌های مغز انسان برای تأمین انرژی کامپیوترها، پیامدهای اخلاقی آشکاری دارد که محققان نیز آن‌ها را به‌وضوح تأیید می‌کنند. دانشمندان دانشگاه جان هاپکینز در مقاله‌ی خود توضیحاتی درمورد نظارت بر توسعه‌ی فناوری OI و نگرانی‌های مربوط‌ به حفاظت از حریم خصوصی اهداکنندگان سلول‌های بنیادی ارائه داده‌اند.

نشانه هایی که نشان می‌دهد هوش مصنوعی از فرمان انسان خارج می‌شود

8 علامتی که نشان می‌دهد هوش مصنوعی از کنترل انسان خارج می‌شود

8 علامتی که نشان می‌دهد هوش مصنوعی از کنترل انسان خارج می‌شود
اگرچه در ابتدای راه چت‌بات‌های هوش مصنوعی قرار داریم، اما شواهد نشان می‌دهند که احتمالاً این فناوری از سیطره ما خارج خواهد شد.

زمان انقلاب هوش مصنوعی ظاهراً فرارسیده است و به‌نظر می‌رسد که از همین ابتدای راه درحال ازدست‌دادن کنترل این فناوری هستیم. موتورهای جستجو، هالیوود و شرکت‌های بزرگ رسانه‌ای در تلاشند تا وارد این صنعت شوند و از آن به نفع خود استفاده کنند. اما این صنعت به‌راحتی می‌تواند بسیاری از صنایع دیگر و شکل زندگی ما را تغییر دهد. در ادامه به بررسی این مسئله می‌پردازیم که انقلاب ربات‌ها چرا و چگونه می‌تواند از کنترل خارج شود.

قبولی ChatGPT در آزمون برنامه‌نویسی

8 علامتی که نشان می‌دهد انقلاب هوش مصنوعی از کنترل ما خارج می‌شود

چندی قبل در خبری اعلام شد که ChatGPT به‌اندازه کافی باهوش است که در گوگل استخدام شود. این شرکت اخیراً این ابزار هوش مصنوعی را مشابه نیروهایی که در شرف استخدام قرار دارند، آزمایش کرده و متوجه شده است که چت‌بات شرکت OpenAI با موفقیت این آزمون را پشت سر می‌گذارد.

وب‌سایت PC Magazine می‌گوید اگر گوگل ChatGPT را به‌عنوان برنامه‌نویس استخدام می‌کرد، می‌توانست از پرداخت سالانه 183 هزار دلار دستمزد خودداری کند. افراد زیادی تاکنون قابلیت‌های برنامه‌نویسی این ربات را آزمایش کرده‌اند و نگران آینده شغلی برنامه‌نویسان هستند.

استفاده از ChatGPT توسط قاضی

8 علامتی که نشان می‌دهد انقلاب هوش مصنوعی از کنترل ما خارج می‌شود

خودکارسازی فرایندهای دادگاهی با کمک هوش مصنوعی حتی روی کاغذ هم ایده بدی به‌نظر می‌رسد. بااین‌حال، یک قاضی در کلمبیا تصمیم گرفت که از ChatGPT برای تصمیم‌گیری درباره بیمه درمانی یک کودک مبتلا به اوتیسم استفاده کند. قاضی «خوان مانوئل پادیلا گارسیا» ظاهراً باور دارد که استفاده از چت‌بات‌های هوش مصنوعی می‌تواند به صرفه‌جویی در زمان کمک کند.

گارسیا در حکم خود نوشت: «بررسی استدلال‌های این پرونده با استفاده از هوش مصنوعی انجام می‌شود.» او می‌گوید امیدوار است که با استفاده از این فناوری انجام کارها را بهینه‌تر کند.

استفاده از هوش مصنوعی برای نوشتن فیلم‌نامه‌ها

8 علامتی که نشان می‌دهد انقلاب هوش مصنوعی از کنترل ما خارج می‌شود

برنامه‌های زیادی این ایده را تبلیغ می‌کنند که هوش مصنوعی می‌تواند فیلم‌نامه بنویسد و فرایندهای فیلم‌سازی را خودکار کند. برای مثال، استارتاپ دیپ‌مایند اخیراً ابزاری به‌ نام Dramatron را معرفی کرد که ظاهراً همراهی برای نوشتن سناریو است. در وب‌سایت این برنامه گفته شده که Dramatron می‌تواند متونی تولید کند که یکپارچگی محتوایی بالایی دارند.

Dramatron می‌تواند توصیف شخصیت‌ها و مکان‌ها، دیالوگ‌ها و نقاط مهم داستانی را هم مشخص کند. بااین‌حساب، شاید بهتر باشد که پس از سپردن وظیفه فیلم‌سازی به هوش مصنوعی، تماشای فیلم‌ها را هم به هوش مصنوعی واگذار کنیم!

استفاده از هوش مصنوعی به‌جای صداپیشگان

8 علامتی که نشان می‌دهد انقلاب هوش مصنوعی از کنترل ما خارج می‌شود

وب‌سایت Vice به‌تازگی در گزارشی گفته بود که صنعت سرگرمی هم درحال حرکت به‌سمت خودکارسازی صداپیشگی است. ظاهراً برخی شرکت‌ها از صداپیشگان خواسته‌اند تا حق معنوی استفاده از صدای خود را واگذار کنند تا این شرکت‌ها بتوانند با برنامه‌های هوش مصنوعی از صدای آن‌ها استفاده کنند.

این قراردادهای عجیب‌وغریب ازجمله چیزهایی هستند که می‌توانند به‌طور کامل این صنایع را نابود کنند.

استفاده از هوش مصنوعی به‌جای خبرنگاران

8 علامتی که نشان می‌دهد انقلاب هوش مصنوعی از کنترل ما خارج می‌شود

چه می‌شود اگر یک روز فناوری هوش مصنوعی اخبار را برای مخاطبان تولید کند؟ حدود یک ماه پیش مشخص شد که وب‌سایت CNET، رسانه بزرگ دنیای فناوری، بی‌سروصدا مشغول انجام چنین کاری بوده و اخبار خود را با یک هوش مصنوعی اختصاصی تولید می‌کرده است.

البته این مطالب نه‌تنها پر از اطلاعات غیردقیق بود، بلکه برخی از آن‌ها را می‌توان به سرقت ادبی متهم کرد. جایگزین‌کردن صنعتی که تماماً بر پایه صحت اطلاعات بنا شده است، با هوش مصنوعی احتمالاً کار چندان عاقلانه‌ای نیست.

توجه بازار بورس به هوش مصنوعی

8 علامتی که نشان می‌دهد انقلاب هوش مصنوعی از کنترل ما خارج می‌شود

هرجا که حرف از پول باشد، پای بازار بورس و به‌خصوص وال استریت هم به میان می‌آید. Morning Brief می‌گوید بازارهای مالی اکنون به هر کسب‌وکاری که پسوند هوش مصنوعی داشته باشد یا ادعا کند که درحال کار روی سیستم‌های هوش مصنوعی است، توجه نشان می‌دهند. به‌نظر می‌رسد که سهام این شرکت‌ها رشد چشمگیری را در پیش خواهد داشت و احتمالاً باید منتظر یک موج دیگر شبیه به موج web3 باشیم.

استفاده از هوش مصنوعی برای جاسوسی

8 علامتی که نشان می‌دهد انقلاب هوش مصنوعی از کنترل ما خارج می‌شود

آنچه برای آینده بسیار ترسناک به‌نظر می‌رسد، ترکیب سیستم‌های نظارتی و هوش مصنوعی برای ساخت یک سیستم اَبَرجاسوسی هوشمند است. وب‌سایت Wired اخیراً در گزارشی گفته بود که روسیه از هوش مصنوعی در دوربین‌های امنیتی خود استفاده کرده است تا کاری کند که هیچ‌کس نتواند در شهرها از دید دولت مخفی بماند.

رقابت بر سر هوش مصنوعی در دنیای فناوری

8 علامتی که نشان می‌دهد انقلاب هوش مصنوعی از کنترل ما خارج می‌شود

دره سیلیکون به‌دنبال درآمدزایی از هوش مصنوعی است و همه شرکت‌ها سعی دارند به‌نحوی به این بازار بزرگ ورود کنند تا بخشی از کاربران ChatGPT را به‌سمت خود بیاورند. مایکروسافت با معرفی نسخه جدید موتور جستجوی بینگ اعلام کرد که دور جدید رقابت در دنیای فناوری آغاز شده است. این شرکت می‌خواهد با کمک چت‌بات خود لذت اکتشاف را در میان کاربران افزایش دهد.

در سوی دیگر، گوگل هم اعلام کرده است که هوش مصنوعی خود موسوم به Bard را به موتور جستجویش اضافه می‌کند. بااین‌حال، این شرکت کار سخت‌تری در پیش دارد؛ چرا که در گام نخست مرتکب اشتباهاتی شده است. در چین، دو شرکت Alibaba و بایدو اخیراً اعلام کرده‌اند که آن‌ها هم می‌خواهند ابزارهای هوش مصنوعی خاص خود را داشته باشند.

منبع: دیجیاتو- ایمان صاحبی