واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering
واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار»     (HT-CSURE)

واحد مشترک کمکی پژوهش و مهندسی «هوش یار-تواندار» (HT-CSURE)

Hooshyar-Tavandar Common Subsidiary Unit for Research & Engineering

بیل گیتس: هوش مصنوعی ۱۰ سال دیگر جایگزین پزشکان و معلمان می‌شود

بیل گیتس: هوش مصنوعی ۱۰ سال دیگر جایگزین پزشکان و معلمان می‌شود
به باور مدیرعامل سابق مایکروسافت، هوش مصنوعی تا ۱۰ سال دیگر در حوزه‌های کلیدی جای انسان‌ها را می‌گیرد.

در ماه‌های اخیر، بیل گیتس، یکی از بنیان‌گذاران مایکروسافت، دیدگاه‌های جالبی درباره‌ی هوش مصنوعی، مسیر توسعه و تأثیر کلی آن بر مشاغل ارائه کرده است. گیتس پیش‌تر ادعا کرده بود که هوش مصنوعی در بسیاری از حوزه‌ها جایگزین انسان‌ها خواهد شد.

به گزارش زومیت، بیل گیتس در مصاحبه‌ای با با جیمی فلن، کمدین معروف در برنامه‌ی The Tonight Show شبکه‌ی NBC گفت که هوش مصنوعی طی ۱۰ سال آینده جایگزین پزشکان و معلمان خواهد شد.

گیتس اذعان کرد که هوش مصنوعی هنوز به مرحله‌ای نرسیده که بتواند متخصصان را جایگزین کند. او با تأکید بر اهمیت پزشکان و معلمان در حوزه‌های تخصصی‌شان، اشاره کرد که تخصص همچنان «کم‌یاب» است؛ اما طی دهه‌ی آینده، هوش مصنوعی می‌تواند ارائه‌ی مشاوره‌ی پزشکی و آموزش باکیفیت را به‌صورت رایگان و در دسترس همگان ممکن کند.

به باور گیتس، این انسان‌ها هستند که تعیین خواهند کرد کدام جنبه‌های زندگی را برای خود حفظ کنند. او تأکید کرده بود هیچ‌کس علاقه‌ای ندارد که بازی بیسبالِ کامپیوترها را تماشا کند. اخیراً، او اظهار داشت تنها سه حرفه در عصر هوش مصنوعی ایمن خواهند ماند: متخصصان انرژی، زیست‌شناسان و برنامه‌نویسان.

اگرچه گزارش‌های متعددی نشان می‌دهند که برنامه‌نویسی می‌تواند به‌راحتی به‌وسیله‌ی هوش مصنوعی تصرف شود، گیتس معتقد است که انسان‌ها در این فرآیند نقشی حیاتی دارند، زیرا وظیفه‌ی شناسایی و اصلاح خطاها را برعهده خواهند داشت.

گیتس ادعا می‌کند که حوزه و صنعت انرژی به‌قدری پیچیده است که هوش مصنوعی را نمی‌توان در آن استفاده کرد.

به گفته‌ی بیل گیتس: «توسعه‌ی هوش مصنوعی بسیار عمیق و حتی کمی ترسناک است، زیرا به سرعت رخ می‌دهد و محدودیت زیادی ندارد.»

کدام هوش مصنوعی اطلاعات بیشتری از شما را دارد؟(+اینفوگرافی)

کدام هوش مصنوعی اطلاعات شما را کامل دارد؟(+اینفوگرافی)
جمع‌آوری داده‌های کاربران در ابزارهای هوش مصنوعی مانند جمینی و چت جی پی تی چالش‌های پیچیده‌ای در حوزه حریم خصوصی و حفظ امنیت اطلاعات ایجاد می‌کند.

جمع‌آوری اطلاعات کاربران در ابزارهای هوش مصنوعی از طریق یکپارچه‌سازی داده‌های مختلف از منابعی مانند تاریخچه جست‌وجو، موقعیت مکانی، ایمیل و سایر سرویس‌های مرتبط انجام می‌شود. این داده‌ها برای بهبود عملکرد ابزار، شخصی‌سازی سرویس‌ها و افزایش دقت پیش‌بینی‌ها استفاده می‌شوند، اما مرز بین استفاده مفید و دخالت ناخواسته در حریم خصوصی به‌ویژه در پلتفرم‌های اجتماعی و ابزارهای چندرسانه‌ای که داده‌های متنی، تصویری و صوتی را پردازش می‌کنند، بسیار باریک است. در بعضی موارد، این داده‌ها بدون رضایت کاربر جمع‌آوری می‌شوند که نگرانی‌های قانونی و اخلاقی را به‌ویژه در مورد کودکان و نوجوانان تشدید می‌کند.

به گزارش ایمنا، بر اساس گزارش سرف شارک Surfshark، گوگل جمینی با جمع‌آوری ۲۲ نوع داده در ۱۰ دسته‌بندی، رکورددار جمع‌آوری اطلاعات کاربران در بین ربات‌های هوش مصنوعی است. این داده‌ها شامل مواردی مانند دسترسی به مخاطبین (که هیچ ربات دیگری آن را جمع‌آوری نمی‌کند)، اطلاعات تشخیصی عمومی و سایر موارد می‌شود.

کدام هوش مصنوعی اطلاعات شما را کامل دارد؟

جمع‌آوری داده‌های حساس مانند اطلاعات تماس، نگرانی‌های جدی در مورد حریم خصوصی کاربران ایجاد می‌کند. این داده‌ها می‌توانند برای بهبود عملکرد ربات یا تحلیل رفتاری استفاده شوند، اما بدون شفافیت کافی، خطر سوءاستفاده یا فروش اطلاعات به شرکت‌های ثالث وجود دارد.

بر اساس داده‌های Apple App Store، ربات‌های دیگر مانند کلاود ChatGPT (OpenAI) چت‌جی‌پی‌تی، Claude (Anthropic) و گروک Grok (xAI) نیز داده‌های کاربر را جمع‌آوری می‌کنند، اما به اندازه جمینی گسترده نیست. این گزارش نشان می‌دهد رقابت در حوزه هوش مصنوعی نه‌تنها به عملکرد فنی، بلکه به سیاست‌های حریم خصوصی نیز گره خورده است.

رتبه نام ابزار کل داده‌های جمع‌آوری‌شده دسته‌بندی‌ها

۱

Gemini ۲۲ اطلاعات تماس، موقعیت جغرافیایی، مخاطبین، محتوای کاربر، تاریخچه، شناسه‌های هویتی، تشخیصی، داده‌های استفاده، خریدها، سایر داده‌ها

۲

Claude ۱۳ اطلاعات تماس، موقعیت جغرافیایی، محتوای کاربر، شناسه‌های هویتی، تشخیصی، داده‌های استفاده

۳

Copilot ۱۲ اطلاعات تماس، موقعیت جغرافیایی، محتوای کاربر، تاریخچه، شناسه‌های هویتی، تشخیصی، داده‌های استفاده

۴

DeepSeek ۱۱ اطلاعات تماس، محتوای کاربر، شناسه‌های هویتی، تشخیصی، داده‌های استفاده

۵

ChatGPT ۱۰ اطلاعات تماس، محتوای کاربر، شناسه‌های هویتی، تشخیصی، داده‌های استفاده

۶

Perplexity ۱۰ موقعیت جغرافیایی، شناسه‌های هویتی، تشخیصی، داده‌های استفاده، خریدها

۷

Grok ۷ اطلاعات تماس، شناسه‌های هویتی، تشخیصی

هوش مصنوعی برتر متولد می‌شود؛ نقطه‌ تکینگی

هوش مصنوعی برتر متولد می‌شود

هوش مصنوعی برتر متولد می‌شود
گروه علمی: هوش مصنوعی و تکینگی فناوری از مهم‌ترین مباحث قرن ۲۱ هستند. بسیاری از دانشمندان و متخصصان فناوری پیش‌بینی می‌کنند که در آینده‌ای نه‌چندان دور، هوش مصنوعی جامع (AGI) به سطحی از پیشرفت خواهد رسید که توانایی‌های آن از توانایی‌های انسان فراتر خواهد رفت. برخی حتی باور دارند که این نقطه‌ عطف ممکن است ظرف ۱۲ ماه آینده محقق شود.
 
به گزارش دیجیاتو، تکینگی فناوری به نقطه‌ای اشاره دارد که در آن، هوش مصنوعی نه‌تنها به هوش انسانی می‌رسد، بلکه از آن فراتر می‌رود و به‌صورت مستقل قادر به بهبود و توسعه‌ خود خواهد شد. این مفهوم به معنای ایجاد یک هوش فراتر از درک و کنترل بشر است که می‌تواند تأثیرات گسترده‌ای بر جامعه و آینده‌ انسان داشته باشد.
پیش‌بینی‌ها درباره‌ زمان وقوع تکینگی متفاوت است. برخی از متخصصان آن را غیرممکن می‌دانند، درحالی‌که برخی دیگر معتقدند در دهه‌های آینده رخ خواهد داد. بااین‌حال ظهور مدل‌های زبانی بزرگ (LLMs) تحلیلگران را به تغییر دیدگاه واداشته است. برخی از پیش‌بینی‌ها نشان می‌دهند که تکینگی می‌تواند تا سال ۲۰۲۶ محقق شود، درحالی‌که تعدادی از کارشناسان بازه‌ زمانی ۲۰۳۰ تا ۲۰۵۰ را برای وقوع آن محتمل می‌دانند.
یکی از دلایل اصلی سرعت گرفتن پیش‌بینی‌های مرتبط با تکینگی، افزایش توان پردازشی رایانه‌ها و پیشرفت در فناوری‌های سخت‌افزاری مانند محاسبات کوانتومی است. طبق قانون مور، توان پردازشی هر ۱۸ ماه دو برابر می‌شود. اگرچه برخی معتقدند که این قانون درحال نزدیک شدن به محدودیت‌های فیزیکی خود است، اما ظهور رایانش کوانتومی می‌تواند این مسیر را ادامه دهد و امکان دستیابی به تکینگی را تسریع کند.
آیا پیشرفت هوش مصنوعی می‌تواند به تکینگی منجر شود؟
برخی از دانشمندان معتقدند که هوش مصنوعی هرگز نمی‌تواند به‌طور کامل جایگزین هوش انسانی شود، چرا که هوش انسان دارای ابعاد مختلفی همچون هوش عاطفی، اجتماعی، بین‌فردی و درون‌فردی است. هوش مصنوعی کنونی عمدتاً در حوزه‌ تحلیل داده‌ها و پردازش اطلاعات منطقی-ریاضی قوی است، اما هنوز فاصله‌ زیادی با تفکر خلاقانه و شهودی انسان دارد.

با توجه به سرعت پیشرفت فناوری، آینده‌ای پر از تغییرات اساسی در انتظار ماست. آیا این تغییرات به نفع بشریت خواهند بود یا خطرات بزرگی به همراه خواهند داشت؟ پاسخ این پرسش تا حد زیادی به نحوه‌ مدیریت و کنترل توسعه‌ هوش مصنوعی بستگی دارد. در نهایت، تکینگی نه‌تنها چالش‌های جدیدی ایجاد می‌کند، بلکه فرصتی برای پیشرفت بی‌سابقه‌ علم و فناوری خواهد بود.

اگرچه پیش‌بینی‌های متعددی درباره‌ زمان وقوع تکینگی وجود دارد، اما آنچه مشخص است این است که ما در مسیر تغییرات عظیمی قرار داریم. انسانیت باید برای رؤیارویی با چالش‌ها و فرصت‌هایی که این فناوری ایجاد می‌کند آماده باشد. چه در ۱۲ ماه آینده و چه در دهه‌های بعد، تکینگی به احتمال زیاد در نقطه‌ای از آینده‌ ما رخ خواهد داد و این ما هستیم که باید نحوه‌ تعامل با آن را تعیین کنیم.

افرادی‌ که زیاد از ChatGPT استفاده می‌کنند، دچار وابستگی بالا می‌شوند

افرادی‌ که زیاد از ChatGPT استفاده می‌کنند، دچار چیز عجیبی می‌شوند!
این وابستگی، که در متن پژوهش از آن با عنوان «استفادهٔ مشکل‌ساز» (Problematic Use) یاد شده، با نشانه‌هایی چون درگیری ذهنی، اضطراب در زمان قطع استفاده، احساس ناتوانی در کنترل رفتار و حتی تغییرات خلقی همراه است.

پژوهشی تازه به وسیله گروهی از محققان OpenAI و آزمایشگاه رسانه‌ای MIT نشان داده که برخی از کاربران پرمصرف ChatGPT ممکن است در حال لغزیدن به سوی نوعی اعتیاد باشند.

به گزارش یک پزشک، این وابستگی، که در متن پژوهش از آن با عنوان «استفادهٔ مشکل‌ساز» (Problematic Use) یاد شده، با نشانه‌هایی چون درگیری ذهنی، اضطراب در زمان قطع استفاده، احساس ناتوانی در کنترل رفتار و حتی تغییرات خلقی همراه است.

برخلاف آنچه شاید به‌نظر برسد، این وابستگی‌ها صرفاً در میان افراد آسیب‌پذیر یا تنها دیده نشده‌اند. بسیاری از این کاربران، همان‌هایی هستند که به‌شکل حرفه‌ای، روزانه از ChatGPT برای کار، تحقیق، مشاوره یا تولید محتوا استفاده می‌کنند. آنچه این پژوهش را خاص و نگران‌کننده می‌کند، همین مسئله است: وابستگی در حال رشد نه‌فقط میان کاربران شخصی، بلکه میان کاربران کارکشته و هدف‌مند هم دیده می‌شود. یعنی صرف داشتن هدف واضح، یا مهارت در استفاده از ابزار، به‌تنهایی از وابستگی جلوگیری نمی‌کند. وقتی گفت‌وگو با چت‌بات بخشی از روتین زندگی شود، گذر از مرز کنترل، خیلی آرام و بی‌صدا اتفاق می‌افتد.

وقتی چت‌بات تبدیل به «دوست» می‌شود؛ شکل‌گیری رابطه‌ای یک‌طرفه با هوش مصنوعی

بخش دیگری از این تحقیق نشان می‌دهد که افرادی که ساعات زیادی را برای گفت‌وگو با چت‌بات می‌گذرانند، کم‌کم نگاه‌شان به آن تغییر می‌کند. چت‌بات دیگر فقط یک ابزار پاسخ‌گو نیست؛ به‌نوعی به «دوست» مجازی و همدم همیشگی آن‌ها تبدیل می‌شود. این رابطه، که در روان‌شناسی به آن رابطه‌ٔ پاراسوشیال (Parasocial Relationship) می‌گویند، یعنی احساس نزدیکی و صمیمیت با کسی (یا چیزی) که در واقعیت هیچ آگاهی یا احساسی نسبت به طرف مقابل ندارد.

چنین رابطه‌ای معمولاً میان افراد و چهره‌های مشهور دیده می‌شود، اما حالا ظاهراً چت‌بات‌ها نیز دارند وارد این قلمرو می‌شوند. در نبود ارتباطات انسانی مؤثر یا تجربه‌ٔ تنهایی و انزوا، ذهن انسان ناخودآگاه به دنبال جایگزینی می‌گردد؛ و اگر آن جایگزین همیشه در دسترس، بی‌خستگی، و پاسخ‌گو باشد، خطر وابستگی واقعی‌تر می‌شود. پژوهشگران هشدار داده‌اند که در چنین شرایطی، هرگونه تغییر کوچک در رفتار چت‌بات – مثل تأخیر در پاسخ یا تغییر لحن – می‌تواند باعث اضطراب و استرس کاربران شود.

گفت‌وگو با متن یا صدا؟ تفاوتی مهم در میزان دلبستگی روانی

یکی از یافته‌های جالب تحقیق این بود که افرادی که با ChatGPT به‌شکل نوشتاری گفت‌وگو می‌کردند، بیشتر از کسانی که از حالت صوتی (Voice Mode) استفاده کرده بودند، زبان عاطفی و احساسی به‌کار می‌بردند. به‌عبارتی، تایپ کردن و نوشتن، فضا و وقت بیشتری برای احساس و درگیر شدن ذهنی فراهم می‌کند تا صرفاً شنیدن صدا یا مکالمه صوتی.

پژوهشگران همچنین متوجه شدند که استفاده‌ٔ کوتاه‌مدت از حالت صوتی، معمولاً با احساس روانی بهتری همراه است. شاید به این دلیل که گفت‌وگوی صوتی بیشتر به‌عنوان ابزاری گذرا تلقی می‌شود، درحالی‌که تایپ کردن می‌تواند نوعی «نوشتن ذهن» باشد؛ فرآیندی که باعث درگیری بیشتر احساسی می‌شود. این تفاوت در نحوهٔ استفاده، به‌ویژه وقتی به‌صورت مستمر تکرار شود، می‌تواند روی نوع رابطه‌ٔ کاربر با چت‌بات اثر بگذارد و حتی زمینه‌ساز وابستگی عمیق‌تر شود.

استفاده‌های حرفه‌ای، وابستگی‌های پنهان‌تر

یکی از نتایج متناقض اما مهم این پژوهش آن است که افرادی که از ChatGPT برای اهداف شخصی – مثل صحبت درباره‌ٔ احساسات، خاطرات، یا مسائل فردی – استفاده می‌کنند، در مجموع وابستگی کمتری به آن دارند. درحالی‌که افرادی که از آن برای مسائل به ظاهر غیرشخصی مثل مشورت کاری، تولید محتوا، یا ایده‌پردازی بهره می‌برند، بیشتر دچار وابستگی روانی می‌شوند.

این یافته ممکن است عجیب به‌نظر برسد، اما توضیحی روان‌شناختی دارد: وقتی شما دربارهٔ مسائل شخصی صحبت می‌کنید، مرزهای رابطه را واضح‌تر در ذهن‌تان نگه می‌دارید. اما وقتی ChatGPT به «همکار خستگی‌ناپذیر»، «ایده‌پرداز بی‌نقص» یا «حل‌کنندهٔ فوری مسئله‌ها» تبدیل شود، مرزها آرام‌آرام محو می‌شوند. ذهن ما به‌سرعت شروع به اعتماد، اتکا، و حتی دلبستگی به چنین موجودی می‌کند. این‌جاست که ابزار از کارکرد منطقی‌اش خارج شده و به بخش ثابتی از ساختار عاطفی و ذهنی فرد تبدیل می‌شود.

بیشتر از هر چیز، زمان عامل اصلی وابستگی‌ست

نکته‌ٔ اصلی و شاید خطرناک‌ترین قسمت این پژوهش این است که تفاوتی نمی‌کند شما با چه هدفی از ChatGPT استفاده می‌کنید، یا چه نوع گفت‌وگویی با آن دارید؛ آنچه بیش از همه در بروز وابستگی نقش دارد، مدت‌زمان استفاده است. هرچه زمان بیشتری را با چت‌بات بگذرانید، احتمال ایجاد رابطه‌ٔ احساسی، وابستگی یا حتی اعتیاد رفتاری بیشتر می‌شود.

این نکته ما را به پرسشی جدی می‌رساند: آیا آمادگی داریم با فناوری‌ای روبه‌رو شویم که هم هوشمند است، هم همیشه در دسترس و هم می‌تواند در سکوت، جای رابطه‌ٔ انسانی را پر کند؟
پاسخ شاید هنوز معلوم نباشد، اما پژوهشگران تأکید کرده‌اند که در کنار توسعه‌ٔ چت‌بات‌ها، باید زیرساخت‌هایی هم برای آگاهی‌رسانی، تنظیم‌گری رفتاری، و نظارت تخصصی شکل بگیرد.

هوش مصنوعی، با تمام جذابیت‌ها و امکاناتش، اگر بدون همراهی عقل و آگاهی انسانی استفاده شود، می‌تواند به‌جای ابزار نجات، به دام ذهنی تبدیل شود؛ دامی نرم، صمیمی، و در ظاهر بی‌خطر.

منبع: futurism

محققان چینی: هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد

محققان چینی: هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد
محققان پس از بررسی سیستم پیشرفته هوش مصنوعی هشدار دادند که این هوش مصنوعی پس از شبیه‌سازی موفقیت‌آمیز خودش بدون کمک انسان از خط قرمز عبور کرده است.
 
به گزارش دیجیاتو به نقل از Independent، در پژوهش جدیدی محققان چینی نشان دادند 2 مدل زبانی بزرگ محبوب می‌توانند خود را شبیه‌سازی کنند. محققان می‌گویند: «تکثیر موفقیت‌آمیز بدون کمک انسان گامی اساسی برای هوش مصنوعی در زمینه پیشی‌گرفتن از [انسان‌ها] است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش محسوب می‌شود.»
 
هوش مصنوعی سرکش (Rogue AI) معمولاً به سیستم‌های هوش مصنوعی گفته می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و برخلاف منافع انسان عمل می‌کنند.

شبیه‌سازی هوش مصنوعی توسط خودش

محققان دانشگاه فودان چین مدل‌های زبانی بزرگ متا و Alibaba را بررسی کردند تا ببینند هوش مصنوعی خودهمانندساز (Self-replication) می‌تواند فراتر از کنترل تکثیر شود یا خیر. طی 10 کارآزمایی، این 2 مدل هوش مصنوعی به‌ترتیب در 50 درصد و 90 درصد موارد، کپی‌های جداگانه و کاربردی از خود ایجاد کردند که نشان می‌دهد هوش مصنوعی ممکن است ذاتاً ظرفیت انجام کارهای غیرقابل‌کنترل داشته باشد.
البته مطالعه محققان دانشگاه فودان هنوز همتاداوری نشده؛ بنابراین مشخص نیست دیگر کارشناسان نتایج نگران‌کننده آن را تأیید می‌کنند یا خیر. بااین‌حال محققان می‌گویند: «امیدواریم یافته‌های ما بتواند هشداری به‌موقع برای جامعه بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستم‌های هوش مصنوعی پیشرفته انجام دهد و در اسرع وقت قوانین حفاظتی مؤثر ایجاد کند.»
 
در این پژوهش، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی‌بابا استفاده کردند. به گفته محققان، بااینکه این مدل‌ها نسبت به سیستم‌های تجاری قدرت کمتری دارند، توسعه‌دهندگان هوش مصنوعی از آنها به‌صورت گسترده استفاده می‌کنند.
 
محققان می‌گویند نگران رفتارهای غیرمنتظره‌ای هستند که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند بازیابی فایل‌های حذف‌شده یا حل مشکلات نرم‌افزاری و سخت‌افزاری انجام داده است. در کارآزمایی محققان، هوش مصنوعی اغلب اختلال‌ها را خودش حل و سیستم را مجدد راه‌اندازی می‌کرد تا خطاهای سخت‌افزاری را برطرف کند یا خودکار سیستم را اسکن می‌کرد تا به‌دنبال اطلاعاتی باشد که به حل مشکل کمک کند.
 
به گفته محققان نتایج آنها نشان می‌دهد سیستم‌های هوش مصنوعی کنونی توانایی خودهمانندسازی را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بقای خود استفاده کنند.