در ماههای اخیر، بیل گیتس، یکی از بنیانگذاران مایکروسافت، دیدگاههای جالبی دربارهی هوش مصنوعی، مسیر توسعه و تأثیر کلی آن بر مشاغل ارائه کرده است. گیتس پیشتر ادعا کرده بود که هوش مصنوعی در بسیاری از حوزهها جایگزین انسانها خواهد شد.
به گزارش زومیت، بیل گیتس در مصاحبهای با با جیمی فلن، کمدین معروف در برنامهی The Tonight Show شبکهی NBC گفت که هوش مصنوعی طی ۱۰ سال آینده جایگزین پزشکان و معلمان خواهد شد.
گیتس اذعان کرد که هوش مصنوعی هنوز به مرحلهای نرسیده که بتواند متخصصان را جایگزین کند. او با تأکید بر اهمیت پزشکان و معلمان در حوزههای تخصصیشان، اشاره کرد که تخصص همچنان «کمیاب» است؛ اما طی دههی آینده، هوش مصنوعی میتواند ارائهی مشاورهی پزشکی و آموزش باکیفیت را بهصورت رایگان و در دسترس همگان ممکن کند.
به باور گیتس، این انسانها هستند که تعیین خواهند کرد کدام جنبههای زندگی را برای خود حفظ کنند. او تأکید کرده بود هیچکس علاقهای ندارد که بازی بیسبالِ کامپیوترها را تماشا کند. اخیراً، او اظهار داشت تنها سه حرفه در عصر هوش مصنوعی ایمن خواهند ماند: متخصصان انرژی، زیستشناسان و برنامهنویسان.
اگرچه گزارشهای متعددی نشان میدهند که برنامهنویسی میتواند بهراحتی بهوسیلهی هوش مصنوعی تصرف شود، گیتس معتقد است که انسانها در این فرآیند نقشی حیاتی دارند، زیرا وظیفهی شناسایی و اصلاح خطاها را برعهده خواهند داشت.
گیتس ادعا میکند که حوزه و صنعت انرژی بهقدری پیچیده است که هوش مصنوعی را نمیتوان در آن استفاده کرد.به گفتهی بیل گیتس: «توسعهی هوش مصنوعی بسیار عمیق و حتی کمی ترسناک است، زیرا به سرعت رخ میدهد و محدودیت زیادی ندارد.»
جمعآوری اطلاعات کاربران در ابزارهای هوش مصنوعی از طریق یکپارچهسازی دادههای مختلف از منابعی مانند تاریخچه جستوجو، موقعیت مکانی، ایمیل و سایر سرویسهای مرتبط انجام میشود. این دادهها برای بهبود عملکرد ابزار، شخصیسازی سرویسها و افزایش دقت پیشبینیها استفاده میشوند، اما مرز بین استفاده مفید و دخالت ناخواسته در حریم خصوصی بهویژه در پلتفرمهای اجتماعی و ابزارهای چندرسانهای که دادههای متنی، تصویری و صوتی را پردازش میکنند، بسیار باریک است. در بعضی موارد، این دادهها بدون رضایت کاربر جمعآوری میشوند که نگرانیهای قانونی و اخلاقی را بهویژه در مورد کودکان و نوجوانان تشدید میکند.
به گزارش ایمنا، بر اساس گزارش سرف شارک Surfshark، گوگل جمینی با جمعآوری ۲۲ نوع داده در ۱۰ دستهبندی، رکورددار جمعآوری اطلاعات کاربران در بین رباتهای هوش مصنوعی است. این دادهها شامل مواردی مانند دسترسی به مخاطبین (که هیچ ربات دیگری آن را جمعآوری نمیکند)، اطلاعات تشخیصی عمومی و سایر موارد میشود.
جمعآوری دادههای حساس مانند اطلاعات تماس، نگرانیهای جدی در مورد حریم خصوصی کاربران ایجاد میکند. این دادهها میتوانند برای بهبود عملکرد ربات یا تحلیل رفتاری استفاده شوند، اما بدون شفافیت کافی، خطر سوءاستفاده یا فروش اطلاعات به شرکتهای ثالث وجود دارد.
بر اساس دادههای Apple App Store، رباتهای دیگر مانند کلاود ChatGPT (OpenAI) چتجیپیتی، Claude (Anthropic) و گروک Grok (xAI) نیز دادههای کاربر را جمعآوری میکنند، اما به اندازه جمینی گسترده نیست. این گزارش نشان میدهد رقابت در حوزه هوش مصنوعی نهتنها به عملکرد فنی، بلکه به سیاستهای حریم خصوصی نیز گره خورده است.
رتبه | نام ابزار | کل دادههای جمعآوریشده | دستهبندیها |
۱ |
Gemini | ۲۲ | اطلاعات تماس، موقعیت جغرافیایی، مخاطبین، محتوای کاربر، تاریخچه، شناسههای هویتی، تشخیصی، دادههای استفاده، خریدها، سایر دادهها |
۲ |
Claude | ۱۳ | اطلاعات تماس، موقعیت جغرافیایی، محتوای کاربر، شناسههای هویتی، تشخیصی، دادههای استفاده |
۳ |
Copilot | ۱۲ | اطلاعات تماس، موقعیت جغرافیایی، محتوای کاربر، تاریخچه، شناسههای هویتی، تشخیصی، دادههای استفاده |
۴ |
DeepSeek | ۱۱ | اطلاعات تماس، محتوای کاربر، شناسههای هویتی، تشخیصی، دادههای استفاده |
۵ |
ChatGPT | ۱۰ | اطلاعات تماس، محتوای کاربر، شناسههای هویتی، تشخیصی، دادههای استفاده |
۶ |
Perplexity | ۱۰ | موقعیت جغرافیایی، شناسههای هویتی، تشخیصی، دادههای استفاده، خریدها |
۷ |
Grok | ۷ | اطلاعات تماس، شناسههای هویتی، تشخیصی |
پژوهشی تازه به وسیله گروهی از محققان OpenAI و آزمایشگاه رسانهای MIT نشان داده که برخی از کاربران پرمصرف ChatGPT ممکن است در حال لغزیدن به سوی نوعی اعتیاد باشند.
به گزارش یک پزشک، این وابستگی، که در متن پژوهش از آن با عنوان «استفادهٔ مشکلساز» (Problematic Use) یاد شده، با نشانههایی چون درگیری ذهنی، اضطراب در زمان قطع استفاده، احساس ناتوانی در کنترل رفتار و حتی تغییرات خلقی همراه است.
برخلاف آنچه شاید بهنظر برسد، این وابستگیها صرفاً در میان افراد آسیبپذیر یا تنها دیده نشدهاند. بسیاری از این کاربران، همانهایی هستند که بهشکل حرفهای، روزانه از ChatGPT برای کار، تحقیق، مشاوره یا تولید محتوا استفاده میکنند. آنچه این پژوهش را خاص و نگرانکننده میکند، همین مسئله است: وابستگی در حال رشد نهفقط میان کاربران شخصی، بلکه میان کاربران کارکشته و هدفمند هم دیده میشود. یعنی صرف داشتن هدف واضح، یا مهارت در استفاده از ابزار، بهتنهایی از وابستگی جلوگیری نمیکند. وقتی گفتوگو با چتبات بخشی از روتین زندگی شود، گذر از مرز کنترل، خیلی آرام و بیصدا اتفاق میافتد.
بخش دیگری از این تحقیق نشان میدهد که افرادی که ساعات زیادی را برای گفتوگو با چتبات میگذرانند، کمکم نگاهشان به آن تغییر میکند. چتبات دیگر فقط یک ابزار پاسخگو نیست؛ بهنوعی به «دوست» مجازی و همدم همیشگی آنها تبدیل میشود. این رابطه، که در روانشناسی به آن رابطهٔ پاراسوشیال (Parasocial Relationship) میگویند، یعنی احساس نزدیکی و صمیمیت با کسی (یا چیزی) که در واقعیت هیچ آگاهی یا احساسی نسبت به طرف مقابل ندارد.
چنین رابطهای معمولاً میان افراد و چهرههای مشهور دیده میشود، اما حالا ظاهراً چتباتها نیز دارند وارد این قلمرو میشوند. در نبود ارتباطات انسانی مؤثر یا تجربهٔ تنهایی و انزوا، ذهن انسان ناخودآگاه به دنبال جایگزینی میگردد؛ و اگر آن جایگزین همیشه در دسترس، بیخستگی، و پاسخگو باشد، خطر وابستگی واقعیتر میشود. پژوهشگران هشدار دادهاند که در چنین شرایطی، هرگونه تغییر کوچک در رفتار چتبات – مثل تأخیر در پاسخ یا تغییر لحن – میتواند باعث اضطراب و استرس کاربران شود.
گفتوگو با متن یا صدا؟ تفاوتی مهم در میزان دلبستگی روانییکی از یافتههای جالب تحقیق این بود که افرادی که با ChatGPT بهشکل نوشتاری گفتوگو میکردند، بیشتر از کسانی که از حالت صوتی (Voice Mode) استفاده کرده بودند، زبان عاطفی و احساسی بهکار میبردند. بهعبارتی، تایپ کردن و نوشتن، فضا و وقت بیشتری برای احساس و درگیر شدن ذهنی فراهم میکند تا صرفاً شنیدن صدا یا مکالمه صوتی.
پژوهشگران همچنین متوجه شدند که استفادهٔ کوتاهمدت از حالت صوتی، معمولاً با احساس روانی بهتری همراه است. شاید به این دلیل که گفتوگوی صوتی بیشتر بهعنوان ابزاری گذرا تلقی میشود، درحالیکه تایپ کردن میتواند نوعی «نوشتن ذهن» باشد؛ فرآیندی که باعث درگیری بیشتر احساسی میشود. این تفاوت در نحوهٔ استفاده، بهویژه وقتی بهصورت مستمر تکرار شود، میتواند روی نوع رابطهٔ کاربر با چتبات اثر بگذارد و حتی زمینهساز وابستگی عمیقتر شود.
یکی از نتایج متناقض اما مهم این پژوهش آن است که افرادی که از ChatGPT برای اهداف شخصی – مثل صحبت دربارهٔ احساسات، خاطرات، یا مسائل فردی – استفاده میکنند، در مجموع وابستگی کمتری به آن دارند. درحالیکه افرادی که از آن برای مسائل به ظاهر غیرشخصی مثل مشورت کاری، تولید محتوا، یا ایدهپردازی بهره میبرند، بیشتر دچار وابستگی روانی میشوند.
این یافته ممکن است عجیب بهنظر برسد، اما توضیحی روانشناختی دارد: وقتی شما دربارهٔ مسائل شخصی صحبت میکنید، مرزهای رابطه را واضحتر در ذهنتان نگه میدارید. اما وقتی ChatGPT به «همکار خستگیناپذیر»، «ایدهپرداز بینقص» یا «حلکنندهٔ فوری مسئلهها» تبدیل شود، مرزها آرامآرام محو میشوند. ذهن ما بهسرعت شروع به اعتماد، اتکا، و حتی دلبستگی به چنین موجودی میکند. اینجاست که ابزار از کارکرد منطقیاش خارج شده و به بخش ثابتی از ساختار عاطفی و ذهنی فرد تبدیل میشود.
نکتهٔ اصلی و شاید خطرناکترین قسمت این پژوهش این است که تفاوتی نمیکند شما با چه هدفی از ChatGPT استفاده میکنید، یا چه نوع گفتوگویی با آن دارید؛ آنچه بیش از همه در بروز وابستگی نقش دارد، مدتزمان استفاده است. هرچه زمان بیشتری را با چتبات بگذرانید، احتمال ایجاد رابطهٔ احساسی، وابستگی یا حتی اعتیاد رفتاری بیشتر میشود.
این نکته ما را به پرسشی جدی میرساند: آیا آمادگی داریم با فناوریای
روبهرو شویم که هم هوشمند است، هم همیشه در دسترس و هم میتواند در سکوت،
جای رابطهٔ انسانی را پر کند؟
پاسخ شاید هنوز معلوم نباشد، اما
پژوهشگران تأکید کردهاند که در کنار توسعهٔ چتباتها، باید زیرساختهایی
هم برای آگاهیرسانی، تنظیمگری رفتاری، و نظارت تخصصی شکل بگیرد.
هوش مصنوعی، با تمام جذابیتها و امکاناتش، اگر بدون همراهی عقل و آگاهی انسانی استفاده شود، میتواند بهجای ابزار نجات، به دام ذهنی تبدیل شود؛ دامی نرم، صمیمی، و در ظاهر بیخطر.
منبع: futurism